人脸分析:一门“新玄学”
算法会产生独到的偏见。比如,亚马逊的招聘AI算法就更偏好具有男性特征的简历,而对女性面试者不友好,因为在算法的训练数据中,男性要多于女性。美国法院使用的人工智能程序也对黑人的再犯罪判定具有偏见,认为黑人的再犯罪可能性是白人的两倍,从而影响法院对不同人种的刑期判定;在金融风控方面,AI算法的结果也对人的种族、阶层存有偏见,比如,深色人种即使品行端正也很难申请到住房贷款,因为算法会将他与那些大多工作不稳定且有犯罪前科的深色人种归为同类。 产生偏见的原因在于,算法对人的认识几乎是即时的,没有时间维度。也就是说,只要我们的特征维度不变,那么同一个算法永远都会将我们归于固定的某一类,问题是人某一个时刻展现的只是自己的一面,更重要的是人是在不断发展变化中的,青年时期、中年时期、晚年时期,可能呈现完全不同的风格。为什么人识人就不会这么刻板,是因为人对人的认识,是一个缓慢的、渐进的、主观的、挖掘的过程,时间会不断修正初始的看法和认识,因而人对人的评价会逐步趋向客观和真实。 努德海文(Nooderhaven)的人性内核分裂模型,将“信任”加入到“经济人假设”中,认为随着人与人之间交往与合作的次数增加,“信任”的成分将会越来越大,最终人与人之间的偏见将会随着信任的增加而软化。 努德海文人性内核分裂模型 (编辑:通化站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |