人工智能有偏见和歧视吗?该算法是否使用户喜欢同样的方式?科学家给出证据

2020-08-10 14:35   来源: 互联网    阅读次数:165

人工智能有偏见和歧视,算法使用户喜欢趋同?科学家提供了证据。


正如你可能已经注意到的,当你在电影评级网站上给你刚看过的电影打分时,该网站推荐给你的电影风格将与你看过的电影相似。举个更常见的例子,当你在购物网站上搜索某一商品时,第二天推荐页面会显示类似的模型。


人工智能可以帮助企业获取客户偏好,但同时也逐渐根据用户的反馈,形成偏好偏差,使用户需要同化。不仅如此,在人脸识别领域,算法的歧视和偏见所引起的问题引起了很多争议。


最近,一些大学学者的研究结果提供了上述偏见和歧视的证据。他们的研究论文现在可在预印本网站arxiv上查阅。


算法推荐系统放大了偏见,使用户喜欢它。


推荐系统的本质是一种基于产品内容或用户行为的信息过滤。今天,我们使用的许多应用程序和网站都嵌入了算法推荐系统。如果在视频站点上给电影高分,系统会向您推荐更多的同类电影。如果您将推荐给系统的电影打分,系统会将您的反馈行为添加到系统中,这是一个反馈循环。


然而,推荐算法会受到流行偏见(流行偏见)的影响。流行偏见意味着一些热门项目经常被推荐,而另一些则被忽略。在上面的例子中,一些电影被更多的人喜爱,得到更高的分数,属于流行项目,或者被称为热门项目,这些项目将更多地被推荐给用户,这就是流行病偏见。


流行偏见的出现在一定程度上是由于培训数据本身的不同受欢迎程度不同,另一部分原因来自推荐算法。随着时间的推移,这种流行病偏见将得到加强。因为如果用户在反馈周期中继续为流行电影获得高分,这些影片就会变得更受欢迎,更有可能被推荐。


算法偏差的解决方案已经变得至关重要。因为如果处理不当,推荐系统中的一个小偏差也会随着时间的推移被放大。研究人员在论文末尾写道。


用于训练的人脸识别数据有很大的偏差。


越来越多的人关注人脸识别算法带来的偏见。例如,澄清模糊照片的脉冲算法使美国前总统巴拉克·奥巴马(Barack Obama)模糊的照片"恢复了一张白色的脸",在美国的BLM运动背景下引发了很多争议,在美国,黑人布莱克·利夫斯·马特(BlackLivesMatter)的生活正如火如荼地展开。


在人脸识别领域,算法出现偏差和区别的一个重要原因是用于训练的数据集存在很大的偏差。剑桥大学和中东科技大学的研究人员从两组用于识别人脸和表情的数据中发现了证据。


在RAF-DB数据库中,绝大多数图片来自20至39岁的白人。根据具体数据,77.4%的照片来自白人,15.5%来自亚裔,7.1%来自非裔美国人;就性别而言,56.3%的女性和43.7%的男性;超过一半的照片来自20至39岁的年轻人,甚至不到10%的三岁及以上的人。


为了进一步研究数据库中的偏见程度,研究人员使用三种算法对数据库的准确性和公平性进行了评价。结果表明,RAF-DB数据库识别少数民族的准确率低于白人;在公平方面,性别属性相对公平(97.3%),种族和年龄的公平性相对较低(88.1%和77.7%)。


许多公司使用人脸识别软件对受访者的情绪进行评级,如果整个系统存在偏见,对受访者意味着不公平。面部表情数据中存在偏见,这也凸显了监管的必要性。如何利用法律来防止技术滥用,已成为未来这一领域值得思考的问题之一。




责任编辑:无量渡口
分享到:
0
【慎重声明】凡本站未注明来源为"中关村热线"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!
关于我们| 免责声明| 投诉建议| 网站地图| sitemap|