本篇文章1040字,读完约3分钟
一直以来,研究表明,人类开发的机器也可以学习人类观察世界的视角,不管是有意还是无意。对于阅读文本的人工智能来说,它可能会首先将“医生”这个词与男性联系起来,而不是女性,或者图像识别算法会将黑人归类为概率更高的大猩猩。
2015年,谷歌照片错误地将两个黑人称为“大猩猩”。当时,这一失误意味着谷歌的机器学习仍处于“漫长的道路和修远”的状态。随后,谷歌立即道歉,并表示将调整算法以解决问题。最近,谷歌,作为这一错误的责任方,正试图让公众知道人工智能是如何无意中得知那些永久创造它们的人所持有的偏见的。一方面,这是谷歌进行公关的一个好方法,其次,人工智能程序员也可以用一个简单的方法来总结他们有偏见的算法。
视频来源:youtube
在这段视频中,谷歌概述了三种偏见:
交互偏见:用户可以通过我们与他们交互的方式来抵消算法。例如,谷歌召集了一些参与者,要求他们每人画一只鞋,但大多数用户会选择画一只男鞋,所以基于这些数据的系统可能不知道高跟鞋也是鞋。
潜在偏见:该算法错误地将想法与性别、种族、收入等联系起来。例如,当用户在谷歌搜索中搜索“医生”时,他们大多数是白人。
雷锋。据了解,quarts之前曾发表过一篇相关的新闻,报道称普林斯顿大学的最新研究结果显示,这些偏见,比如将医生与男性联系在一起,将护士与女性联系在一起,都源于教授算法的语言的影响。正如一些数据科学家所说:没有好的数据,算法就不能做出好的决定。
选择偏差:众所周知,用于训练算法的数据量已经大大超过了全局种群的数量,从而实现了对算法更好的操作和理解。因此,如果训练图像识别的数据仅针对白人,那么获得的数据只能来自人工智能识别。
图片来源:qaurtz
去年6月,“青年实验室”(英伟达、微软等科技巨头都是这个实验室的合作伙伴和支持者)举办了一次在线美容大赛。比赛通过人工智能分析收集了60万条记录。该算法参考了诸如皱纹、面部比例、皮肤粉刺和瑕疵的数量、种族和预测年龄等因素。最终结果显示,种族扮演了比预期更重要的角色:在44名获胜者中,36名是白人。
事实上,已经有很多关于算法中性别和种族偏见的研究和报告。根据雷Feng.com(公开号码:雷锋网),消除这些偏见是不容易的。正如微软纽约研究院高级研究员汉娜·瓦拉克所说:
“只要机器学习的程序是由社会中现有的数据训练出来的,只要这个社会中存在偏见,机器学习就会再现这些偏见。ゥ
Viaquartz,由雷锋编辑。
雷锋原创文章。严禁擅自转载。详情请参考转载说明。
标题:AI算法为什么会存在性别歧视?谷歌做出了解释
地址:http://www.hcsbodzyz.com/hcxw/6771.html