本篇文章3145字,读完约8分钟
随着人工智能技术的普及,我们似乎开始无条件地相信计算机算法所提供的结果,但有些问题是不可忽视的。除了对就业的影响之外,人工智能经常根据人类提供的样本数据进行学习,并应用到每个人身上,包括人类的负面能量。因此,人工智能很可能像儿童一样糟糕,其价值取向被扭曲。人类在学习过程中可能出现的任何认知偏差都可能发生在人工智能系统的学习过程中。
这样的事件一直在发生。例如,不久前,谷歌的图像识别程序将几个黑脸标记为大猩猩;linkedin的一个招聘广告计划显示,首选是男性;在twitter上学习了一天之后,名为tay的微软聊天机器人开始显示反犹太信息。
人工智能正在成为一个种族主义者
人工智能在价值观上的这种偏差将对社会产生巨大影响。
去年5月,有一份报告称,美国法院用于犯罪风险评估的计算机程序对黑人罪犯有偏见。据调查新闻机构propublica称,在compas项目中,该算法给出的黑人风险值(45%)几乎是判断嫌疑人是否是惯犯的白人风险值(24%)的两倍,因此更容易将黑人识别为惯犯嫌疑人。
许多类似于compas的项目已经在美国的数百家法院得到应用,这无疑将影响法官和其他官员的判决。我们似乎看到,因种族歧视而受到批评的美国司法系统已经开始寻求技术帮助来改变这种情况,但最终发现算法本身也有种族偏见。
提供该软件的公司Northpointe对该报告的结论提出质疑,但声称该项目拒绝披露内部算法是因为敏感的商业秘密。无论如何,propublica的指控揭示了一个困扰许多社会学家和计算机科学家多年的问题,那就是,当计算工具变得越来越先进时,他们的计算原理变得越来越不透明。计算机工具所依赖的数据,如逮捕记录、邮政编码、社会关系和收入,不仅有偏见,而且可能进一步加深人类的偏见。
我们为计算机算法提供的信息越多,机器学习和其他使用大数据的程序的性能就越好。麦肯锡全球管理咨询公司称,过去一年,科技公司在人工智能领域投资了约200亿至300亿元人民币,主要用于研发。这些公司认为,人工智能可以筛选社会产生的大量信息,并找到一种模式,帮助人类社会变得更有效率、更富裕、更幸福。
许多科学家希望利用机器学习来完成许多事情,比如帮助失业者找到工作,预测养老基金的趋势,以及整理税务和海关工作。这些项目将涉及人类生活的各个方面,并成为一种被广泛认可的智慧。正如一位计算机科学家所说:我们可能不知道人工智能的应用现在有多广泛,但我知道我们不能倒退。
然而,目前人们对人工智能的关注往往是预测未来趋势,而很少关注如何防止相关项目进一步加剧过去社会中存在的不平等。
旧金山非营利组织人权数据分析小组的首席统计师克里斯汀·卢姆说:“人们经常不经意间让程序自动执行。”去年,卢姆和一个合作伙伴演示了一个名为predpol的项目。基于过去犯罪报告研究的计算机可以帮助警察部门预测未来可能发生犯罪的热点。这也导致警察部门在黑人和棕色人种聚集的地区过于警惕。政策研究员Samuel sinyangwe说,这种做法特别恶毒。一方面,警方可以说他们没有偏见,只是根据数据的分析结果来执行;另一方面,这也意味着公共计算机的算法是公平的。
对计算机的偏见认知是人类赋予的
事实上,计算机本身并没有偏见,但它会很快从人类提供的数据中学会辨别。尽管机器学习使计算机能够做很多工作,如语言翻译、人脸识别或在网飞排队时推荐电影。然而,由于算法可以不断地从原始代码中学习,原理变得越来越复杂和不透明。然而,像northpointe这样的许多公司不愿意透露算法的内部操作原理,因为它具有商业敏感性。
此前,巴斯大学的研究员乔安娜·布莱森(joanna bryson)开发了一个学习单词间关系的程序,发现在阅读了数百万页的互联网文本后,该程序开始将女性的名字和代词与接待员和护士联系起来。更让她震惊的是,这一结果与美国政府数据显示的结果一致,而且性别和职业之间确实有近90%的相关性。
布莱森说:人们希望人工智能是公平和客观的,这本身就是错误的。如果基础数据反映了人们固有的印象和判断,或者如果你根据人类文化训练人工智能,那么你仍然会发现偏见在人工智能领域也很普遍。
那么,在这种情况下,谁会是受害者呢?根据凯西奥尼尔的书《数学毁灭的武器》,在当今社会,最大的受害者通常是那些最容易受到自动系统评估的人。例如,真正富有的人不太可能通过互联网找到工作,他们也不会让银行管理员以外的任何人评估他们的贷款申请。在司法系统中,数千名无力聘请律师或其他法律顾问的被告最有可能接受计算机自动评估。
在克里斯汀·卢姆2016年发表的一篇论文中,她特别揭示了哪些群体会因为人工智能系统中的偏见而成为受害者。该项目以predpol为例,分析奥克兰市警察局提供的犯罪和逮捕记录的最新统计数据,并总结未来可能的犯罪领域,从而为警察部署提供依据。尽管统计人员根据国家统计数据显示,全国吸毒的概率与黑人差不多,但在predpol项目显示的犯罪集中地区的结果中,黑人社区的数量是白人社区的两倍。
然而,如果美国警方继续在这些地区开展行动,并根据predpol预测的结果增加逮捕人数,这将进入一个恶性循环,predpol预测的犯罪行为将越来越多地出现在警方最频繁访问的地区。同时,这也将导致向这些地区部署更多的警察。等等。
偏见认知问题没有完美的解决方案
尽管我们大多数人都不理解predpol等程序中的复杂代码,但洛杉矶处理警察监视的社区组织“阻止洛杉矶警察局间谍联盟”的组织者哈米德·汗(hamid khan)表示,人们认为预测性警务是一种自上而下的方法,可以保持法律和秩序水平不变,这将导致那些不稳定地区的病态。
计算机科学中有一种说法,错误的输入会导致错误的输出。这意味着程序不是万能的。如果您提供给计算机的信息有缺陷,计算机将不会修复这些缺陷,而只会根据现有信息进行处理。用汗的话说,输入种族主义将导致种族歧视信息的输出。
但我们仍然不知道的是,现行法律如何防止歧视,以及如何规范算法决策来解决这个问题。2016年,康奈尔大学(Cornell University)教授、曾是微软研究员的梭伦巴罗卡斯(solon barocas)表示,在大数据和机器学习方面,现行法律很难解决歧视问题。目前,包括美国公民自由联盟(aclu)在内的许多美国传统民权活动人士,都在不断维护人们在这方面的权利,甚至试图采取城市政策,要求警方披露他们使用的所有技术,包括人工智能。
然而,由于政府机构采用私营企业的技术,它们的内部工作原理可能不透明,因此这一过程非常复杂和曲折。
在这方面,英国也实施了一系列保护措施。例如,如果一个决定完全交给了计算机,那么政府服务提供商和公司必须披露它。然而,牛津大学艾伦·图灵研究所的法律学者桑德拉·瓦赫特(sandra wachter)表示,现行法律并不完全符合技术进步的方向,许多漏洞可能导致该算法被私下使用。因此,他要求政府提供解释权,所有相应的实施计划必须以更高的透明度充分披露。
鉴于这一主题,许多科学文献反映了当今社会关于公平本质的争论,研究人员正在使用各种方法从几十年的历史数据中剥离不公平因素并修改算法模型,以保护所有受反歧视法保护的群体。然而,图灵研究所的一名研究员仍然认为这非常困难,因为改变变量可能会引入新的偏见,有时我们甚至不知道偏见如何影响数据,什么是偏见。
因此,除了技术和应用本身,人工智能还有许多社会和道德问题需要解决。可以说,计算机科学家面临着一个陌生而熟悉的挑战:他们在《展望未来》中工作,但是当面对具有学习能力的机器时,他们发现自己仍然被困在非常古老而传统的问题中。
资料来源:卫报;;编辑人:科技沃克>
标题:AI也会“学坏”?都是人类捣的鬼!
地址:http://www.hcsbodzyz.com/hcxw/6248.html