人工智能也有偏见,算法“失格”能否被校正?

原作者:Geraldine Moriba
编译:腾讯媒体研究院

1、21世纪的“偏见”因何而生


你在这幅画中看到了什么?是看到一个男孩在鼓励一个女孩走上楼梯?还是一个男孩把一个女孩推下楼梯?如果这两个孩子的肤色互换,你会有不同的看法吗?

每个人的潜意识里其实都存在“偏见”,“偏见”是喜欢一个人或一个人群胜过其他,你对任何事物的第一印象由你的潜意识支配。

人工智能的发展已经初步成熟,如今被广泛地应用于文明社会的各个方面,它影响着我们的决策、情感和行为。问题是,人工智能不止是潜移默化地影响着我们对事物的看法,也带来了它有害的一面:不公平和不平等。

作为斯坦福大学John S.Knight Journalism Fellowship的一员,我与Brown媒体创新研究所所长Maneesh Agrawala/计算机科学助理教授Kayvon Fatahalian以及博士候选人James Hong一起参与了这项研究。

我们正在探索使用基于人工智能的图像、音频和文本处理技术,来分析电视广播和其他平台的内容、偏见、两极分化。最终,我们计划发布基于web的交互式工具,为记者和数据科学家提供另一种方式,以提高他们报道的真实性和透明度。这是人工智能作为一种工具的应用之一,它可以识别新闻业中AI带来的虚假信息问题。但是算法本身的“偏见”又该如何解决呢?


当程序员在算法建模中选择要包含哪些属性以及要忽略哪些属性时,他们的个人思想会直接影响到准确性和结果。这种实际算法模型中内置的偏差难以检测,甚至难以修复。

AI赋予了算法以权威和权力,而这些算法是由一小撮有着相似兴趣、经验和观点的程序员构建的,这意味着算法的“偏见”需要通过人机协作来制衡。程序员的想法影响了他们训练时用的数据,也影响了他们撰写的代码,换句话说,“偏见”在数据收集之前就已经存在了。因此得出的结果可能既无法代表事实,也无法反映存在的偏见。

以下是反映算法“偏见”的真实例子,以及由此产生的关乎生命的后果。相信你看过之后不禁会发问:

2、人工智能到底是减少了“偏见”,还是加重了“偏见”?


为应对大规模的枪击事件,学校和医院正在部署监控技术、配备音频检测工具,以监测和识别攻击性行为。但有线杂志和ProPublica却发现这些工具不会去思考人们具体说的话和它们的含义,相反他们会根据音调高低来进行监测,比如说剧烈咳嗽都可能被识别为具备潜在的攻击性,同样它也无法识别表明上听起来很平静,但却是潜在罪犯的声音。

亚马逊建立了一个内部的AI程序,以帮助在招聘和薪资方面实现性别平衡。结果他们发现这个程序更偏向于男性而不是女性,因为建模所使用的数据已经潜意识地反映了往年企业对女性的歧视。最终,亚马逊停止了该程序的开发并解散了团队。

一个由摄像头组成的网络在全国各地捕捉你的脸,当局能够在人群中识别你的身份并追踪你的行动。根据Georgetown Law大学隐私与技术中心的研究,问题在于这些算法对非裔美国人、女性和年轻人的准确性较低,而这些数据可以被用在任何地方。旧金山是第一个禁止使用面部识别监控技术的主要城市。

美国政府问责局(U.S. Government Accountability Office)的一份报告发现,机场使用的一些TSA全身成像技术设备“在乘客戴头巾和假发时,误报率更高”。ProPublica发现,同样的扫描仪也经常对黑人女性的爆炸头、脏辫和其他发型发出错误警报。

全国各地用来预测某个人未来犯罪可能性的评估软件显然对黑人有偏见。哥伦比亚大学(Columbia University)法律与政治学教授伯纳德•哈考特(Bernard Harcourt)发现,这些智能化程序加剧了刑事司法体系中的种族差异。洛杉矶已经取消了这个项目,但许多法院仍在使用它。

据麻省理工学院媒体实验室研究员Joy Buolamwini称,微软、IBM和亚马逊等公司的人工智能服务都存在着很大的种族歧视和性别偏见。“在猜测面部性别的简单任务中,所有公司的技术在男性面孔上的表现都比在女性面孔上表现得更好,尤其是在识别黑皮肤的非洲女性时错误率更高。”她还发现了在线广告也有歧视的可能性。

联合国教科文组织警告称,要注意苹果的Siri、亚马逊的Alexa、微软的Cortana和Google助手带来的负面影响。他们声称,这些私人助理默认设置中的女性声音延续了这样一种观念:“只需按一下按钮或使用语音命令,就会让其中的女声变得温顺,满足使用者的各种需求。”

英国的地方社区委员会正在开发“预测分析”系统,以预测虐待儿童和易受黑帮敲诈的可能性,其目标是在虐待或暴力发生前进行干预,不过该系统是否有效还有待确认。除了对准确性和有效性的特别关注之外,该系统还提出了一个关于“安全家庭”是什么样的问题。

3、算法的”偏见“可以被修复吗?


每个人都有偏见,不管是有意识的还是无意识的,我们创建的AI算法都会受这些偏见的影响。幸运的是,一些AI研究人员已经在尝试解决这个问题。他们正在开发算法以帮助减轻用来训练的数据中隐藏的偏差。他们还在开发更具包容性数据的算法,例如Google的包容性图像大赛,以及名为 Pilot Parliaments Benchmark (PPB) 的评估算法,它是专门用于评估计算机视觉系统偏差的数据集。

旧金山采取了自动化系统的措施,减少检察官自由裁量权的“偏见”。他们正在使用一种人工智能“消除偏见的工具”,该工具可以自动修改警方报告中的任何可能与种族有关的内容,从头发颜色到邮政编码。其目的是减少检察官在审查警方报告时可能存在的种族歧视问题。

好消息是,用于创建这些AI工具的智慧同样也可用于修复它们。如果想用技术来代表我们所有人,那么我们都必须参与到技术的创造中去。这意味着在未来,我们要理解算法可以做什么,以及通过各种渠道去普及算法的内涵,让公众更好地去应对机器可能带给我们的危害。

致谢:
1. Jones, Elaine F; Parker, Bonita L; M Holland Joyner; Ulku-Steiner, Beril. The influences of behavior valence and actor race on Black and White children’s moral and linking judgments. The Journal of Psychology; Provincetown Vol. 133, Iss. 2, (Mar 1999): 194–204.
2. Brendan F. Klare et al., Face Recognition Performance: Role of Demographic Information, 7 IEEE Transactions on Information Forensics and Security 1789, 1797 (2012).

本文转自: 腾讯媒体研究院(TencentMRI),原作者:Geraldine Moriba,转载此文目的在于传递更多信息,版权归原作者所有。

推荐阅读