合成数据生成器可以解决人工智能的偏见问题

来源:千家网


人工智能偏见是一个严重的问题,可能对个人产生各种后果。

随着人工智能的发展,围绕数据科学解决方案的问题和道德困境开始浮出水面。因为人类已经将自己排除在决策过程之外,他们希望确保这些算法做出的判断既不带有偏见,也不带有歧视性。人工智能必须在任何时候都受到监督。我们不能说这种可能的偏见是由人工智能引起的,因为其是一个基于预测分析的数字系统,可以处理大量数据。这个问题在更早的时候就开始了,即“输入”到系统中的无监督数据。
纵观历史,人类一直存有偏见和歧视。我们的行动似乎不会很快改变。在系统和算法中发现了偏见,与人类不同,这些系统和算法似乎对这个问题免疫。

什么是人工智能偏见?

当获取数据的方式导致样本不能正确代表利益群体时,AI偏差就会在数据相关领域发生。这表明来自特定种族、信仰、肤色和性别的人,在数据样本中没有得到充分代表。这可能会导致系统做出鉴别性的结论。还引发了关于什么是数据科学咨询以及其的重要性的问题。

AI中的偏见并不意味着创建的AI系统会故意偏向于特定的人群。人工智能的目标是使个人能够通过示例而不是指令来表达他们的愿望。所以,如果AI有偏差,那只能是因为数据有偏差!人工智能决策是一个在现实世界中运行的理想化过程,其无法掩盖人类的缺陷。结合引导学习也是有利的。

为什么会发生?

人工智能偏见问题的出现是由于数据可能包含基于先入为主的人类选择,这有利于得出良好的算法结论。在现实生活中,有几个关于人工智能偏见的例子。种族人士和著名的变装皇后被谷歌的仇恨言论检测系统歧视。10年来,亚马逊的人力资源算法主要是提供男性员工数据,这导致女性候选人更有可能被评为符合亚马逊的工作资格。

麻省理工学院(MIT)的数据科学家表示,人脸识别算法在分析少数族裔(尤其是少数族裔女性)的面孔时,出错率更高。这可能是因为该算法在训练过程中主要提供了白人男性的面孔。

由于亚马逊的算法是根据其在美国的1.12亿Prime用户,以及数千万经常光顾该网站,并经常使用其其他商品的额外个人的数据进行训练的,因此该公司可以预测消费者的购买行为。谷歌的广告业务是基于预测算法的,该算法由其每天进行的数十亿次互联网搜索以及市场上25亿部Android智能手机的数据提供。这些互联网巨头建立了庞大的数据垄断企业,在人工智能领域拥有近乎不可逾越的优势。

合成数据如何帮助解决人工智能偏见?

在一个理想的社会中,没有人会受到偏见,每个人都将拥有平等的机会,无论肤色、性别、宗教或性取向。然而,其存在于现实世界中,那些在某些地区与大多数人不同的人更难找到工作和获得教育,这使他们在许多统计数据中被低估。根据人工智能系统的目标,这可能会导致错误的推断,即这类人技能较低,不太容易被纳入这些数据集,以及不太适合获得良好的分数。

另一方面,人工智能数据可能是朝着公正的人工智能方向迈出的一大步。以下是一些需要考虑的概念:

查看现实世界的数据,看看偏差在哪里。然后,利用真实世界的数据和可观察到的偏差,合成数据。如果想要创建理想的虚拟数据生成器,需要包含一个公平定义,其可试图将有偏差的数据转换为可能被认为是公平的数据。

人工智能生成的数据可能会填补数据集中变化不大或不够大的空白,从而形成一个公正的数据集。即使样本量很大,也有可能有些人被排除在外,或者与其他人相比,代表性不足。这个问题必须使用合成数据来解决。

数据挖掘可能比生成公正的数据更昂贵。实际的数据收集需要测量、采访、大量的样本,并且无论如何都需要付出很多努力。人工智能生成的数据价格低廉,而且只需要使用数据科学和机器学习算法即可。

过去几年,许多盈利性合成数据公司以及Synthea的创始人MitreCorp.的高管都注意到,人们对他们的服务的兴趣激增。然而,随着算法被更广泛地用于做出改变生活的决定,人们发现它们会加剧种族主义、性别歧视和其他高影响领域的有害偏见,包括面部识别、犯罪预测和医疗保健决策。研究人员表示,使用算法生成的数据训练算法,会增加人工智能系统在许多情况下延续有害偏见的可能性。

本文转自:千家网,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。

最新文章