我们能相信AI吗?

作者:Russell James

人工智能(AI)是未来技术的核心。很少有一种技术能像人工智能那样惠及社会。人工智能系统从大量复杂的非结构化信息中学习,并将其转化为可实施的见解。可以想象,在未来的几十年内,由于可以收集和分析的数据量不断增加,人类可以在各个领域取得重大突破,比如医学创新、气候分析和复杂的全球经济管理等等。

就像对人产生信任需要时间一样,对AI系统建立信任也不可能短时间内完成。但这并不意味着单靠时间就能解决人工智能的信任问题。人们总是希望事情会像期望的那样发展,但正像人类一样,AI也会犯错。尽管AI发展如此迅猛,但目前还是处于起步阶段。现在人们接触到的大部分系统都使用深度学习,这只是AI的一种形式。对于发现模式并将其用于识别、分类和预测的应用来说,深度学习是非常理想的选择,比如给购物者提供针对性的建议等。

然而,由于对神经网络模型运行方式的理解不够,这些系统仍然会出现错误,这些错误可能是由于训练集的限制或算法中未知的偏差造成的。这些错误带来了“AI无赖”的可怕结果,比如在Twitter上发布种族主义和性别歧视信息的聊天机器人,或者展示种族和性别偏见的AI程序。 对AI系统建立信任需要做什么呢?

为什么社会对人工智能充满怀疑?

人工智能及机器人技术的进步日新月异。今天,机器人可以执行许多人类任务,从地毯吸尘到农业生产,将人类从冗长的时间和密集的劳动强度中解脱出来,并为许多行业带来变革。 然而,当提到人工智能和机器人时,特别是在媒体上,人们经常报以怀疑的态度,往往会想到刀锋战士或终结者的场景:人类跪拜在机器人面前。这不是现实,也不可能发生。

还有更多的讨论,比如机器人承担了工作,让人们没有机会谋生。 在某些情况下,人工智能将取代人,这就是技术发展的结果。以自动驾驶车辆为例。 人工智能将会影响出租车司机和货车司机的生意,也将扰动更广泛的汽车行业,因为它会改变汽车的拥有权——为什么要买车?一辆车一年的运行成本超过2000英镑,还不包括燃料。当然,如果不用考虑停车费、服务费和养车带来的其他费用时,还是可以买一辆。

另外一个值得关注的问题就是智能化问题,有朝一日机器人是不是会比人们更聪明,完全“接管”人类的工作? 机器人已经非常聪明,但他们会发展出像感觉或道德认知这样的能力或智能化行为吗?这是人类和机器人之间的主要区别,人类本能地知道什么是对与错。道德认知并不是AI掌握的东西,而且老实说,将来是否能掌握也是有争议的。这是因为道德规范是没办法通过创建算法实现的。这也突出了AI存在的偏见问题。

“算法偏见”就是看似无害的编程会带有来自创作者或数据的偏见,正如本文开头的例子所强调的那样。但简而言之,机器偏见就是人类的偏见。处理这个问题的关键取决于技术公司、工程师和开发人员,他们都采取切实的措施,以防止偶然产生的区分算法。通过算法审核和始终保持透明度,可以确保AI算法远离偏见。

AI系统透明度的重要性

展望未来,技术公司和他们所创建的AI系统的透明度是解决所有问题的关键。仅靠强大的性能不会让人们主动接受AI。的确,当人们想搜寻一家餐厅或一首最喜欢的歌曲时,会发现像Siri和Google Now这样的数字私人助理非常好用,但这并不意味着AI完全被接受了。随着消费者对AI的熟悉程度越来越高,对透明度的认识和需求也会越来越大。如何才能使这些系统变得透明?

AI可以分为两大类:透明和不透明。企业在展示他们AI系统的工作时,首先需要明确他们的系统属于哪个类别。

透明的系统使用自我学习算法,这种方式可以通过评估显示他们的工作内容,以及通过什么方式做出决策。不透明的系统正相反,它只解决自己的问题,并不能显示其推理的过程。

像预测分析这样的功能,属于简单的自动决策,往往遵循相当透明的模式。不透明的人工智能可以超越开发者的梦想形成深刻的见解,但它也会从开发者手中夺走一定程度的控制权。例如,使用Google语音识别或Facebook脸部识别,算法大多很精确,但人们无法解释其工作原理。因此,从长远来看,需要把重点放在系统设计和应用上,这些系统不仅限于思考,而是通过思考去解释,以确保系统完全的透明化。

我们能相信AI吗?

为了对人工智能建立信任,所有人都有责任不断学习和了解行业优势和术语,而科技公司也必须负起责来,确保他们自己创建的人工智能系统是透明化的,明确他们可以做什么。例如,面部识别系统是为了验证一个人的身份,还是也可以分析和记录面部反应?

关于人工智能对社会和文化的影响,还需要进行更多的交流和探讨。例如,未来人类应该有多少时间用于工作?如果某些工作是由机器人完成的,是否应该制定关于工资的相关社会政策?比尔·盖茨还提出了关于机器人是否应该得到报酬以及纳税的问题,以及在未来几十年中资本是否能够在AI时代继续生存的更广泛和复杂的问题。

除了技术以外,机器人的道德规划也必须成为首先需要解决的问题。正如霍金(Stephen Hawking)教授所说:“计算机将在未来100年的某个阶段通过AI超越人类。当发生这种情况时,我们需要确保计算机的目标与我们的目标保持一致。”只有让AI在负责任的状态中不断进步,并保持透明度和充分合作,才能做到这一点。

AI不会消失。 它所带来的进步只会越来越多。为了确保对AI建立信任,所有人都应该为确保在可信赖的状态下进行AI的设计和应用做出自己的努力。

声明:本文为原创文章,转载需注明作者、出处及原文链接,否则,本网站将保留追究其法律责任的权利

1 条评论

时间行者 的头像

(1楼)你相信自己么?

由 时间行者 在 星期二, 2018-04-17 10:32 发表。

与其问信不信AI,不如问,能不能相信自己?

人类的文明,真的已经到了可以完全驾驭力量的程度么?

中玄昊天 至大光正

--电子创新网--
粤ICP备12070055号