人工智能发展得太快了, 这是一件好事

2019 年是见证人工智能(AI)潜力的伟大一年。Waymo 把自动驾驶出租车卖给了亚利桑那州的付费客户、OpenAI 和 DeepMind 的机器人在两款大型电子竞技游戏中击败了顶级专业人士、一种深度学习算法在医学影像中发现了肺癌肿瘤,其表现与医生相比毫不逊色——有时甚至胜过后者。

但说到人工智能该做什么,2019 年又是可怕的一年。亚马逊的面部识别软件如何?麻省理工学院说,它存在种族歧视问题。据研究人员称,这家科技巨头的算法错误识别了近三分之一的深肤色女性的面孔(而对于浅肤色男性的面孔,其识别准确率近乎完美)。WeSee 和 HireVue 等公司用来评估威胁和筛选求职者的情绪侦测算法呢? 心理科学协会说,简直一派胡言。就连不太靠谱的自然语言处理领域也受到了冲击 : OpenAI 公司开发了顶级系统 GPT-2,只需几句提示即可生成具有说服力的数百词文本,但 OpenAI 担心它可能被“恶意”用于传播假新闻、仇恨言论或更为恶劣的内容, 风险太大,不适合发布。

换言之,在 2019 年,围绕这艘被称为“人工智能”的创新火箭飞船,有两个问题不可避免地逐渐清晰化。首先,它的加速度超出了大多数人的预期。其次,它有几个重要的“螺丝”出现了松动。

这是一个可怕的领悟,毕竟全人类都被绑在了这艘火箭上,而不是站在安全距离之外的旁观者。但 AI 令人忧心的发展进程也有其积极的一面 :一项颠覆性技术的意外后果在当下就显现出来,不用等到几年甚至几十年后,这或许是有史以来第一次。这意味着,虽然我们可能因为前进速度太快而感到不安,但实际上,我们可以抓住油门,控制方向。

人们很容易忘记了,在 2012 年之前,我们今天所谓的 AI——基于人工神经网络的深度学习——实际上还不存在。利用(以近似生物脑组织的方式组织起来的)数字连接层学习模式识别任务的概念已经拥有几十年的历史,但主要停留在学术领域。接着,在 2012 年 9 月,多伦多大学教授、后来的“深度学习教父”杰弗里·辛顿(Geoffrey Hinton)的学生设计了一个神经网络,出乎意料地在受到高度重视的 ImageNet 计算机视觉挑战中打破了记录。该测试要求软件正确识别数百万幅图像的内容,比如鹦鹉或吉他的图片。学生们开发的神经网络所犯的错误数量是亚军的一半。

突然间,深度学习“起作用”了。五年内,谷歌和微软雇佣了大量的深度学习专家,并自诩为“AI 先行”的公司。这股潮流没有止步于大型科技企业:2018 年,咨询公司麦肯锡一项覆盖 2,000 多家公司的全球调查发现,超过四分之三的公司已经整合了 AI 技术或正在进行相关试点项目。

正如安德森·霍洛维茨基金(Andreessen Horowitz)分析师本尼迪克特·埃文斯(Benedict Evans)所言,现代智能手机用 10 年的时间“吞噬世界”; 而网络花了 20 年。然而,短短五年内,AI 已经从实验室的新奇玩意进化成了一股经济力量。据普华永道会计师事务所估计,人工智能在2017年和2018年为全球 GDP 贡献了 2 万亿美元。“谈到 AI 的发展速度,我们当然是在缩短时间周期。”曾担任美国前总统巴拉克·奥 巴马(Barack Obama)技术顾问的麻省理工学院人工智能政策研究负责人 R·大卫·埃德尔曼(R. David Edelman)说道。

这种前所未有的速度推动了人工智能的发展和激荡。2019 年,全球营销咨询公司爱德曼与世界经济论坛合作开展的一项调查显示,54% 至 75% 的美国普通大众认为,AI 将伤害穷人,造福富人,加剧社会孤立, 并导致“人类智力的丧失”。三分之一的受访者甚至认为, 深度换脸(deepfake)视频——由深度学习网络生成的名人、政府官员或普通人的以假乱真的视频——或将掀起“一场信息战,进而可能引发一场真枪实弹的战争”。

那么,社会该如何应对?我们总不能诉诸麻省理工学院的埃德尔曼(与英文同名咨询公司爱德曼没有关系)所说的“现代勒德主义”吧,毕竟,在工业革命期间打砸织布机的真勒德分子也没有成功。但与之相反的观点——盲目相信创新最终会自行解决问题——也不可取。(整个地球就是强有力的证据,经历了 100 年的汽车碳排放,它早已千疮百孔。)

此时 , 火箭飞船的“油门”就派上用场了。技术创新的标准时间轴遵循所谓的“S 曲线”:缓慢的开始,然 后随着技术的流行而上升,最后随着它的普及而稳定下 来。对汽车或智能手机等此前一统天下的技术而言,其非预期后果并没有立即显现出来,一直到我们爬上了 S 曲线的“ 斜坡 ”,甚至抵达了平稳的“高原”,才发现情况不妙。比如说,汽车的大量使用引发了多场缓慢推进的灾难:除了气候变化,还有被削弱的公共交通,数十年扭曲的城市规划,以及惊人的大灭绝。2017 年,心理学家珍·特温吉(Jean Twenge)断言,智能手机助长了社交 媒体成瘾和焦虑情绪,“摧毁了一代人”,而那时候,已经有近 30 亿人在使用智能手机。以上两个例子中,在人类意识到事情不对之前,一切已成定局。但 AI在大约5年的时间里,已经从“不存在”发展到“似乎无处不在”,这实际上给我们提供了一个修正方向的实时反馈机制。

我们能否把神经网络设计得更好理解,不再像高深莫测的“黑匣子”?如何系统测试深度学习系统中存在的不道德偏见?是否应该设立一个类似FDA(食品及药物管理局)或 EPA(环境保护局)的机构,审查人工智能实践及产品?“它(AI 技术)的快速变化使这些问题的提出更为迫切。”尼克·奥布拉多维奇(Nick Obradovich)说道。他是马克斯·普朗克人类发展研究 所(Max Planck Institute for Human Development) 的一位科学家,专门研究 AI 带来的社会挑战。

人工智能的实时清算已经开始了。在 2019 年的 I/ O 大会上,谷歌公布了一个名为 TCAV 的系统,可作为深度学习网络的“扯淡探测器”。(想确认你的癌症筛查 AI 发现的是真肿瘤,而不是统计故障?TCAV 能帮你!) 2019 年 5 月,包括美国在内的 42 个国家正式采纳了经济合作与发展组织(OECD)制定的政策指导方针,“同意支持国际标准,确保 AI 系统的设计稳健、安全、公平且值得信赖。”早些时候,麻省理工学院的研究人员创建了一门全新的科学学科——“机器行为”,旨在研究算法和人类“在自然环境下”的互动方式。其研究论文由 二十多位来自经济学、政治学、机器人学以及社会学等不同领域的专家共同撰写。

“在未来的某个时候,我们将会针对生活中算法的开发和使用制定一些规则。”机器行为论文的合著者之一奥布拉多维奇说道。与此同时,“训练有素的社会科学家可以发挥重大作用,介入其中,开始发现当下存在的问题,以及可能即将出现的问题。”

或许,在这种面对创新技术的新兴态度激励下,我们不仅能让 A“I 起作用”,还能让它守规矩。它可以打好一个基础,指导人类应对其它颠覆性的新技术,比如 5G 互联网、加密货币、自动驾驶汽车和 CRISPR 基因编辑。“这种——共同设计系统和社会政策的——典范可以成为供新兴创新参考的可重复模式。”埃德尔曼表示,“事实上,这可能是必须的。”毕竟,人工智能不会是与人类命运捆绑的最后一枚火箭。而“有能力”驾驭它的也只有我们了。

本文转自微信号“快公司FastCompany”(FCChinese),转载此文目的在于传递更多信息,版权归原作者所有。
原文链接:https://mp.weixin.qq.com/s/DDgsJHf6xFo531mifUhZuA

推荐阅读