关于人工智能的五个可怕预测

当人们想到人工智能( AI )时,人们常常会想到android killers和computers-gone的野蛮场景。好莱坞电影如《刀锋战士》和《终结者》系列常常让我们产生了一种恐惧感——人工智能会违背其编程并攻击人类?

对于一个今年可能产生超过1万亿美元商业价值,到2022年可能产生近4万亿美元商业价值的行业来说,任何对其道德意义的重大怀疑都可能产生重大后果。

人工智能是一个流行语,经常在商业世界和媒体中流传,但它已经对许多行业产生了实际影响——尤其是那些依赖大量体力劳动的行业。

随着人工智能越来越接近成熟,企业继续加大对它的投资,有人担心这项技术对更广泛的社会和道德影响没有得到足够的重视。

近日外媒CNBC采访了一些专家,看看他们认为人工智能的五种最可怕的未来情景。

1、大规模失业

分析师乃至工人普遍担心,随着工作越来越自动化,不再需要人工劳动,人工智能可能会导致全球大规模失业。

爱丁堡大学信息学学院教授Alan Bundy说:“失业可能是最大的担忧。”

据Bundy称,失业是世界各地民粹主义兴起的主要原因——他以唐纳德·特朗普总统的当选和英国退出欧盟的决定为例。

他补充道:“人类将聚焦一些窄领域的应用程序,处理一些边缘情况,但这不会取代预期的大规模失业。”

人工智能的支持者说,这项技术将导致创造新的就业机会。对工程师的需求将会增加,因为新技术的复杂性需要合适的人才来开发它。

倡导者说,为了在日常工作中发挥新的功能,人类还必须使用人工智能。

研究公司Gartner预测,到2020年,人工智能将创造230万个工作岗位,减少180万个工作岗位,净增加50万个工作岗位。这并不排除这样一个事实,即AI会导致全球范围内的大规模裁员。

牛津大学2013年经常引用的一项研究指出,一些最可替代的工作包括经纪文员、银行出纳员、保险承保人和税务编制员,这些工作虽然技能不高,但却是维持金融业运转的关键职业。

尽管有可能通过提高失业率和创造新的工作机会,甚至引入普遍的基本收入,将人工智能对劳动力市场的损害降到最低,但失业问题显然不会很快消失。

2、战争

所谓的“杀手机器人”的出现以及人工智能在军事应用中的其他用途让专家担心这项技术最终会导致战争。

特斯拉首席执行官埃隆·马斯克以直言不讳的人工智能观点著称,他去年警告说,这项技术可能会导致第三次世界大战。

尽管马斯克以夸张著称,但他的评论让专家们真正感到恐惧。一些分析人士和活动家认为,致命自主武器的发展和人工智能在军事决策中的使用造成了许多伦理困境,并开启了人工智能增强——或人工智能主导——战争的可能性。

甚至有一群NGOs (非政府组织)致力于禁止这种机器。2013年发起的阻止杀手机器人的运动呼吁各国政府阻止人工智能无人机的发展。

阿姆斯特丹自由大学的人工智能研究员Frank van Harmelen说,尽管他不认为用“恐怖”这个词来形容人工智能是完全准确的,但是使用这些武器应该会吓到任何人。

“我真正认为‘恐怖’一词适用的唯一领域是自主武器系统...可能看起来像机器人也可能不像机器人的系统。“Harmelen说。

“任何自动决定生死的计算机系统(例如,通过发射导弹),不管人工智能与否,都是一个非常可怕的想法。"

今年早些时候,美国国防智囊团Rand Corporation在一项研究中警告说,在军事应用中使用人工智能可能会在2040年引发核战争。

这一大胆预测背后的想法是,军事人工智能系统在分析局势时出错的可能性可能会导致各国做出轻率的、潜在的灾难性决定。

这些担忧源于1983年的一次臭名昭著的事件,当时前苏联军官Stanislav Petrov认为俄罗斯计算机错误地发出警告:称美国发射了核导弹,避免了核战争。

3、机器人医生

虽然专家们大多同意人工智能将为医疗从业者带来的好处——例如早期诊断疾病和加快整体医疗保健体验——但一些医生和学者担心,我们可能会朝着数据驱动医疗实践的方向走得太快。

学术界的一个担忧是,人们对人工智能期望过高,认为它可以形成人类拥有的解决各种任务的一般智能。

爱丁堡大学的Bundy说:“迄今为止,所有成功的人工智能应用都非常成功,但应用范围非常狭窄。”

据Bundy称,这些预期可能会给医疗保健这样的行业带来可怕的后果。他说:“一个对心脏问题非常擅长的医学诊断应用程序,可能会诊断出患有某种罕见心脏问题的癌症患者,结果可能会致命。”

就在上周,健康焦点出版物Stat的一份报告引用了IBM的内部文件,显示这家科技巨头的沃森超级计算机提出了多项“不安全和不正确”的癌症治疗建议。根据这篇文章,该软件只被训练来处理少数病例和假设情景,而不是实际的患者数据。

IBM的一名发言人告诉CNBC :“我们三年前创建了沃森健康中心,为人工智能带来了医疗保健领域的一些最大挑战,我们对我们正在取得的进展感到高兴。”

“我们的肿瘤学和基因组学产品被全球230家医院使用,并支持了84,000多名患者的护理,这几乎是截至2017年底患者人数的两倍。"

这位发言人补充道:“与此同时,我们从客户的持续反馈、新的科学证据以及新的癌症和治疗替代方案中了解并改善了沃森的健康状况。这包括去年发布的11款功能更好的软件,包括针对从结肠癌到肝癌等癌症的国家指南。"

另一个令人担忧的问题是,大量的数据被计算机吞噬和分享——以及通过使用这些数据来自动化应用程序的数据驱动算法——可能会对患者的隐私产生伦理影响。

大数据的出现,现在已经是一个数十亿美元的产业,涵盖了从贸易到酒店的所有领域,这意味着机器可以收集的个人信息数量已经膨胀到一个不可思议的规模。

这一现象被吹捧为对各种疾病的摸底、预测某人患重病的可能性以及提前检查治疗的突破。但是,对于存储了多少数据以及在哪里共享这些数据的担忧证明是有问题的。

以“深度思维”为例。谷歌拥有的人工智能公司在2015年与英国国家卫生服务局签署了一项协议,允许它访问160万英国患者的健康数据。该计划意味着患者将他们的数据交给公司,以提高其项目检测疾病的能力。它导致了一个名为Streams的应用程序的创建,旨在监测肾病患者,并在患者病情恶化时提醒临床医生。

但是去年,英国隐私监察机构信息专员办公室裁定NHS和Deep Miind之间的合同“不符合数据保护法”。ICO表示,作为协议的一部分,伦敦皇家自由医院与Deep Mind合作,对于患者数据的使用方式并不透明。

4、大规模监视

专家还担心人工智能可能被用于大规模监控。在中国,这种恐惧似乎正在成为现实。在中国的各个城市,面部识别技术和人工智能的结合正被用来帮助当局打击犯罪。

根据本月早些时候发表的《纽约时报》报道,中国目前拥有大约2亿台监控摄像机。它也是世界上唯一一个推出“社会信用系统”的国家,该系统跟踪公民的活动,用分数对他们进行排名,以确定他们是否可以禁止访问从飞机航班到某些在线约会服务的所有内容。

中国正在争取到2030年成为人工智能领域的全球领导者,希望将其人工智能行业的价值提升到1万亿元人民币( 1466亿美元)。中国正在向该部门投入大量资金,以帮助推动这一雄心壮志。

新南威尔士州大学人工智能教授Toby Walsh说,在他列出的人工智能引起的可怕后果中,监视是“重要的”。

5、歧视

一些读者可能还记得Tay,这是微软两年前制造的一款人工智能聊天机器人,引起了轰动。

机器人获得了Twitter账号,用户用了不到一天的时间就训练它发布支持阿道夫·希特勒和白人至上的攻击性推特。这里的问题是,聊天机器人被训练成模拟用户在线互动。因为互联网某些角落经常是黑暗的,可以说冒犯性的推文并不奇怪。

这个错误迫使微软撤销了账户。尽管事实证明这一事件有点幽默,但它引发了关于人工智能可能会受到偏见的严肃辩论。

Walsh说,歧视是这项技术带来的一系列“意想不到的后果”之一。

他说:“我们在算法上看到了意想不到的偏见,尤其是机器学习,这种偏见可能会引发种族、性别和其他偏见,我们花了50多年试图从我们的社会中消除这些偏见。”

专家说,这个问题关系到让人工智能成为一个客观、理性的思考者,没有偏向某一特定种族、性别或性别的可能性。

这是研究人员和开发人员一直在认真思考的问题,研究诸如面部识别技术在辨别白人面孔方面比黑人面孔看起来更好的方式,以及语言处理人工智能系统如何表现出偏见,将某些性别和种族与定型角色联系起来。

IBM甚至有研究人员致力于解决人工智能中的歧视问题,今年早些时候,IBM表示将发布两个数据集,其中包含各种不同肤色和其他面部属性的面部,以减少人工智能驱动的面部识别系统中的偏见。

作者:李隽
来源: 微信公众号:AI商业周刊(ID:aibizweek)

最新文章