如何面对AI的“不确定时代”

来源:企业网D1Net


从历史上看,快速发展和变革的时期带来了极大的不确定性。哈佛大学经济学家约翰·肯尼斯·加尔布雷斯在1977年出版的《不确定时代》一书中写到了这样一个时期,他在书中讨论了市场经济的成功,但也预测了一段不稳定、低效率和社会不公平的时期。


AI不断增长的足迹

AI在日常生活中的影响已经变得越来越明显。从AI生成的歌曲,到莎士比亚风格的haikus,再到自动驾驶汽车,再到可以模仿失去的亲人的聊天机器人,再到帮助我们工作的AI助手,这项技术正开始变得无处不在。

随着AI的快速发展,AI很快就会变得更加普遍。沃顿商学院教授伊桑·莫里克最近写了一篇关于专业工作未来的实验结果。这项实验以波士顿咨询集团的两组顾问为中心。每一组都被分配了各种共同的任务。一组人能够使用目前可用的AI来加强他们的努力,而另一组人则不能。

莫里克报告说:“使用AI的咨询师平均多完成12.2%的任务,完成任务的速度比不使用AI的人快25.1%,产生的结果质量也比不使用AI的人高40%。”

当然,大型语言模型(LLM)中固有的问题,如虚构和偏见,可能会导致这股浪潮消散--尽管现在看来这不太可能。虽然这项技术已经展示了其颠覆性的潜力,但我们还需要几年时间才能体验到海啸的力量。下面让我们来看看即将发生的事情。


下一波AI模型

下一代LLM将比目前的GPT-4(OpenAI)、Palm 2(Google)、Llama(Meta)和Claude 2(Anthropic)更复杂、更通用。埃隆·马斯克的新创业公司Xai很可能也会有一位新的、可能非常有能力的模特参赛者。推理、常识和判断等能力仍然是这些模型面临的巨大挑战。然而,我们可以预期在这些领域中的每一个方面都会取得进展。

在下一代LLM中,《华尔街日报》报道称,Meta正在研究一种至少与GPT-4一样能力的LLM。根据这份报告,这预计将在2024年的某个时候出现。我们有理由预计,OpenAI也在致力于他们的下一代,尽管他们在讨论计划时一直保持沉默。这很可能不会持续太久。

根据目前掌握的信息,最具实质性的新模式是谷歌大脑和DeepMind AI团队联合推出的《双子座》。双子座可能远远超过目前的任何一种。Alphabet首席执行官桑达尔·皮查伊去年5月宣布,该模型的培训已经开始。

皮查伊当时在一篇博客中说:“虽然还很早,但我们已经看到了令人印象深刻的多式联运功能,这是以前的车型所没有的。”

多模式意味着它可以处理和理解多种类型的数据输入(文本和图像),作为基于文本和基于图像的应用程序的基础。对以前模型中没有看到的功能的引用意味着可能会有更大的紧急或意想不到的质量和行为。当前这一代的一个新例子是创建计算机代码的能力,因为这不是一种预期的能力。


一把瑞士军刀的AI模型?

有报道称,谷歌已经允许一小部分公司使用双子座的早期版本。其中之一可能是久负盛名的半导体研究公司Semianalys。根据该公司的一篇新帖子,双子座可能比目前市场上的GPT-4型号先进5到20倍。

双子座的设计可能会基于DeepMind在2022年披露的Gato。VentureBeat去年的一篇文章报道:“深度学习转换器模型被描述为‘多面手代理’,声称执行604个不同的、大多是平凡的任务,具有不同的形式、观察和动作规范。它被称为AI模型中的瑞士军刀。显然,它比迄今开发的其他AI系统更通用,在这方面似乎是朝着通用人工智能(AGI)迈出的一步。“


走向AGI

根据微软的说法,GPT-4已经被认为显示了“AGI的火花”,能够“解决跨越数学、编码、视觉、医学、法律、心理学等领域的新的和困难的任务,而不需要任何特殊的提示。”通过超越所有现有模式,双子座确实可能是迈向AGI的一大步。据猜测,双子座将以几个级别的模型能力发布,可能在几个月内发布,也可能在今年年底之前开始发布。

尽管双子座可能会令人印象深刻,但预计会有更大、更复杂的车型。Infltion AI的首席执行官兼联合创始人、DeepMind的联合创始人穆斯塔法·苏莱曼在接受《经济学人》的一次对话时预测,“在接下来的五年里,前沿模型公司--我们这些处于尖端的公司正在培训最大的AI模型--将训练出比你今天在GPT-4中看到的模型大一千倍以上的模型。”

这些模型的潜在应用和对我们日常生活的影响可能是无与伦比的,有可能带来巨大的好处,但也有可能增加危险。《名利场》引用纽约大学哲学和神经科学教授戴维·查尔默斯的话说:“这样做的好处是巨大的,也许这些系统能找到治愈疾病的方法,解决贫困和气候变化等问题,而这些都是巨大的好处。”文章还讨论了潜在的风险,引用了专家对可怕结果的预测,包括人类灭绝的可能性,概率估计从1%到50%不等。


人类主宰历史的终结?

在《经济学人》的对话中,历史学家尤瓦尔·诺亚·哈拉里表示,AI发展的这些即将到来的进步不会标志着历史的结束,而是“人类主导历史的结束”。历史将继续,在其他人的控制下。我认为这更像是一次外星人入侵。

苏莱曼反驳说:AI工具将不会有代理,这意味着它们不能做人类赋予它们的能力之外的任何事情。哈拉里随后回应说,这种未来的AI可能会比我们更智能。你如何阻止比你更聪明的人发展代理呢?有了机构,AI可以采取可能不符合人类需求和价值观的行动。

这些下一代模型代表着AGI的下一步,以及AI变得更有能力、更完整、对现代生活不可或缺的未来。尽管我们有充分的理由抱有希望,但这些预期中的新进展为监管和监管的呼声增添了更多动力。


监管难题

即使是制造前沿模型的公司的领导人也同意,监管是必要的。9月13日,在许多人联合出现在美国参议院后,《财富》杂志报道称,他们“松散地支持政府监管的想法”,“对于监管将是什么样子几乎没有达成共识。”

这次会议是由参议员查克·舒默组织的,他后来讨论了制定适当法规所面临的挑战。他指出,AI在技术上是复杂的,不断变化,并且“在全世界产生了如此广泛、广泛的影响”。

监管AI甚至可能在现实中都不可能。首先,大部分技术都是以开源软件的形式发布的,这意味着它实际上是任何人都可以使用的。仅此一点就可能使许多监管努力出现问题。


进行合乎逻辑和理智的规范

一些人看到了AI领导人支持监管戏剧性的公开声明。MarketWatch报道了长期在硅谷担任高管、C3 AI现任首席执行官汤姆·西贝尔的观点:“AI高管正在与立法者玩绳索兴奋剂游戏,要求他们请监管我们。但没有足够的资金和智力资本来确保数百万算法的安全。他们知道这是不可能的。

这可能确实是不可能的,但我们必须做出尝试。正如苏莱曼在他与《经济学人》的对话中所指出的:“现在是我们必须采取预防原则的时刻,不是通过任何散布恐惧的人,而是作为一种合乎逻辑、合情合理的方式来进行。”

随着AI从狭隘的能力迅速发展到AGI,前景是广阔的,但危险是深远的。这个充满不确定性的时代需要我们最深切的良知、智慧和谨慎来开发这些AI技术,以造福人类,同时避免极端的潜在危险。


本文转自:企业网D1Net,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。

最新文章