AI领域的重大突破:神经网络展现出类似人类的语言概括能力

最近,《自然》(Nature)杂志上发表的一篇文章揭示了人工智能(AI)领域的一项重大突破:科学家们成功创建了一种具有人类般语言概括能力的神经网络,其性能甚至超过了目前广受欢迎的ChatGPT。这一发现不仅展示了AI在理解和运用语言方面的巨大潜力,也为未来人机交互的自然性和流畅性提供了新的可能性。

尽管ChatGPT在许多情境下已经能够以极其接近人类的方式进行对话,但它在某些方面仍然存在明显的不足和矛盾。本文将深入探讨这一最新研究的内容和意义,无论你是AI领域的专家,还是对这一主题感兴趣的普通读者,都能从中获得宝贵的信息和启发。


原文如下:

在AI领域,我们见证了一项重大突破:一种基于神经网络的人工智能在快速掌握新词汇并将其融入已有词汇库的能力上超越了ChatGPT,而这正是人类智能的核心能力之一。

科学家们开发出了一种神经网络,它具备了与人类相似的能力,能够对语言进行广泛的概括。这种人工智能系统在学习新词汇并将其应用于不同情境的能力上堪比人类,展现了人类认知中所谓的系统性概括的关键特性。

研究人员将相同的任务交给了支撑聊天机器人ChatGPT的AI模型,结果发现,尽管ChatGPT在对话方面能以极其接近人类的方式表现,但在这类测试中,其表现却远不如新开发的神经网络或人类。

这项研究成果于10月25日发表在《自然》杂志上,其成果预示着未来我们可能会拥有与人类交互更为自然,甚至超越当前最优秀AI系统的机器。尽管基于大型语言模型的系统,如ChatGPT,在许多情境下表现卓越,但在其他情境下,它们却暴露出明显的缺陷和不一致性。

神经网络所展现出近乎人类的表现,标志着我们在培训网络进行系统性思考方面已经取得了重大突破,这是约翰霍普金斯大学语言认知科学专家Paul Smolensky的看法。

系统性泛化的体现在于人们能够毫不费力地将新学到的词汇运用到新的场景中。比如,一旦某人理解了‘photobomb’这个词的含义,他们就能够在各种不同的情境下使用它,如‘连续photobomb两次’或者‘在Zoom通话中photobomb’。同样,一个能理解‘猫追狗’这个句子的人,也能够轻松理解‘狗追猫’,几乎不需要额外思考。

然而,神经网络并非天生就具备这种能力,它们是一种模仿人类认知的方法,目前已在人工智能研究领域占据主导地位。纽约大学认知计算科学家Brenden Lake指出,与人类不同,神经网络需要通过大量使用某个词的样本文本进行训练,才能够使用一个新词。在过去近40年的时间里,人工智能研究者一直在争论一个问题:如果神经网络不能展示这种系统性,它们是否能够成为解释人类认知的一个可靠模型。

为了解决这个长期存在的争议,研究者首先对25名参与者进行了测试,观察他们如何将新学到的词汇应用到不同场景中。为了确保这些人是第一次接触这些词汇,研究者使用了一种包含两类无意义词汇的伪语言进行测试。‘基础’词汇如‘dax’、‘wif’和‘lug’代表了像‘跳’和‘跳跃’这样简单直接的动作。而更为抽象的‘功能’词汇如‘blicket’、‘kiki’和‘fep’则用来规定如何使用和组合这些基础词汇,形成了像‘跳三次’或‘向后跳’这样的表达。

参与者需要学会将每个基础词汇与特定颜色的圆圈联系起来,比如红色圆圈代表‘dax’,蓝色圆圈代表‘lug’。接着,研究者向他们展示了基础词汇和功能词汇的组合,以及当这些功能词汇应用到基础词汇上时所对应的圆圈图案。例如,‘dax fep’这个短语就展示了三个红色圆圈,‘lug fep’展示了三个蓝色圆圈,这表明‘fep’代表了一个将基础词汇重复三次的抽象规则。

最终,研究者通过向参与者提供复杂的基础词汇和功能词汇组合,来测试他们运用这些抽象规则的能力。参与者需要选择正确的颜色和圆圈数量,并将它们按照正确的顺序排列。

如我们所预期的那样,人类在这个任务上表现出色,平均有80%的概率能够正确地选择彩色圆圈的组合。即便他们犯了错误,我们也发现这些错误呈现出一种模式,这反映了人类固有的认知偏差。

接下来,研究者训练了一个神经网络,让它执行一项与参与者类似的任务,并通过编程使其能够从自己的错误中学习。这种方法使AI能够在完成每个任务的过程中不断学习,而不是依赖于一个固定的数据集,后者通常是训练神经网络的常规方法。为了让神经网络更像人类,研究者们训练它复现他们在人类测试结果中观察到的错误模式。当这个神经网络随后在新的问题上进行测试时,其答案几乎与人类志愿者的答案完全一致,甚至在某些情况下表现得更好。

相比之下,GPT-4在处理同样的任务时遇到了困难,其平均失败率在42%到86%之间,具体取决于研究者如何设置任务。“这不是魔法,而是实践的结论,”Lake指出。“正如孩子在学习母语时需要通过不断的实践,这些模型也是通过一系列的组合学习任务来提升它们的组合能力的。”

来自新墨西哥州圣塔菲研究所的计算机和认知科学家Melanie Mitchell认为,虽然这项研究是一个有趣的原则证明,但是否能将这种训练方法扩展到更大的数据集,甚至应用到图像上,还有待观察。Lake希望能通过研究人们如何从小就培养出系统性概括的能力,并将这些研究成果应用到构建更为强大的神经网络中,从而解决这个问题。

德国奥斯纳布吕克大学的自然语言处理专家Elia Bruni认为,这项研究可能会使神经网络成为更高效的学习者。这不仅能减少训练像ChatGPT这样的系统所需的巨量数据,还能最小化AI产生错误输出的“幻觉”现象。“将系统性融入神经网络确实是一个重大突破,”Bruni表示。“这种方法有可能同时解决这两个问题。”


原文链接:https://www.nature.com/articles/d41586-023-03272-3

本文转自:AI深度研究员,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。

最新文章