计算机科学家讨论 ChatGPT 的优缺点

来源:ScienceAI
编译:菜叶


凭借其模仿人类语言和推理的不可思议的能力,ChatGPT 似乎预示着人工智能的一场革命。自硅谷研究实验室 OpenAI 于 11 月发布自然语言处理工具以来,在用户测试的无数应用程序中,灵活的聊天机器人可以用「魔法」变出诗歌、散文、食谱、翻译语言、指导建议甚至笑话。

兴奋伴随着恐惧——这项技术可能会降低真实的人类写作和批判性思维,颠覆行业,并放大我们自己的偏见和偏见。

对于那些从事人工智能工作的人来说,ChatGPT 不仅仅是一夜之间的轰动,而是经过多年实验取得成就的标志,约翰霍普金斯大学助理计算机科学教授 Daniel Khashabi 说,他专门研究语言处理并研究过类似的工具。

「ChatGPT 可能看起来像是一场突如其来的革命。」他说, 「但这项技术多年来一直在逐步发展,最近几年进展迅速。」

然而,Khashabi 承认 ChatGPT 似乎开创了一个前所未有的时代,一个充满人类进步潜力的时代。他说:「这确实是我们重新理解『智能意味着什么』的机会……这是一个激动人心的时刻,因为我们有机会应对过去感觉遥不可及的新挑战和新视野。」

随着微软对该工具的投资,OpenAI 发布了付费版本,谷歌计划发布自己的实验性聊天机器人,媒体与 Khashabi 进行了交流,以了解该技术及其发展方向。


问:您能解释一下 ChatGPT 的工作原理吗?

Khashabi 答:第一阶段不涉及直接的人工反馈。该模型通过反刍来自网络的大量文本来学习语言结构——例如,来自维基百科、推特、Reddit、纽约时报等,以及所有不同语言的句子和段落。它还接受了程序员编写的代码的培训,这些代码来自 GitHub 等平台。

在第二阶段,[通常称为「自我监督」学习],人类注释者参与训练模型以变得更加复杂。他们对 ChatGPT 收到的各种类型的查询做出回复,因此该模型可以根据「写一篇关于这个主题的文章」或「修改这段文字」等命令来学习执行任务。

因为 OpenAI 坐拥金矿,他们有能力聘请众多标注员,并让他们标注大量高质量的数据。我通过小道消息得知,初始系统收到了将近 100,000 轮的人类反馈。所以这背后有很多人力。

但 OpenAI 的秘密武器不仅仅是它的 AI 技术,而是使用它服务的用户群体。每次有人查询他们的系统时,他们都会收集这些查询,以使 ChatGPT 适应用户正在寻找的内容并识别他们系统的弱点。换句话说,OpenAI 的成功在于赢得了数百万人使用其演示。


问:您个人如何尝试使用 ChatGPT?

Khashabi 答:它可以成为出色的写作和头脑风暴工具。我可以写一个我想到的想法的摘要,要求 ChatGPT 更复杂地扩展它,然后选择我喜欢的结果并自己进一步开发它们,或继续使用 ChatGPT 优化。这就是人机协同写作。正如 Twitter 上的某个网友所说的那样,「ChatGPT 是你大脑的电动自行车!」


问:您如何看待所有的关注和压力?

Khashabi 答:这是人工智能进步的又一个里程碑,值得庆祝。令人兴奋的是,人工智能和自然语言处理越来越接近于帮助人类完成他们所关心的任务。

然而,我担心过度炒作 AI 的状态。取得了进展,但「通用智能」仍未出现。在过去的几十年里,每次我们进步时,我们都会不断修改我们对「智能」意味着什么的概念。在 1960 年代和 70 年代,我们的目标是创建一个与人类下棋的系统。这样的例子还有很多。每次我们进步时,我们都会想,「就是这样!」 但过了一段时间,炒作消失了,我们看清了问题,并确定了新的需求。

「情报」一直是一个移动的球门柱,而且很可能仍然是一个球门柱,但我对在解决类似 ChatGPT 系统的缺点方面所取得的进展感到兴奋。


问:那些缺点是什么?

Khashabi 答:ChatGPT 很容易编造内容。如果你问 ChatGPT 一些它以前从未见过的小众问题,它会用流利和有争议的语言胡言乱语。例如,如果你要求它定义「 Venus Williams 在哪场比赛中赢得了她的第八个大满贯?」 它会给你一个答案,尽管 Venus Williams 已经赢得了七次大满贯。正如许多媒体报道的那样,她想赢得她的第八名,但她没有。该模型混淆了「想赢」和「赢了」这两个概念。

问题在于它如此流畅地执行此操作。它可能会给你带来垃圾,但使用如此流畅、连贯的语言,如果你不是该领域的专家,就可能会相信它说的是真的。这让我很担心,而且我认为面对看似清晰明确的输出,我们人类很容易上当受骗。


问:另一方面,ChatGPT 有什么令人兴奋的地方?

Khashabi 答:我们现在拥有这些工具,可以生成富有创意和流利的语言,这是我们花了数年时间应对的挑战。作为一名 AI 科学家,我对接下来的步骤感到兴奋,我们有新的问题需要 AI 来解决。

我对 AI 的目标——对人类智能进行逆向工程——不太感兴趣,而对 IA 或智能增强更感兴趣。我认为使用 AI 使人类能够做更好的事情同时增强人类的能力,是一个有价值的目标。我对这类协作系统感到兴奋。


问:您如何看待技术的发展?

Khashabi 答:我们仍处于这种变化之中,但我们将继续提高语言模型的效率,从而产生更紧凑但质量更高的模型。因此,我们将随处看到非常可靠的对话代理形式。未来的模型将成为你的网络导航助手,完成我们如今自己完成的各种基于网络的平凡任务。

同一套技术也开始进入物理世界。当前的模型(例如 ChatGPT)无法感知其环境。例如,他们看不到我的手机在哪里或我有多累。很快我们就会亲眼看到 ChatGPT。这些模型将使用不同形式的数据(文本、视觉、听觉等),这是它们每天为我们服务所必需的。

这将导致基于物理环境(包括物理对象、人类及其交互)数据的自我监督机器人。这里的影响将是巨大的。在不到 10 年的时间里,我们日常使用的任何物理设备——汽车、冰箱、洗衣机等——都将成为你与之交谈的对话代理。我们还将看到机器人在解决当今不可能解决的问题方面异常强大。想象一下,你正要像与 ChatGPT 交谈一样,与你的 Roomba 谈论你想做或不想做的事情。

同样重要的是不要忽视这些技术将如何在社会层面上改变事物。未来的多模式模型——有眼睛和耳朵的 ChatGPTs——将无处不在,并将影响一切,包括公共安全。但现在问题来了:在一个我们不断被有眼有耳的 AI 模型注视并不断变得更好的社会中,我们的自由和隐私会是什么样子?

这听起来像是著名小说 1984 中描述的反乌托邦社会。与任何其他技术一样,自我监督模型是双刃剑。我们现在能做的最好的事情就是保持警惕,在「应用程序出现之前」预见并讨论这些问题。理想情况下,我们需要开发框架,通过从 ChatGPT 等示例推断其未来的扩展来确保我们的自由和公平。我很乐观,我们会的。

相关报道:https://techxplore.com/news/2023-02-scientist-discusses-pros-cons-chatgpt.html


本文转自:ScienceAI,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。

最新文章