来源:ScienceAI
编译 | 萝卜皮
自 2022 年 11 月公开发布以来,ChatGPT 引起了全世界的关注,在全球数百万用户面前展示了人工智能的非凡潜力。它可以为从现实到超现实的各种问题,提供听起来像人类的答案。例如,它可以起草求职信,创作诗句,伪装成 William Shakespeare 写剧本,为约会 app 用户制作求婚消息,甚至撰写新闻文章,在这些项目中有的几乎能够以假乱真。
但是,这些有前景的应用领域也出现了伦理困境。在一个被「逐渐拥有人类自然语言能力的人工智能」工具所主宰的世界里,诚实和真实意味着什么?斯坦福传播学学者 Jeff Hancock 一直在研究这个问题,以及人工智能对人际关系的影响。
Hancock 认为「图灵测试时代」已经结束:现在机器人讲话听起来是如此这般真实,以至于人们已经无法在对话中区分人与机器。这可能会给社会带来大规模操纵和欺骗的巨大风险。那么如何才能将这些工具用于人类社会有益的方面,以及尽量避免有害的问题,是人们比较担心的问题。
虽然他看到了人工智能帮助人们更有效地工作的潜力,但 Hancock 也看到了陷阱。他说,最终,我们的挑战将是开发支持人类目标的人工智能,并教育人们如何以有效和合乎道德的方式最好地使用这些新技术。
几年来,Hancock 一直在研究人工智能介导的交流如何影响人与人之间的关系。
问:您如何看待 ChatGPT 等以 AI 为媒介的工具融入人们的生活?
答:就像计算器没有取代数学的学习或者没有取代会计师这个职业一样,我认为人们会找到使用 AI 介导的通信作为工具的方法。我认为,我们愈是将其视为助手和极其强大的工具,我们就俞容易想象它的用途。但值得注意的是,这些系统还不能做到即插即用。
ChatGPT 正在被数百万人所使用,其中有些人没有接受过关于如何合乎道德的使用这些系统的教育,更不清楚如何确保它们不会对其他人造成伤害。
从技术上讲,虽然 ChatGPT 这样的系统确实比我们过去拥有的系统要强大得多,但仍然存在很多问题。它目前能够提供准确的信息概率还比较低。目前,最好的工具会产生有用信息的准确率只有 50% 到 70% ,尽管这可能会随着新版本升级(如即将推出的 GPT4)而逐步提高。
它们还可以编造谎言或杜撰不存在的东西——我们称之为“幻觉”。要真正让它们生产出好的东西,可能还需要做很多工作。
问:关于 AI 和通信,您觉得什么可能会让人们感到惊讶?
答:我的实验室一直对围绕 AI 的人类问题非常感兴趣。很多人说,「我不知道这些新机器人——我从来没有用过。」 但大多数人都体验过某种人工智能通信,最常见的是电子邮件中简单、智能的回复,提供诸如「听起来不错」、「太棒了」或「抱歉,我不能」等选项。
我们发现,即使你不使用这些 AI 生成的响应,它们也会影响你的思维方式。这三个选项作为一种潜在的提示。当你回复电子邮件时,就会倾向于写一封更短更简单的电子邮件。而且它在语言上并没有那么复杂:你会受到更多的积极影响,这意味着你将使用更多的积极情绪术语来完成这封邮件。这就是智能回复的构建方式:它们非常简短,非常简单,而且过于积极。你甚至不必亲自使用这些 AI 系统就会受到它们的影响。
问:您是否特别认为 ChatGPT 有机会在任何领域帮助人们更好地完成工作或更有效地完成工作?
答:我认为这将迎来一个全新的交流世界。真的,感觉像是一个转折点。例如,初始水平的治疗和指导具有巨大的潜力。
假设您在工作中拖延,或者你需要谈判方面的帮助,或者你在工作中有些焦虑。与真正的心理辅导员会面可能比较困难,而且可能比较昂贵。这些系统提供了获得此类服务的方法,至少在解决问题的初始阶段是这样。我认为最好的组合是,当 ChatGPT 可以支持成为一位「真正的辅导员」时,它将更有效地帮助更多人。
ChatGPT 可能有助于完成辅导员在尝试了解客户需求时所做的一些准备工作。有时这些是标准问题,可以训练像 ChatGPT 这样的系统来询问客户,然后为辅导员梳理总结。这可以使辅导员腾出时间,来更深入地与该客户互动。
当然,我们仍然不知道人们对机器人参与此类对话会有何反应。我们几年前所做的一些工作表明,人们与机器人对话的情感、关系和心理结果,可能跟与人类的对话相似。这方面有应用潜力,但在将这些类型的系统引入这样的通信,肯定需要格外小心。
问:您研究的一个领域是信任和欺骗。您如何看待 AI 影响人们相互信任的方式?
答:我认为如果机器帮助「你」成为更好的「你」,那么我认为「你」可以是真实的。人工智能系统可以针对大量事物进行优化,其中一些可以是人际关系。你可以说,“我想要一个在线约会描述,我想要给人留下非常有趣、热情和开放的印象。”
我之前在课堂上做了一个测试,让学生们使用 ChatGPT 创建在线约会档案,当所有学生都说 ChatGPT 的描述准确地代表了他们自己所想时,我感到震惊!
他们还同意稍微修改一下,但是出奇的好。这真的可以帮助一个人,特别是对于那些有沟通焦虑或不太善于表达自己的人。
但是对于那些试图将这些描述作为一个人的真实侧写的人来说,我们以前的印象形成过程就会崩溃。因为并不是你给人的印象非常有趣、热情和开放——让你的表现变有趣这件事是机器做的。我们将对如何使用这些工具方面,负有很多责任。我认为这是关于我们作为人类如何选择的问题。
问:我们可以信任这些系统吗?
答:其实这个问题涉及很多技术问题,比如人工智能是如何开发的。一个普遍的担忧是,这些系统依赖于有偏见的数据进行训练。但围绕意识和意图还有更深层次的哲学问题。那么机器具有欺骗性又该如何理解?
它可以谎称自己是谁,并谈论它没有的生活经历,这是具有欺骗性的。但大多数欺骗的定义都包括误导他人的意图。如果系统没有那个意图,它是否具有欺骗性?它会回到提出问题或让系统具有欺骗性的人身上吗?我不知道。在这一点上,问题多于答案。
问:您还研究虚假信息。您担心 AI 如何被用于邪恶目的?
答:我还想认识到这里存在滥用的真正危险。我在斯坦福互联网观察站的合作者 Renée DiResta 曾发布了一份报告,列出了这些系统可能成为围绕错误信息威胁的一些主要方式,以及可能的解决方案。
正如 Renée 和报告指出的那样,一旦不良行为者能够使用语言模型来开展影响力活动,他们将能够以相当低的成本生成大量内容,并有可能开发出用于大规模说服的新颖策略。它有可能改变和加剧错误信息的问题,因此我们现在需要开始研究解决方案。
问:可以做什么来验证通信?
答:在过去一年左右的时间里,有许多论文表明,这些大型语言模型和聊天机器人无法再与人类对应物区分开来。
那么如何认证通信是一个大问题。为了给人留下真实的印象,你可以说,「这是由 AI 编写或部分由 AI 编写的。」 如果你这样做,你就是诚实的,但研究表明人们可能认为你不那么真诚——有一篇发表的论文表示,如果你道歉并表明你使用 AI 来帮助你写道歉,人们会认为它不那么真诚。
在我们的一篇论文中,也表明,如果你申请一份工作并说你使用 AI 来帮助编写它,人们会认为你的能力较差。如果你披露你使用了 AI 是要付出代价的,但如果你不披露它,你会不会给人留下不真实的印象?这些关于真实性、欺骗和信任的问题将非常重要,我们需要更多的研究来帮助我们了解「人工智能将如何影响我们与其他人的互动方式」。
相关报道:https://techxplore.com/news/2023-02-chatgpt.html
本文转自:ScienceAI,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。