后 ChatGPT时代,问自己25个问题

来源:WSJ
原文作者:Sean Captain,作家


2022 年,ChatGPT、Midjourney 等 AI 大模型的问世,让 AI 开始展现出更多真正的能力和价值,看似神奇的机器人开始生成图像、回答问题,甚至写文学作品。

但与所有新工具一样,我们必须弄清楚人工智能最适合用于哪些任务,以及如何在不对社会造成危害的情况下使用它。当我们还在努力试图弄清楚这项技术最初能做什么时,就已经显得有些棘手了

Sean Captain 希望,通过与朋友、同事和一些 AI 行业专家的讨论,可以确定 AI 为各个领域的各个人群带来的或即将带来的一些最棘手的问题。尽管这些问题没有正确或错误的答案,但能够让我们思考 AI 将会如何改变几乎所有的事情。

基于此,Sean Captain 在 WSJ 发文,整理出了“ChatGPT时代,你需要问自己的25个问题”。学术头条在不改变原文大意的情况下,做了简单的编辑。


1. 如果你借助 AI 为一些项目或产品提出了不错的建议,可以将其认为是你自己的想法吗?如果你提出了原始问题,答案是什么?如果你只是简单修改了 AI 生成的内容,答案是什么?如果你承认 AI 在其中起到的关键作用,答案又是什么?


2. 你想知道你喜欢的绘画、歌曲、小说或电影是否由 AI 产生的吗?如果你知道创作者是一台机器,你还会喜欢这些作品吗?AI 生成的艺术作品是否应该被允许参加艺术比赛?


3. 如果一个 AI 剽窃了一个艺术家的作品,而且有人使用了这个作品,谁应该受到指责?如果用户不知道 AI 进行了剽窃,你的答案是什么?他们又如何证明自己不知道呢?


4. 是否应该把 AI 工具免费提供给买不起的人群,或者提供一些补贴?如果不这样做,会不会使那些无法获得这些工具的工人和学生处于不利地位?


5. 与人类的思维不同,机器学习是一个 “黑盒子”,无法解释自身发生了什么。即使机器学习在某些方面优于人类,我们又是否应该更信任它,而不是专业人士(如医生),但他们可以证明自己的决定是正确的。


6. 假设 AI 在生死攸关的决策(如驾驶或医疗诊断)中比人类准确得多,但在某些情况下(如不能识别人行道上的儿童),AI 会更容易失败。在这种假设下,使用 AI 是合乎道德的?因为总的来说,会有更多的人得到拯救?


7. 虽然当前的 AI 是没有情感的,但它可以看起来是有的。与这样的 AI 建立友谊会不会太天真?或者令人毛骨悚然?如果发展为一段恋爱关系呢?如果 AI 真的有情感,答案是什么?


8. 你如何为使用 ChatGPT 这样的聊天机器人划定道德底线?可以让它们写一封电子邮件来帮助你安排会议吗?向你的客户进行推销呢?在网上约会应用程序中替你聊天呢?给正在经历抑郁症的朋友写信呢?


9. 目前还不可能对 AI 生成的内容进行版权保护。需要保护吗?如果需要,谁应该拥有版权:用户、AI 模型提供者、训练 AI 模型所用数据的归属人?所有人?


10. 如果 AI 系统在驾驶汽车方面明显好于人类,那人类自己开车是否是不道德的?因为这增加了事故的风险,每年可能会导致数以万计的人牺牲。如果 AI 只是略胜一筹,但总的来说,每年仍能挽救成千上万的生命呢?


11. Al 通过从错误中学习来改进自己,这些错误往往包括对边缘化群体的偏见或仇恨。Al 提供者是否有责任在发布其产品之前根除这些偏见?如果他们没有这样做,受影响的群体是否应该起诉这些公司?


12. 鉴于 AI 的潜在危害(如不准确或有偏见),对于重大的人工智能新进展,是否应该像药物上市前一样,有一个政府评估和批准程序?如果这会大大推迟新 AI 工具的发布,又该怎么办?


13. 如果 AI 在公司内部生成包含种族主义、性别歧视、反同性恋或其他辱骂性语言的信息,员工可以起诉吗?如果可以,他们应该起诉谁?是他们的雇主?还是技术提供者?


14. 研究表明,一些由 AI 驱动的任务,如评估求职者,更容易产生歧视。然而,使用 AI 也可以让更多的求职者得到考虑,因为 HR 可以人工阅读的求职简历有限。那么,你希望心仪公司使用 AI 来面试吗?


15. 为了保护隐私,在执法过程中限制 AI 监控,如面部识别,即使这意味着更少的罪犯将被抓获或定罪,这是否合乎道德?


16. AI 可以创造模仿逝者的聊天、音频和视频。与这些 AI 对话会得到安慰,还是会延长失去亲人的痛苦,让他们停滞不前?如果聊天机器人有缺陷,它们是否会扭曲我们对这个人真正身份的理解?


17. 如果 AI 能够扫描大量的健康记录,它可能会发现新的医疗方法。如果我们的个人健康记录有可能改善或拯救数百万人的生命,那么是否应该为此而提供我们的个人健康记录?在这种情况下,我们将如何保护隐私?


18. 近年来,AI 聊天机器人治疗师一直在激增,但相关 app 不受医疗隐私法的监管,且一些已被证明会与广告商等第三方分享信息。鉴于此,你会把你的秘密告诉 AI 吗?如果你确信 AI 会根据你的要求删除你所说的任何内容,又会怎样?


19. 以严厉或辱骂的方式对待一个聊天机器人或虚拟助手,即使它们没有情感,可以吗?如果 AI 可以假装拥有情绪,又是否可以?对待聊天机器人的坏行为,是否会“怂恿”我们对真实的人做出更恶劣的行为?


20. 假设有可能创造出一个有情感的 AI,社会是否应该首先制定一个关于劳动条件、言论自由、隐私权、甚至死亡权等问题的权利法案?是否应该由有情感的 AI 自己来设计或修改?


21. 聊天机器人写了一篇博士论文,学生只是检查并对作品进行修改,这是否合乎道德?学生改写的内容占比为多少才能被认为合乎道德?


22. 内容创作者应该阻止 AI 爬取他们的网站并从他们的工作中学习吗?如果这是 AI 获取重要信息的唯一途径呢?


23. AI 不具备道德能力。那么,要求它帮助做出道德决是否合乎道德?


24. 当 Al 被用来做出影响人们的决定(比如抵押贷款评估)时,人们是否应该有知情权?任何被 Al 拒绝的人是否应该有权质疑该决定并接受人类的重新评估?


25.AI 公司是否应该采取额外的努力来建立多样化的开发团队?如果没有来自某些种族或文化群体的人参与开发 AI,那么 AI 做出影响这些群体的决定是否公平?


原文链接:
https://www.wsj.com/articles/ai-questions-to-ask-yourself-e54d7c89

本文转自:学术头条,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。

最新文章