《人工智能道德准则》——可信赖AI系统应满足7个关键要素

两年前欧盟曾发布一份人工智能道德准则,该准则的提出旨在对人工智能系统的道德框架进行研究、反思和讨论,促进“值得信赖”的人工智能发展。

人工智能道德准则报告由三部分组成。第一部分为可信赖AI实现的基本条件;第二部分为可信赖AI实现的四项伦理准则;第三部分为可信赖AI实现的七个关键要素。

可信赖AI实现的三大基本条件

人工智能道德准则的目标是推进可信赖AI的发展。可信赖AI在系统的全生命周期中需要满足三个条件:合法、符合伦理、技术稳健。所谓合法,是指AI系统应该遵守所有适用的法律法规;所谓符合伦理,是指AI系统应该遵守伦理准则和价值观;所谓技术稳健,是指不管从技术还是社会的角度来看,尽管开发或使用AI系统的本意是良好的,但是AI系统也可能会造成无意的伤害,所以系统中的每个组件都应该满足可信赖AI的要求。理想情况下,上述三个条件应该在操作中协调发展,一旦出现互为排斥的关系,社会应该通过努力使其保持一致。

全球范围内的AI系统不能“无法无天”地运作,国际层面、欧洲的一些具有法律约束力的规则已经适用于当今AI系统的开发、部署和使用。例如,根据国际人权法律、欧盟条约和欧盟宪章,专家组提出了AI系统应该涵盖的基本权利,其中有些权利在欧盟是法律强制执行的,因此保证这些权利也是法律的基本要求,包括:尊重人的尊严(Respect for human dignity),个人自由(Freedom of the individual),尊重民主、正义和法律规范(Respect for democracy, justice and the rule of law),平等、不歧视和团结(Equality, non-discrimination and solidarity),公民权利(Citizens’rights)。法律的制定并不是总能跟上技术发展的速度。因此值得信赖的AI不仅要遵守法律,也应符合伦理规范。另外,即便有了道德的限制,无论是个人还是社会都不能保证AI系统不会造成无意识的伤害,因此,AI系统应该确保在其应用领域和全生命周期内稳健运行。综上所述,AI系统是以合法、符合道德、技术稳健为基本条件的。

满足四项道德准则

“可信赖AI”需要满足四项道德准则。

准则一:尊重人的自主性。

与AI互动的人类必须能够充分坚持自己的决定,并参与民主进程。AI系统不应该不合理地从属、胁迫、欺骗、操纵人类。相反,AI系统的设计应该以增强、补充人类的认知、社会和文化技能为目的。人类与AI系统之间的功能分配应遵循以人为中心的设计原则,这意味着在AI系统的工作过程中要确保人类扮演监督其工作的角色。AI系统也可能从根本上改变工作领域,但是它应该在工作环境中支持人类,并致力于创造有意义的工作。

准则二:预防伤害。

AI系统不应该造成、加剧伤害,或以其他任何方式对人类产生不利的影响。AI系统及其运行的环境必须是安全可靠的。因此AI系统技术上必须是强健的,而且要确保AI技术不会被恶意使用。尤其是弱势群体在使用AI系统时,应该受到更多关注。AI系统在开发、部署和使用过程中,均应关注弱势群体。另外,还需注意AI系统可能导致或加剧由于权力或信息不对称造成的不利影响。最后还需注意可能会恶意使用该技术的人和可能会造成不良影响的应用场景。

准则三:公平。

AI系统的开发、部署和使用必须是公平的。虽然大众对公平性可能会有不同的解读,但是应当确保个人和组织不会受到不公平的偏见、歧视等。如果AI系统可以避免不公平的偏见,就可以增加社会公平性。公平还意味着AI从业者使用AI时平衡“手段”和“目标”之间的比例原则,为此,AI系统做出的决策以及做决策的过程应该是可提出质疑的并且有补救机制的。

准则四:可解释性。

可解释性对构建用户对AI系统的信任是非常关键的。也就是说整个决策的过程、输入和输出的关系都应该是可解释的。但目前的人工智能算法和模型都是以黑盒(black box)的形式运行的。(黑盒模型是指诸如神经网络、梯度增强模型或复杂的集成模型。此类的模型通常具有很高的准确性。然而,这些模型的内部工作机制却难以理解,也无法估计每个特征对模型预测结果的重要性,更不能理解不同特征之间的相互作用关系。)在这种情况下,可能需要其他可解释性措施,例如可追溯性、可审计性。

可信赖AI系统应满足7个关键要素

专家组对实现可信赖的AI系统提出了7个关键要素。分别是:人工智能自治的治理(人的监督)、技术强大性和安全性、隐私和数据治理、透明度、多样性、非歧视性和公平性、社会和环境福祉以及问责。

关键要素一:人工智能自治的治理(人的监督),即基于人类自治原则,AI系统应该支持人类的自治和决策。

这要求AI系统既可以帮助使用者推动社会的民主、繁荣、公平,又能够促进基本权利的行使,同时允许人类监督。AI应与其他科技一样,可以造福于人,如帮助人类追踪个人数据,增加教育的可及性从而保障他们受教育的权利。但是,考虑到AI系统的使用范围和能力,它们也会对基本权利产生负面影响。因此,应建立外部反馈机制以接收AI系统侵犯基本权利的信息。人类能动性是指,AI用户应能够基于AI系统自主作出决策。并且AI系统应赋予他们知识和工具,以便在人类满意的程度上理解并与AI系统互动,并在可能的情况下,合理地自我评估。人工智能系统应支持个人根据他们的目标做出更好、更明智的选择。人工智能系统有时可能通过难以被发现的机制来塑造和影响人类行为,因为它们可能利用潜意识过程,包括各种形式的不公平操纵、欺骗等威胁到人类的自主权。用户自治的总体原则必须是系统功能的核心。关键在于,当决策对用户产生法律效果或对用户产生重大影响时,用户权利不受基于自动化处理的决策约束。人类监督是指,人为监督有助于确保AI系统不会破坏人的自主权或造成其他不利影响。监督可以通过治理机制来实现,例如human-in-the-loop (HITL), human-on-the-loop (HOTL), or human-in-command (HIC)方法。HITL指的是在系统的每个决策周期内人为干预的能力。HOTL指的是在系统设计周期内监控系统运行的人为干预的能力。HIC指的是监督AI系统整体活动的能力(包括其更广泛的经济、社会、法律和道德影响)以及决定何时以及如何在任何特定情况下使用该系统的能力。此外,必须确保公共执法者有能力根据其任务规定进行监督。根据AI系统的应用领域和潜在风险,可能需要不同程度的监督机制来支持其他安全和控制措施。在其他条件相同的情况下,如果人类对AI系统进行的监督越少,那么需要进行的测试就越广泛、管理就越严格。

关键要素二:技术强大性和安全性。

技术强大性要求AI系统的开发采用可靠的预防性措施防范风险,使其能够按预期运行,同时尽量减少无意和意外伤害,并防止不可接受的伤害。这一要求也适用于AI操作环境发生潜在变化的情况,或以对抗方式与系统交互的其他智能体(人类和人工)出现的情况。此外,还应确保人类的身心健康。

与所有软件系统一样,AI系统应该受到保护,免受被攻击,例如黑客攻击。攻击可能针对数据(数据中毒)、模型(模型泄漏)或底层基础设施(包括软件和硬件)。如果AI系统受到攻击,例如在对抗性攻击中,数据和系统行为被改变,导致系统作出不同的决定,或者导致它完全关闭。系统和数据也可能因恶意或暴露于意外情形而被破坏。安全程序不足也可能导致错误的决策甚至是物理性伤害。为了使AI系统被认为是安全的,应该考虑人工智能系统中潜在的非预期应用和恶意行为者滥用系统。

AI系统应该有一定的安全措施,在出现问题时,使用可以启用后备计划。这可能意味着AI系统从统计程序切换到规则程序,或者它们在继续行动之前询问人类再进行操作,且必须确保系统能够在不伤害生物或环境的情况下完成预期的工作,最大限度地减少意外产生。此外,应建立程序对AI系统所在的应用领域潜在风险进行解释和评估。如果可以预测开发过程或系统本身会带来较高风险,那么主动开发和测试安全措施则至关重要。

此外,准确性与AI系统作出正确判断的能力有关。明确且完善的开发和评估程序可以支持、缓解和纠正不准确预测带来的意外风险。当偶然的不准确预测无法避免时,很重要的一点是系统能够指出这些错误。在AI系统直接影响人类生活的情况下,高准确性非常必要。另外,至关重要的是,AI系统的结果是可靠的,也是可重复的。可靠的AI系统可以在一系列输入和各种情况下正常工作,这需要仔细检查AI系统并防止意外伤害。可重复性指人工智能实验在相同条件下重复时能否表现出相同的行为,这使科学家和政策制定者能够准确描述AI系统的作用。

关键要素三:隐私和数据治理,即根据AI系统应用的领域、其访问协议及处理数据的能力进行的数据管理,包括使用数据的质量和完整性。

AI系统须在系统的整个生命周期内确保隐私和数据保护,包括最初由用户提供的信息,以及在用户与系统交互过程中产生的关于用户的信息。人类行为的数字记录可以允许AI系统推断个人偏好、性取向、年龄、性别、宗教或政治观点,为了使个人信任数据收集过程,必须确保收集的有关数据不会被非法使用或使他们受到不公平歧视。另外,所使用的数据集的质量对AI系统的性能至关重要。收集的数据,可能包含对社会构造的偏见、不准确、错误和误差。因此,如何确保数据质量且确保数据的完整性至关重要。恶意数据进入AI系统可能会改变其行为,尤其是自学系统。因此,必须在每个步骤(例如规划、训练、测试和部署)中测试和记录所使用的流程和数据集,这也适用于其他获取而非内部开发的人工智能系统。

关键要素四:透明度。

即与AI系统相关的数据、系统和商业模型的透明度。产生AI系统决策的数据集和过程,包括数据收集和数据标记以及所使用的算法,应予以记录,以实现可追溯性和提高透明度。这样可以确定AI决策错误的原因,反过来也可帮助防止未来的错误。可追溯性有助于提高可审查性和可解释性。

关键要素五:多样性、非歧视性和公平性,即人类在整个AI系统的生命周期内,通过包容性设计和平等性设计,确保平等访问可信赖的AI。

AI系统(用于训练和操作)使用的数据集可能会受制于偏差、不完整和管理不当等问题,这类偏见可能导致对某些群体或个人直接、间接侵害和歧视,从而加剧偏见和边缘化。因此,AI系统开发者应尽可能在数据收集阶段消除可识别和歧视性偏见。开发人工智能系统的方式(例如算法编程)也可能遭受不公平的偏见,这可以通过建立监督机制来抵消,以清晰透明的方式分析和解决系统的目的、约束、要求和决策。此外,应鼓励从不同背景、文化和学科招聘开发人员以保证意见的多样性。另外,在B2C领域,AI系统应以用户为中心,允许所有人使用AI产品或服务,无论其年龄、性别、能力或其他特征,特别是残疾人士均可以使用AI产品和服务。AI系统不应采用一刀切的设计,设计原则应符合相关的可访问性标准且满足最广泛的用户范围。所有人能够平等访问和积极参与现有和将有的计算机介导的人类活动以及辅助技术。

关键要素六:社会和环境福祉,即根据公平性和预防损害原则,在整个AI系统的生命周期中,更广泛的社会、其他生命和环境也应被视为利益相关者。

应鼓励AI系统的可持续性和生态责任,并将此研究纳入AI解决方案以解决全球关注的问题,如可持续发展。理想情况下,人工智能系统应用于使所有人类(包括后代)受益。人工智能系统承诺帮助解决一些紧迫的社会问题,并且尽可能以环境友好的方式解决。如AI系统的开发和使用过程,以及整个供应链都应该进行这方面的评估。例如:通过对训练期间资源使用和能源消耗的严格审查,选择危害较小的方式。另外,如果人类在生活的各个方面(教育、工作、健康、娱乐)使用AI系统,都可能改变我们对社交媒介的理解,或影响我们的社会关系和依附。虽然人工智能系统可用于提高社交技能,但同样可以使其恶化,这也可能影响人们的身心健康。因此,必须仔细监测和考虑这些负面影响。除了评估人工智能系统的开发和使用对个人的影响之外,还应从社会角度评估这种影响,同时考虑其对行政机构、民主和整个社会的影响。特别是在与民主进程有关的情况下,仔细考虑使用AI系统,包括政治决策、选举等。

关键要素七:问责机制,即建立可审计机制以确保AI系统及其成果在开发、部署和使用前后的责任和问责。

可审计性包含了对算法、数据和设计过程的评估。但这并不意味着与人工智能系统相关的商业模型和知识产权需要公开。内部和外部审计人员的评估以及此类评估报告有助于验证技术的可信度。在影响基本权利的应用中,比如与关键安全相关的应用,AI系统进行独立审计。在实施上述要求时出现的紧张关系会导致不可避免的权衡。这需要确定AI系统所涉及的相关利益和价值观。如果出现冲突,应明确并权衡其对道德原则(包括基本权利)的风险。在道德上不可接受权衡的情况下,人工智能系统的开发、部署和使用不应以该形式进行。任何关于权衡的决定都应可解释并被妥善记录。决策者必须对权衡的方式负责,并应不断审查最终决策的适当性,以确保能在必要时修改系统。

本文来源:中国政府采购报,编译:昝妍
转载此文目的在于传递更多信息,版权归中国政府采购报所有,转载或请注明。

最新文章