全球首个:欧盟达成重大历史性协议

据法新社最新消息,经过36个小时谈判,欧盟成员国及欧洲议会议员当地时间8日就全球首个监管包括ChatGPT在内的人工智能的全面法规达成初步协议。欧洲新闻台形容说,谈判过程非常激烈,这是世界上首次尝试以全面的、基于伦理的方式监管这项快速发展的技术。

“历史性的!随着今天围绕《人工智能法案》的政治协议达成,欧盟成为第一个为使用人工智能制定明确规则的大陆,”欧盟委员会内部市场专员蒂埃里·布雷顿表示。

欧洲新闻台提到,早些时候周四(7日)的谈判是就控制像美国人工智能公司OpenAI的大语言模型ChatGPT这样聊天机器人的基础模型达成初步妥协,8日的谈判则重点关注在公共场所使用包括面部识别在内的实时生物识别技术。彭博社报道称,该协议标志着欧盟在人工智能监管方面迈出关键一步。

虽然该立法草案仍需要欧盟成员国和议会正式批准,但三方政治协议的达成意味着这部法律的关键轮廓已经确定,也标志着欧盟的人工智能立法迈出了关键一步。在美国国会还没有就人工智能监管采取任何有意义的行动的情况下,欧盟的法案将为这项快速发展的技术定下监管基调。

几个月来,欧盟的政策制定者们一直在努力敲定《人工智能法案》的措辞,并希望在明年6月份欧盟选举之前通过该法案。因为如果不这样,欧盟将迎来一个新的欧盟委员会和欧洲议会,立法进程可能会有更多变数或遇到更多障碍。

本周五晚的一次会议上,三方终于敲定了最后的案文。在这之前,代表们从周三到周四进行了近24小时马拉松式的谈判。在第一次会议期间,当一些谈判代表们讨论限制公共场合的实时面部扫描技术这一最敏感话题时,另一些谈判代表甚至在大厅里打起了瞌睡,最终大家不得不同意休息一下。

艰难的谈判凸显了关于监管人工智能的争议,随着生成式人工智能工具爆发式的流行,各国政治领导人和科技高管们对此也产生了不同的看法。欧盟(包括美国和英国在内的其他政府)一直在努力在保护自己的人工智能初创企业(如法国的Mistral AI和德国的Aleph Alpha)和防止人工智能的潜在社会风险之间寻求平衡。

这被证明是谈判的一个关键难点,包括法国和德国在内的一些国家反对《人工智能法》草案的一些规定,认为会不必要地妨碍其本国人工智能公司的发展。

最终达成的三方政治协议文本没有立即公开,未来几周欧盟的官员们仍需就一些细节继续工作,完成最终的法案草案文本,之后在议会和欧洲理事同时投票。但谈判代表基本同意围绕生成式人工智能制定规则,包括对大语言模型开发人员基本的透明度要求。那些构成系统性风险的生成式人工智能应用将需要签署自愿行为准则,与委员会合作减轻风险。该计划类似于欧盟的内容审核规则,即《数字服务法》。

最棘手的谈判难点是对实时生物识别工具要限制到程度。欧洲议会去年春天投票赞成全面禁止实施生物识别,然而,欧盟成员国推动对这项禁令设置国家安全需要和执法需要两项豁免(原则禁止,但如果实施生物识别是为了维护国家安全和执法,则可以豁免)。以法国为首的一些国家要求对用于军事或国防目的的任何人工智能系统,包括外部承包商,应给予广泛豁免。双方还同意对在公共场所使用该技术甚至更多的限制护栏。

Eractive还透露了政治协议关于立法草案的一些核心内容:

1、范围和定义

对人工智能的定义基本采用了经合组织的定义,虽然不完全一致,但吸收了经合组织对人工智能的定义的主要元素。(注:经合组织关于人工智能的定义:人工智能是一种以机器为基础的系统,可以通过为一组给定的目标产生输出(预测、建议或决策)来影响环境:人工智能使用机器以及基于人的数据和输入来感知真实和虚拟的环境,并通过自动化(例如机器学习)或手动分析的方式将这些感知抽象为模型,最后使用模型推理为结果提供选择。)政治协议还明确:除了高风险人工智能系统、被禁止的应用程序或有可能导致“操纵”(manipulation)的人工智能解决方案,法案将不会监管免费和开源的软件。

2、对基础模型的监管要求

根据Euractiv看到的一份折衷文件,对训练所需算力高于10~25的模型,法案的分层方法将其自动分类为“系统性的”。法案将设置一个新的附件,作为标准供人工智能办公室依职权或根据科学小组的警示作出定性指定的决定。相关的标准包括商业用户数量和模型参数,并可根据技术发展进行更新。透明度义务将适用于所有模型,包括在“不损害商业机密”的情况下发布足够详细的训练数据概要。要求人工智能生成的内容必须做到能立即可识别。对于前沿的模型,相关的合规义务包括模型评估、跟踪系统风险、网络安全保护以及模型能耗报告。

3、执行和实施

将在欧盟委员会内设立一个人工智能办公室,以执行针对基础模型的监管条款。成员国主管部门承担监管的主责,但这些部门要在人工智能委员会有代表,以确保法律的统一适用。法案还将设立一个咨询机构,负责收集利益攸关方的反馈,包括民间社会的反馈,还引入了一个由独立专家组成的科学小组,就监管的执行提供建议,标记潜在的系统性风险,并就具有系统性风险的AI模型的分类给出建议。

4、禁止的人工智能应用

《人工智能法案》早期版本曾列出了一系列被禁止的应用程序,因为认为它们构成了不可接受的风险。迄今为止确认的禁止性应用是可以用来进行“操纵”的人工智能技术、能够挖掘和利用网络漏洞的人工智能系统、社会评分系统和任意抓取面部图像的应用。欧洲议会提出了一份更长的禁止应用清单,但遭到欧洲理事会强烈反对。几位熟悉此事的消息人士表示,成员国们施压欧洲议会接受一项与欧洲理事会立场非常接近的禁止性应用条款。还有一个悬而未决的问题是,这些禁止性应用,是不是只在欧盟内部禁止使用,欧盟国家的人工智能企业在国外销售这些人工智能系统算不算违法?


本文来源:微信公众号“东不压桥研究院”、欧盟官网、环球网、Bloomberg law等,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。

最新文章