人工智能监管框架“呼之欲出”,法国CNIL发布人工智能指南

2022年4月5日,法国国家信息与自由委员会(Commissione de l'informatique et des libertés,以下简称“CNIL”)发布了关于人工智能的指南。该指南讨论了识别人工智能技术存在的重要性、人工智能错误背后的原因,以及支持CNIL的指导。指南指出,目前正在制定关于人工智能使用的若干监管框架(包括电子隐私条例和人工智能条例),应该“在未来几年看到曙光”。


什么是人工智能?

人工智能本身不是一种技术,而是一个科学领域,当人工智能的工具满足某些标准时,可以对其进行分类。

欧洲议会认为,人工智能是机器用来“复制与人类相关的行为,如推理、计划和创造力”的工具。

这个定义可以扩大到包括超出人类能力的行为,因为今天的计算机能够在某些任务中胜过人类。例如,能够击败围棋冠军李世石的人工智能系统AlphaGo,在围棋中非常擅长制定策略,但其只会下棋而不会其他技能。

因此,任何实现了接近人类推理机制的系统都可以被称为人工智能。


为什么识别人工智能的存在很重要?

与任何新技术一样,使用人工智能的系统仍然会遭受故障、攻击,或者可能对个人和社会产生意想不到的影响。

像人类一样,人工智能也容易出错,无论是由于失败还是工具内置的偏见。《通用数据保护条例》第22条提及数据主体有权不接受完全基于自动处理的决定,该决定对数据主体产生法律效力或以类似方式对数据主体产生重大影响。

因此,当某些自动化处理操作不包括决策过程中的人为干预时,任何人都有权利反对。


为什么人工智能会犯错误?

鉴于人工智能系统的复杂性,错误的来源是多方面的。

系统设计错误

缺乏代表性:在训练数据中没有考虑到一些真实案例

示例:一些面部识别算法在数据集上训练时,某些民族血统的人的数量不足。

过于简单的假设:作为一种数学抽象,算法是基于假设的,其中一些假设可能过于简单。

示例:美国的教师绩效评估算法中,假设学生成绩是教师绩效的直接证据,这种假设过于简单化。

使用了错误的标准:在训练算法时,根据某些标准或指标对任务的完成情况进行评估。选择的标准和最终阈值对最终系统的质量具有重要影响。

示例:低阈值实际上对应着系统设计者有意接受的较高的错误率。例如,对于医学诊断算法来说,主要目的是避免假阴性,因为在出现假阳性的情况下,总是可以进行更多的测试。因此,可以选择对假阳性使用低阈值(这会增加它们的数量),如果这允许对假阴性使用高阈值(这将减少它们的数量)。

与使用条件有关的错误

数据质量差:在系统使用期间提供给系统的数据质量会影响其性能。

示例:在嘈杂的环境中使用语音助手时,助手的理解质量随之降低。

与硬件或其限制有关的缺陷:当系统依赖于传感器等物理组件时,系统输出的质量将取决于这些组件的状态。

示例:通过视频监控检测不文明行为的系统如果部署在分辨率不足的摄像机上,可能会出现更多错误。

人工智能系统也不能免于计算机系统的典型故障,这些故障可能发生在进行计算的物理基础设施中,也可能发生在信息通信过程中,甚至是由于人为的错误。人工智能系统与更传统的计算机化系统的不同之处在于能识别问题所带来的困难,即可解释性。特别是在“深度”系统中(如神经网络),所使用的参数数量使得人们通常无法理解错误来自何处。为了限制这种风险,建议将某些对系统有用的数据保留一段时间,这是可追溯性。


CNIL在哪里进行干预?

CNIL提供的支持

CNIL 关注人工智能新工具的开发。

首先,作为其支持使命的一部分,能够为公共当局、研究人员和企业提供有用的建议。

其次,通过新工具对已实际实施的系统进行检查。

最后,通过监测活动,例如,旨在确定导致非法数据处理的新攻击模式或偏见。

为了阐明人工智能的挑战并协助专业人士使其项目合规,CNIL发布了一组专门针对人工智能的内容。

新的监管框架即将到来

目前,在欧洲层面上正在起草若干旨在明确人工智能使用条件的监管框架。因此,在未来几年内,欧洲将公布许多对数据保护有影响的政策法规。

首先,电子隐私条例(现行电子隐私指令的演变)将规定GDPR的哪些规则将适用于保护公民的在线隐私。该文本可能会对将提供电子通信服务的人工智能参与者产生重大影响。

其次,欧盟数字市场法(DMA)、数字服务法(DSA)和数字治理法(DGA)将规范大型数字平台的市场。特别是DSA,旨在提高平台对用户的透明度和问责制。该文本也可能对使用推荐算法的平台产生影响。最近出台的《数据法》旨在促进欧洲内部的数据交换。

最后,欧盟委员会于2021年4月提出的关于人工智能的法规(RIA)提出一种基于风险的方法来规范人工智能系统的使用,并促进尊重人们权利和自由的创新解决方案的出现。CNIL已就该文本与欧洲同行进行了沟通,并将自己定位为负责在法国实施该法规的监管机构。

*来源:CNIL,赛博研究院

最新文章