标题摘要内容
当前的位置:
详情
【国际视野】欧盟达成全球首部《人工智能法案》:人工智能行业的里程碑!
来源: | 作者:AI君 | 发布时间: 2024-01-05 | 1414 次浏览 | 分享到:

来源:DLA Piper 欧华律师事务所


在声势浩大的最后一轮艰苦谈判后,欧盟《人工智能法案》的政治协议终于在2023年12月8日达成。这标志着欧盟距离第一部监管人工智能及其应用的重要立法生效,又近了一大步。让系统达到符合《法案》要求的程度需要时间。考虑到新法即将产生的深远影响,现在正是企业抢占先机、落实流程以确保其产品和服务自始即符合《法案》要求的关键时刻。

虽然《法案》的主要制度框架已经确定,但能让其具体要求在实务中落地的立法进程仍在继续。未来几个月,各方将致力于详细的技术细节讨论,以完善最终《法案》文本。与欧盟《数据法案》和欧盟《数字服务法案》一样,该等讨论预计会持续很长时间。

这一阶段结束后,欧洲议会和欧盟理事会必须正式批准文本,并将其在欧盟官方公报上公布,并预计于2024年第二季度生效。

我们在本文中概述了法案谈判期间达成的主要共识、以及各方将采取的后续步骤;针对正在使用人工智能的企业可以在过渡时期开展的合规动作,我们也提出了相关建议。


适用范围

虽然并非逐字复制,但《法案》采纳了经合组织对人工智能定义的主要组成部分[1]。如果某个软件或算法不涉及训练活动、并且不基于学习到的信息提供输出,则其将不落入《法案》的监管范围。但由于该定义措辞宽泛,且没有具体说明人为干预是否会将生成式人工智能系统排除在《法案》适用范围之外,针对不同系统的个案评估仍然非常必要。

根据临时协议,免费和开源的人工智能系统将在监管范围之外获得有限的豁免。该等豁免不适用于下列系统的开源模型提供者:高风险系统、被禁止的应用、存在被操纵风险的人工智能解决方案、或具有系统性风险的通用人工智能模型。此类开源人工智能系统的提供者,必须遵守涉及透明度和版权相关事项的义务。

通用人工智能/基础模型

针对最具争议性的问题之一,即通用人工智能(GPAI)或基础模型的监管,谈判者同意采纳欧洲议会的初步建议,即对所有通用人工智能模型和具有潜在系统性风险的模型(models with potentially systemic risks)进行区分。直到2023年6月这一相对较晚的阶段,针对基础模型监管的讨论,才随着欧洲议会将其纳入《法案》文本而进入谈判流程。而法国、德国和意大利政府在2023年11月强势的反对呼声,无疑又给《法案》的命运蒙上了一层阴影。这些国家认为,将任何针对通用人工智能的规则纳入《法案》,均是对创新的潜在障碍,并有可能扼杀某些成功的欧盟人工智能开发企业本可以拥有的竞争优势。他们建议的替代方案是,依靠自愿性质的实务守则(voluntary codes of practice)。在最终的政治协议中,各方达成了妥协,此类守则将发挥补充作用,而不是取代实质性义务。

所有通用人工智能模型都必须遵守透明度要求[2],此类要求包括起草技术文档、遵守欧盟版权法(特别是,在版权所有人不允许其数据用于文本和数据挖掘(包括网络抓取)的情况下,应确保认可并遵守这一要求)、以及传播有关所用内容的详细摘要。由于人工智能系统所使用的材料的权利所有人,可能根据版权和/或隐私法规对其使用提出质疑,前述人工智能系统所使用内容的披露,存在引发重大诉讼的可能性。

对于影响较大、具有系统性风险的通用人工智能模型,欧洲议会谈判者在谈判中成功地执行了更严格的要求。如果通用人工智能模型在训练中使用的计算资源达到了某个阈值,就需要进行模型评估、降低系统性风险、进行对抗测试、向欧盟委员会报告严重事件、确保网络安全并报告此类模型的能源效率[3]。目前,预计计算阈值将设置为1025次浮点运算(floating point operations)或“FLOP”,这将仅涵盖那些非常大规模的模型。研究表明,在1024次浮点运算以上的某处,出现了各种“突现特性(emergent properties)”[4]。然而,考虑到更有效地使用计算资源、以及突现特性被训练成更小模型的趋势,这些阈值可能需要逐渐降低。欧盟委员会将有能力通过授权,更新这些阈值并增加其他标准。

对高风险人工智能系统的要求

由于人工智能系统对人类安全和基本权利可能造成可观的潜在危害,被确定为高风险的人工智能系统,应遵守《法案》为其确立的一系列责任。出于识别目的,谈判者商定了一套专门针对真正的高风险应用的过滤标准,而商定的敏感领域包括教育、就业、关键基础设施、重要的私人和公共服务、执法、边境控制、民主流程和司法等[5]

属于这一风险类别的人工智能系统的开发人员,将被要求开展符合性评估,以确保系统满足可信赖人工智能的关键要求,涉及数据质量、文档、可追溯性、透明度、人工监督、准确性、网络安全和稳健性等方面。开发人员还将负责实施质量和风险管理系统(该系统的标准化目前正在由国际标准化组织ISO制定)。该等系统的部署人员也必须遵守一系列义务,包括持续监控、以及在某些情况下开展基本权利影响评估和故障报告。

基本权利影响评估的细节尚待澄清,但根据欧盟委员会的说法,评估内容将包括与高风险人工智能系统相关的部署流程的描述、计划使用高风险人工智能系统的时段和频率、在特定背景下使用人工智能系统可能受影响的自然人和群体的类别、可能对受影响的个人或群体造成的具体危害风险、人工监督措施的实施描述、以及在风险出现的情况下将采取的措施。欧盟委员会承认,这与欧盟《通用数据保护条例》(GDPR)项下的数据保护影响评估(DPIA)的流程可能存在一些重叠,但其表示,鉴于《法案》的规管范围并不限于个人数据,相关方仍需要依照《法案》要求开展相关评估。

执法豁免

针对在公共场所为执法目的而部署的生物识别系统,谈判者就实施一系列保障措施和有限例外等问题达成了共识[6]。该等部署需要司法部门的事先批准,并且仅限于经过严格划定范围的严重犯罪活动。“滞后远程(post-remote)”生物识别系统的使用将被严格限制在重点追捕被定罪或涉嫌严重刑事犯罪的个人。生物识别技术的“实时(real-time)”使用必须遵守严格的条件,并且在时间和地点方面受到限制,且必须用于特定目的(如预防特定和现实的恐怖主义威胁)。

被禁止的行为

谈判者还同意,人工智能系统的使用将在下列领域完全禁止[7]
  • 使用敏感特征(如政治、宗教、哲学信仰、性取向、种族)的生物识别分类系统;

  • 从互联网或闭路电视录像中无目标地抓取面部图像以创建面部识别数据库;

  • 工作场所和教育机构中的情绪识别;

  • 基于社会行为或个人特征的社会评分;

  • 操纵人类行为以剥夺自由意志;

  • 利用人们因年龄、残疾、社会或经济状况而导致的脆弱性。

禁止使用清单的商定过程,涉及不同机构之间反反复复的讨论。议会最初引入的禁止领域比最终商定的更为广泛,就最终清单以及生物识别系统执法豁免所达成的妥协,再次表明了马拉松式的谈判的激烈程度。

处罚

不遵守《法案》的规定可能导致罚款,其金额从3,500万欧元或公司全球营业额的7%、到750万欧元或公司营业额的1.5%不等,具体取决于违规的性质和公司的规模[8]。《法案》还提出了对中小企业和初创企业的有限处罚例外。由此可见,即使在处罚方面,相关方也试图在对人工智能的监管、和避免不当限制技术在欧盟的发展之间寻找平衡。出于同样的原因,“沙箱”(sandboxing)解决方案也被推出,使得相关系统或服务在测试过程中,可以受益于特殊制度的保护。

下一步会发生什么?

欧盟决策者在2023年12月11日那一周启动了技术讨论,以寻求最终确定《法案》文本的细节。在《法案》的最终文本达成一致后,其将在2024年4月本届立法期结束前寻求议会和理事会的正式批准。《法案》将在颁布两年后全面实施。但是,《法案》下的禁止性规定将在其正式批准六个月后生效,与人工智能模型、负责合规评估的机构和通用人工智能模型治理部门相关的条款,将在其正式批准一年后实施。一个新的欧洲人工智能办公室将设在委员会内,其任务是协调欧盟成员国的监管当局,监督《法案》的实施和通用人工智能模型规则的执行。

针对有意将自己定位为《法案》早期采纳者的组织,委员会推出了“人工智能公约(AI Pact)”。在该框架下,委员会已经在与有意发表声明的相关方接触,以努力实现早期合规,并在《法案》实施前创建一个交流最佳实践的自愿性社群。

企业现在应该做什么?

尽管《法案》的最终文本尚未确定,但其大体规管思路是显而易见的,参与开发、使用或实施人工智能解决方案的企业,现在就应该开始部署相关的合规动作。这包括评估对人工智能的使用是否会落入一个或多个监管类别(特别是确定是否落入高风险或通用人工智能类别)、尽快厘清自身在人工智能产业链中所扮演的角色、并确认因此所应承担的合规责任与义务。此外,人工智能系统的透明度义务也应该得到足够重视(例如,在现有欧盟消费者保护法的框架下,如何标记有限风险类别的人工智能聊天机器人、以及披露在面向客户的系统中使用人工智能的相关信息等)。最后,企业还应建立一个人工智能治理框架,让法律、商业、技术和风险控制相关团队参与进来,以便尽早将监管要求整合到产品和服务中。

在这一阶段,我们特别建议企业:盘点企业所使用的各类技术,以了解他们是否受到《法案》的约束;在与供应商的合同中包括遵守《法案》相关要求的义务;针对遵守隐私保护和知识产权方面的法规要求,设计并落实合规方案;制定内部规章制度和治理系统,以规范对人工智能产品和服务的使用;并且尽快针对《法案》所要求开展的人工智能评估,部署内外部相关资源。