标题摘要内容
当前的位置:
详情
【国际视野】盘点2023年全球AI政策立法十大进展
来源: | 作者:AI君 | 发布时间: 2024-01-05 | 2627 次浏览 | 分享到:

来源:中国人工智能产业发展联盟

2023年是全球人工智能治理的关键一年,主要经济体在政策立法方面取得重大进展,共识与分歧并存。总体来看,全球人工智能治理体现出三大重要趋势一是通用人工智能(AGI)成为人工智能治理的焦点问题。通用人工智能、基础模型、前沿人工智能等概念相继出现在英国AI峰会、美国《关于安全、可靠和值得信赖的人工智能的相关行政令》、欧盟《人工智能法案》等重要国际合作或国内立法政策中,是否监管、谁来监管、如何监管成为各方争议焦点。二是风险关注点从传统隐私、歧视向更基础的安全问题扩展。一方面,生物识别、ChatGPT引发的隐私泄露、偏见歧视等问题面临新的监管挑战,如公共场所使用生物识别用于执法目的、人机交互数据的使用等;另一方面,伴随AGI应用于千行百业,开源模型广泛滥用风险突出,全球对AGI应用于生物、化学、核能、关键基础设施等领域的不可控风险关注度显著提升,也成为主要经济体达成《布莱切利宣言》的重要原因。三是透明度成为各国立法中率先突破的制度工具。例如欧盟《人工智能法案》规定了披露训练目的、训练数据、重大事故报告、能耗、版权信息等多重透明度义务,美国《行政令》要求训练算力超过1026的大模型向政府披露红队测试结果和相关信息。技术工具方面,水印标识也成为白宫自愿承诺、各国实现互操作性的重点问题,有利于实现用户知情和源头追溯。

为更好把握2023年全球AI治理焦点问题和关键举措,我们回顾总结了2023年全球人工智能政策立法的十大重要进展,供各方参考。

01

NIST《人工智能风险管理框架1.0》(美国,2023年1月)


2023年1月26日,美国国家标准与技术研究院(NIST)正式发布《人工智能风险管理框架》(Artificial Intelligence Risk Management Framework,AI RMF 1.0)及配套使用手册(AI RMF Playbook)。
该框架以风险为管理对象,以可信为管理目标,旨在指导机构组织在开发和部署人工智能系统时更好地管理人工智能风险,避免产生偏见和其他负面后果,提升人工智能系统的可信度,保护公民的公平自由权利。其中,该框架指出,可信人工智能系统应具有以下七大特征,即有效且可靠(valid and reliable)、安全(safe)、稳定又弹性(secure and resilient)、负责且透明(accountable and transparent)、可理解与可解释(explainable and interpretable)、隐私增强(privacy-enhance)以及有害偏见控制下的公平(fair with harmful bias managed)。

NIST作为美国商务部的非监管机构,其发布的框架在性质上是不具有法律约束力的指导性文件,供设计、开发、部署、使用人工智能系统的个人与机构组织自愿使用。尽管该框架只是非强制性的建议性框架,但在框架发布之际,美国的安全与新兴技术中心(Center for Security and Emerging Technology,CSET)、华盛顿智库两党政策中心(Bipartisan Policy Center)、汽车创新联盟(Alliance for Automotive Innovation)、亚马逊云技术平台等组织均发布声明,承诺使用或推广该框架,其影响力可见一斑。NIST未来计划与人工智能业界合作,定期收集意见并更新该框架。

图片

02

《人工智能与数据法案》及其"配套文件"(加拿大,2023年3月)


作为最早发布人工智能国家战略的国家,加拿大政府于2023年3月宣布将制定最快会在2025年生效的《人工智能与数据法案》(Artificial Intelligence and Data Act,AIDA),并发布预告性配套文件,以规范人工智能开发和应用活动。

预告文件揭示了AIDA的制定背景、时间安排、基本框架与创新要点。根据预告文件所述,为了兼顾科技创新发展和安全,加拿大将沿用欧盟以风险为导向的人工智能监管路径,将监管重点放在高影响力(即高风险)人工智能系统上,主要包括影响服务获取或就业的筛查系统、用于识别和推断的生物识别系统、会大规模影响人类行为的系统、对健康和安全至关重要的系统四类系统。在监管要求上,AIDA希望通过对人工智能系统生命周期的每个阶段所需的内容设定明确的期望来完善其合规性,因此要求高影响力人工智能系统投入使用前,采取适当措施来识别、评估和减轻有害或偏见输出的风险,并严格遵循人工监督和监控(Human Oversight & Monitoring)、透明(Transparency)、公正平等(Fairness and Equity)、安全(Safety)、可归责(Accountability)、有效且稳健(Validity & Robustness)等与国际规范保持一致的基本原则。此外,AIDA提供了行政罚款、行政诉讼和刑事处罚等手段,提升个体和集体损失的可预防性和可救济性;AIDA还将在刑法中新增三类与人工智能系统相关的犯罪行为,以预防和救济不当使用高影响力人工智能系统可能造成的社会危害。

图片

03

《促进创新的人工智能监管框架》白皮书(英国,2023年3月)

为最大程度发挥人工智能带来的社会效益,鼓励人工智能在值得信赖的前提下不断创新发展,英国科学、创新与技术部(DSIT)于2023年3月发布了首份人工智能白皮书——《促进创新人工智能监管框架》(A pro-innovation approach to AI regulation),提出了具有支持创新、负担相称、值得信赖、适应性强、规则明确、跨部门协作六大特征的监管框架,旨在通过为行业提供具有确定性、一致性的监管方法,提高公众对人工智能使用的信任度,推动经济增长和繁荣,巩固英国在人工智能领域的全球领导地位。

在白皮书中,英国提出了人工智能在各部门的开发和使用中都应遵守的五项原则,日后将由各监管部门根据具体情况在该五项原则的基础上对各领域的最佳实践发布指南。白皮书还指出,为鼓励人工智能的创新,并确保能够对日后产生的各项挑战作出及时回应,将不会在当前就对人工智能行业进行严格立法规制。此外,白皮书特别强调政府和行业、企业等多主体开展协同治理的重要性,以及加强人工智能治理全球合作和互操作性的重要性,以尽快实现英国在人工智能领域的全球领导者地位。

图片

04

巴西提出《人工智能法案》(巴西,2023年5月)


巴西联邦参议院主席帕切科于2023年5月提出了一项针对人工智能的管理法案框架(Brazilian AI Bill nº 2.338/2023)。该提案已经在专家委员会中反复磨合讨论了9个月,目前已经提交至联邦参议院进行分析,若获得批准,可能使巴西成为世界上首批规范人工智能使用的国家之一。

该法案提出了人权导向、基于风险、分级分类的规制方案,主要分为三个部分:(1)受人工智能影响者的原则及权利;(2)人工智能风险分类;(3)关于人工智能使用的监管方式以及责任追溯。该法案要求,确保关于高风险人工智能系统的人类监管并非形式主义的,在开发、生产和定约高风险人工智能系统时采取特殊的公共行政治理措施,在部署高风险人工智能系统前详尽阐述算法影响测试结果。此外,法案还提出成立专门的监管机构来统一管理并监督法案的实施。

图片

05

《生成式人工智能服务管理暂行办法》(中国,2023年8月)


2023年7月13日,国家互联网信息办公室会同国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局发布了《生成式人工智能服务管理暂行办法》(“《办法》”),并于2023年8月15日正式生效实施。《办法》旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
在适用范围上,《办法》强调其规制对象为“向境内公众”提供生成式人工智能服务,将未向境内公众提供服务的生成式人工智能技术的研发、应用排除出适用范围,减轻了模型研发阶段与企业内部应用的合规负担。在监管路径上,《办法》提出了对生成式人工智能服务试行“包容审慎和分级分类”的监管思路,强调应当统筹协调多部门作为监管机关依职权加强管理。此外,在美国对华技术“脱钩”、“卡脖子”,中国企业获取先进芯片、算力存在诸多障碍的大背景下,《办法》针对业界在研发、应用生成式人工智能中面临的实际问题,提出了一系列利好创新的政策鼓励措施。

总体上,《办法》体现出包容审慎的监管态度,在保障安全的基础上鼓励创新,基于对当前生成式人工智能技术局限的充分考虑,适度放松了生成式人工智能从研发、模型训练到应用、优化各阶段的合规要求,在原理和制度层面统筹兼顾了发展与安全,不仅为生成式人工智能产业的发展释放积极信号,也将对推进生成式人工智能产业有序发展、防范社会风险发挥重要作用。

图片

06

成立联合国人工智能咨询机构(联合国,2023年10月)


联合国秘书长安东尼奥·古特雷斯于2023年10月正式宣布联合国高级别人工智能咨询机构(High Level Advisory Body on AI)。该咨询机构将对人工智能近期和长远的发展与风险开展研究与建议,其努力将具有包容性,并以《联合国宪章》所载的普遍价值观为基础。
咨询机构的专家组共有39名在政府、企业、技术界、民间社会和学术界拥有丰富经验的成员,其中包含20名女性和19名男性,分布在33个不同国家,所有大洲都有代表,在组成上具有性别平衡、地域多样性和所有年龄段的代表性。我国两名专家入选专家组成员,分别是中国科学院自动化研究所研究员曾毅与中国政法大学数据法治研究院教授张凌寒。

截至2023年年底,该咨询机构将在三个领域提出初步建议:(1) 人工智能的国际治理;(2) 对风险和挑战的共同理解;(3) 利用人工智能加速实现可持续发展目标的关键机遇和推动因素。其建议将为明年9月的未来峰会做准备,特别是将贡献于《全球数字契约》的磋商。此外,联合国秘书长古特雷斯呼吁就人工智能的治理进行多利益攸关方共同参与、多学科共治的全球性对话,从而使人工智能最大程度地造福于全人类,同时遏制其可能带来的风险。

图片

07

七国集团广岛人工智能进程(G7,2023年10月)


2023年10月30日,由加拿大、法国、德国、意大利、日本、英国、美国及欧盟组成的七国集团(G7)领导人就“广岛人工智能进程”(Hiroshima AI Process,“广岛AI进程”)发表联合声明,呼吁G7与全球人工智能伙伴关系、经济合作与发展组织及发展中国家和新兴经济体开展合作,加快制定《广岛人工智能进程综合政策框架》,并强调要开发先进的人工智能系统,充分利用生成式人工智能带来的机遇和潜力,在防范人工智能滥用的同时,打造以人类为中心的包容的人工智能治理框架。
“广岛AI进程”将成为全球首份针对开发人员及用户,规定人工智能“所有相关人员”应遵守职责的全面国际规则,但其不具法律约束力,具体强制性规定将由各个国家自行出台。“广岛AI进程”将为设计、开发、部署和使用安全、可靠和值得信赖的人工智能系统营造开放和有利的环境。在“广岛AI进程”的帮助下,发展中国家和新兴经济体将最大限度发挥和利用技术带来的好处,从而实现缩小数字鸿沟和数字包容的目标。

基于联合声明,G7领导人当日还发布了《广岛进程先进人工智能系统开发组织国际指导原则》和《广岛进程先进人工智能系统开发组织国际行为准则》。

图片

08

拜登总统人工智能行政命令(美国,2023年10月)


2023年10月,美国总统拜登签署了《关于安全、可靠和值得信赖的人工智能的相关行政令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),旨在为人工智能安全监管的立法细则提供指引。该行政令强调发展和使用AI过程中的安全性和可靠性,明确由美国政府机构制定人工智能系统测试和使用的指导方针,充分调动联邦政府多部门资源,对美国主要行政部门做出了涵盖人工智能生命周期的全面立法部署。
行政令表明美国政府将从八个重点领域监管AI发展和使用,以控制AI技术给公民权利、市场竞争和国家安全造成的风险:(1)AI必须安全可靠,加快制定AI安全性和保密性的指南、标准和最佳实践;(2)基于国家安全对军民两用的基础大模型等关键和新兴技术实施出口管制;(3)促进创新、竞争和合作;(4)支持美国劳工;(5)推动公平和公民权利;(6)保护消费者、患者、乘客和学生等群体的利益;(7)保护美国公民的隐私和自由;(8)加强联邦政府监管能力;(9)加强国际合作,提升美国在海外的领导力。

为保障上述立法重点有效及时的落地,美国总统行政办公室内设立了白宫人工智能委员会,行政令更是对在出口管制中承担重要职责的美国商务部的后续工作提出了一系列时间线清晰的具体要求。

图片

09

全球AI安全峰会与《布莱切利宣言》(2023年11月)


2023年11月1日,由英国倡议发起的首届“全球AI安全峰会”在伦敦布莱切利园开幕,来自世界各国的100多名政界和商界名人出席,美国、意大利、法国、德国、澳大利亚、欧盟、联合国等均派代表参加会议,特斯拉的马斯克、OpenAI的奥特曼、谷歌DeepMind的哈萨比斯等尖端企业代表也出席会场。全球AI安全峰会预期将每半年举办一次,继英国主办后,接下来将先后由韩国与法国分别在明年4月和2024年底担任东道主。
峰会首日,美国、中国、欧盟等28个国家与国际组织共同签署了《布莱切利宣言》,旨在识别人工智能产生的共同关注风险,建立对风险的科学认知,并制定跨国风险缓解政策。该宣言呼吁和倡导以人为本,希望人工智能科研机构、企业等以负责任的方式,设计、开发和使用人工智能,并指出人工智能的风险应对需要通过包容的国际合作加以解决。宣扬强调在人工智能发展中,应尊重他国主权、遵守他国法律,建立风险评估体系,坚持公平、非歧视原则,加强国际合作、对话,帮助发展中国家加强人工智能能力建设。宣言肯定了人工智能在改善人类福祉上的巨大潜力,也警告了在发展人工智能过程中有意或者无意带来的伤害,希望通过法律等方式避免相关风险。

图片

10

欧盟就《人工智能法案》达成协议(欧盟,2023年12月)


2023年12月8日,欧盟成员国及欧洲议会议员就《人工智能法案》达成初步协议,同意全面规范人工智能使用,从而在保护人类基本权利和不阻碍人工智能行业发展之间寻求平衡。当前,欧盟仅公布了法案的提案,尚未公布最终的法案版本;下一步,欧盟将就该法案的更多技术细节进行最终讨论,并在确定后公布。
该法案明确了开发和使用人工智能系统或基础模型需遵守的一般原则,即人类主体和监督、技术稳健性和安全性、隐私和数据治理、透明度、多样性/非歧视和公平、社会和环境福祉六项内容。法案明确禁止了“侵入性”、“歧视性”等特定人工智能系统的开发和使用,如使用敏感特征的生物或和情绪识别系统,并特别强调人工智能在执法中的应用应被限制在如防止恐怖主义威胁和打击犯罪等特定领域。法案将人工智能系统分为低风险、高风险、不可接受风险、特定透明度风险等不同等级,对不同风险程度的人工智能系统施加了不同的要求和义务,并且规定高风险人工智能系统应遵守一系列要求并接受基本权利影响评估。为实现对于人工智能系统的有效治理,欧盟引入了人工智能办公室和成员国监督机构。欧盟将对违规行为进行罚款,罚款金额根据侵权行为和公司规模而定,最高可达3500万欧元或企业全球营业额的7%。