标题摘要内容
【产业要闻】美英欧等签署全球首个具有法律约束力的人工智能国际公约
来源: | 作者:深圳市人工智能产业协会 | 发布时间: 2024-09-18 | 470 次浏览 | 分享到:

2024年9月5日,美国、英国和欧盟等签署了欧洲委员会(The Council of Europe)制定的《人工智能、人权、民主和法治框架公约》(以下简称“公约”),该公约是全球首个具有法律约束力的人工智能国际公约,旨在确保人工智能系统生命周期内的活动完全符合人权、民主和法治,同时有利于技术进步和创新。

●一、公约制定的背景●


公约的制定工作于2019年启动,由欧洲委员会人工智能特设委员会(CAHAI)研究该公约的可行性。2022年9月,在欧洲委员会成立的人工智能委员会(CAI)的主持下,开始了关于该公约的谈判。公约由欧洲委员会的46个成员国起草,所有观察员国均参与制定工作,大量非成员国也参与其中。此外,来自民间社会、学术界、工业界和其他国际组织的68名国际代表的参与也确保了谈判的全面性和包容性。2024年5月,经过上述多方讨论,该公约在法国斯特拉斯堡举行的欧洲委员会部长委员会上正式通过。9月5日,美国、英国、欧盟、安道尔、格鲁吉亚、冰岛、挪威、摩尔多瓦、圣马力诺和以色列共同签署了该公约。


●二、公约的目标和宗旨


公约旨在确保人工智能系统生命周期内的活动完全符合人权、民主和法治。各签署国应采取或保持适当的立法、行政或其他措施,以落实公约的各项规定。鉴于在人工智能系统的整个生命周期内对人权、民主和法治产生不利影响的严重程度和发生的可能性,这些措施应视需要分级和区别对待。这可能包括适用于所使用技术类型的具体或横向措施。


●三、公约的范围●


(一)公约的范围涵盖人工智能系统生命周期内有可能干扰人权、民主和法治的以下活动:


1. 各签署国应将公约适用于公共当局或代表其行事的私人行为者在人工智能系统生命周期内开展的活动。


2. 各签署国应以符合公约目标和宗旨的方式,处理私人行为者在人工智能系统生命周期内的活动所产生的风险和影响。


(二)不得要求签署国将公约适用于人工智能系统生命周期内与保护其国家安全利益有关的活动,但有一项谅解,即开展此类活动的方式应符合适用的国际法,包括国际人权法义务,并尊重其民主体制和程序。


(三)公约不适用于尚未投入使用的人工智能系统的研究与开发活动,除非所开展的测试或类似活动有可能干扰人权、民主和法治。


(四)与国防有关的事项不属于公约的范围。


●四、公约的三大保障措施●


(一)保护人权


通过确保人们的数据得到合理地使用,隐私得到尊重,人们不会受到人工智能的歧视来保护人权。


(二)保护民主


通过确保各国采取措施,以防止公共机构和实施进程受到破坏来保护民主。


(三)保护法治


通过让签署国承担监管人工智能的特定风险、保护其公民免受潜在伤害并确保其安全使用的责任来保护法治。


●五、公约签署国应遵守的七大原则●


(一)人的尊严和个人自主


各签署国应采取或保障与人工智能系统生命周期内的活动有关的措施,以尊重人的尊严和个人自主权。


(二)透明度和监督


每个签署国应采取或保障措施,确保针对人工智能系统生命周期内的活动,包括人工智能系统生成的内容的识别,制定适合具体情况和风险的充分透明的监督要求。


(三)问责和责任


每个签署国应采取或保障措施,确保对人工智能系统生命周期内的活动给人权、民主和法治造成的不利影响进行问责并承担责任。


(四)平等和不歧视


1. 每个签署国应采取或保障措施,以确保人工智能系统生命周期内的活动尊重平等,包括性别平等,并根据适用的国际法和国内法禁止歧视。


2. 每个签署国承诺根据其适用的国内和国际人权义务,采取或保障旨在克服不平等的措施,以实现与人工智能系统生命周期内的活动相关的公平、公正和平等的结果。


(五)隐私和个人数据保护


各签署国应采取或保障措施,以确保在人工智能系统生命周期内的活动方面:


1. 保护个人隐私权及其个人数据,包括通过适用的国内和国际法律、标准和框架;


2. 根据适用的国内和国际法律义务,为个人提供有效的保证和保障。


(六)可靠性


每个签署国应酌情采取措施,提高人工智能系统的可靠性及其产出的可信度,其中可包括与人工智能系统整个生命周期的适当质量和安全性有关的要求。


(七)安全创新


为了促进创新,同时避免对人权、民主和法治产生不利影响,呼吁各签署国在其主管当局的监督下,酌情为开发、试验和测试人工智能系统建立受控环境。


●六、公约签署国可采用的人工智能风险

和影响管理框架●


(一)各签署国应在考虑到上述七大原则的情况下,采取或保障各种措施,通过考虑对人权、民主和法治的实际和潜在影响,识别、评估、预防和减轻人工智能系统带来的风险。


(二)此类措施应酌情分级和区别对待,并且:


1. 适当考虑人工智能系统的背景和预期用途,特别是对人权、民主和法治的风险;


2. 适当考虑潜在影响的严重性和概率;


3. 酌情考虑相关利益攸关方的观点,特别是其权利可能受到影响的人的观点;


4. 在人工智能系统生命周期内的所有活动中反复应用;


5. 包括监测对人权、民主和法治的风险和不利影响;


6. 包括有关风险、实际和潜在影响以及风险管理方法的文件;


7. 在适当情况下,要求在人工智能系统首次投入使用前以及在对其进行重大修改时对其进行测试。


(三)各签署国应采取或保障旨在确保充分处理人工智能系统对人权、民主和法治的不利影响的措施。此类不利影响和应对措施应记录在案,并为相关风险管理措施提供依据。


(四)每个签署国应评估是否有必要暂停或禁止人工智能系统的某些使用,如果签署国认为这种使用与尊重人权、民主的运作或法治不相容。


●七、结语●


随着人工智能技术的迅速发展,各国正在积极寻求建立合作机制,确保技术安全性和透明度。值得注意的是,许多亚洲和中东的主要国家并未参与此次签约,但欧洲委员会表示,未来任何国家只要承诺遵守该公约规定均可加入。尽管公约宣称“具有法律效力”,但也有批评者指出,该公约没有罚款等制裁措施,其主要通过缔约方大会(Conference of the Parties)以监督各签署国的遵守情况,这是一种相对较弱的执行方式。


参考来源:欧洲委员会官网

参考题目:

Council of Europe Framework Convention on artificial intelligence and human rights, democracy, and the rule of law

参考链接:https://rm.coe.int/1680afae3c