统一标准将为《人工智能法案》提供法律确定性,支持创新,并使欧盟能够为全球可信赖的人工智能树立基准。
确保《人工智能法案》有效且清晰的实施是委员会的优先事项。该法案监管影响安全、健康和基本权利的“高风险”人工智能系统,例如关键基础设施和执法部门等领域(详见完整列表)。这些要求必须在上市前满足,确保高风险AI系统在整个生命周期内得到监控。
标准将法律要求转化为通用的技术语言,简化了公司及其他利益相关者的合规工作。
欧洲统一标准具有几个关键功能:
法律确定性和合规成本降低:欧洲统一标准为各类企业提供了清晰的合规路径
市场基准:欧洲统一标准常常成为事实上的全球基准。例如,目前正在制定的标准专注于风险管理和质量管理方法论的制定,是未来成为市场基准的有力候选者。
创新与竞争力:欧洲统一标准促进信任和市场认可,使采纳的开发商能够在全球范围内竞争,同时确保其解决方案符合最高安全标准。
标准是如何制定的?目前有哪些标准?
欧洲标准化委员会(CEN)和欧洲电工标准化委员会(CENELEC)是欧洲标准化组织。这两个组织的工作组正在积极制定高风险人工智能系统的统一标准。他们共同组成了一个名为JTC 21的联合技术委员会。
欧盟委员会已要求CEN和CENELEC在十个关键领域制定标准:
风险管理
数据集治理与质量
记录保存
透明度
人工监督
准确性
鲁棒性
网络安全
质量管理
符合性评估
一旦CEN和CENELEC发布统一标准,委员会评估其是否符合《人工智能法案》的预期目标和法律要求。完成这一最后步骤后,标准会被引用在欧盟官方公报中。
标准的适用仍属自愿性。提供者可以选择任何其他框架来证明其符合《人工智能法案》。然而,欧盟官方公报中引用的统一标准提供了法律上的确定性。适用统一标准的公司被推定符合法律要求。
2025年10月30日,prEN 18286:《人工智能——欧盟人工智能法案监管目的的质量管理体系》成为首个进入公众调查的统一标准,允许国家标准化机构在草案最终发布前就草案提出意见。这一统一标准专门设计帮助高风险人工智能系统提供商遵守《人工智能法案》第17条的要求,提供以产品为中心的人工智能生命周期治理框架。
数字合集与标准化
指导和支持对于任何新法律的推行都至关重要,人工智能法案也不例外。2025年11月19日,数字综合书提议将高风险人工智能系统规则的应用与支持工具的可用性挂钩,包括但不限于标准。
规则最晚将于2027年12月2日适用于附件III涵盖的高风险人工智能系统,以及附件I涵盖的欧盟协调立法涵盖的人工智能系统于2028年8月2日生效。如果支持工具(包括标准)更早可用,委员会可以决定更早将规则纳入。
人工智能标准作为全球协调的关键
欧洲标准化组织并不孤立地制定标准。“国际优先”方法是标准化的指导原则之一。这意味着国际标准在可用且符合欧盟要求时,可以成为欧洲统一标准。
欧洲标准化组织和欧洲公司正积极与国际标准化机构合作,从而为构建更广泛的全球人工智能标准框架做出贡献。
例如,ISO/IEC SC 42已经在制定与人工智能相关的国际标准,欧洲代表也在积极推动这一进程。这种一致性对于避免监管分散、确保AI开发者能够跨多个市场运营而无需重复合规工作至关重要。
今天确立的基准和标准将定义人工智能在我们社会中未来几代人的角色。通过推动欧洲统一标准的发展,欧盟能够推动并引领全球人工智能系统的安全开发与应用。