标题摘要内容
当前的位置:
详情
【标准动态】 ISO 42001人工智能管理体系标准介绍(三)
来源:诺恒管理 | 作者:诺恒管理咨询团队 | 发布时间: 2023-10-20 | 2783 次浏览 | 分享到:

ISO 42001 人工智能管理体系标准介绍(三)

ISO42001人工智能管理体系标准控制目标与控制措施介绍

ISO42001人工智能管理体系标准“附录A”明确规定了企业在人工智能系统设计与运行过程中需要执行的控制目标与控制措施,各项控制措施的应用取决于人工智能系统的风险评估结果。为帮助企业更好地理解“附录A-控制措施与控制目标”,标准结合业界最佳实践对这些控制措施进行了详细解释(在附录A之后增加了附录B:控制措施的应用提供指南)。本文将结合附录A和附录B内容简要介绍人工智能控制目标与控制措施主要内容。

ISO42001人工智能系统控制目标与控制措施:九大控制域:


ISO42001标准“附录A控制目标与控制措施”包括九大控制域及三十八项控制措施,九大控制域包括:

  • 人工智能方针(政策)

  • 内部组织管理

  • 人工智能系统资源

  • 人工智能系统影响评估

  • 人工智能系统生命周期

  • 人工智能系统数据

  • 人工智能系统相关方需了解的信息

  • 人工智能系统的使用

  • 第三方关系

01 人工智能方针(政策)

标准在人工智能方针控制域提出了一个控制目标与三项控制措施。人工智能方针的控制目标即:组织基于自身的经营管理要求及适用的法定义务(包括合同义务)为人工智能系统明确管理方向。在控制措施方面,标准规定组织应制定人工智能方针,确保人工智能方针与组织其他管理领域的方针(例如质量方针、信息安全方针、健康与安全方针及个人隐私保护方针等)保持一致,并对方针进行定期评审。从字面意思看,人工智能方针控制域的要求实际与ISO27001信息安全管理标准中有关信息安全方针的要求是相似的,但在人工智能领域执行控制措施时还需要进一步考虑:

  • 组织在人工智能领域的角色定位(参见“ISO42001人工智能管理体系标准介绍-2”中有关人工智能系统角色图示)

  • 组织使命、愿景、价值观及战略目标

  • 人工智能方针需要包含的内容以及如何与其他管理方针保持一致

  • 在哪些领域还需要制定更为细化的方针来支持人工智能方针,例如:如果需要采购与人工智能相关的服务/平台,则可能需要在采购政策中进一步说明涉及人工智能服务采购方针。

02 内部组织管理

标准在内部组织管理控制域提出了一个控制目标及两项控制措施。内部组织管理的控制目标即:在组织内建立问责制,明确规定人工智能系统运行与管理的各项职责。基于这一控制目标,组织需要考虑采取以下控制措施:

  • 根据自身需求定义人工智能的角色与职责(这些角色与职责可能包括人工智能风险评估、个人隐私保护、健康与安全、供应链管理等),并将这些角色与职责分配至相关职能。

  • 在明确角色与职责的基础上,组织应建立有效的报告流程以确保雇员及时报告人工智能生命周期的关注事项,这些关注事项涉及人工智能生命周期的各个阶段。这里的关注事项一般指人工智能的安全漏洞、人工智能系统可能带来的伦理问题等等。

03 人工智能系统资源

标准在人工智能系统资源控制域提出了一个控制目标及五项控制措施。人工智能系统资源的控制目标即:组织应对人工智能所需的各项资源(包括人工智能系统部件与资产)进行详细描述以便充分理解和解决人工智能面临的风险与影响。基于这一控制目标,组织需要针对人工智能系统各类资源进行控制,这些资源包括:人工智能系统部件、人工智能系统全生命周期涉及的数据、人工智能开发应用工具(例如:人工智能算法工具、模型等)、系统与计算资源(例如:开发和运行人工智能模型的硬件、数据与工具存储资源等)、人力资源及所需的技能(例如:人工智能系统开发人员、培训人员、销售人员、运行维护人员等)。为确保解决人工智能系统面临的风险以及可能带来的负面影响,组织不仅需要对这些资源进行配备,更需要对这些资源进行全面识别、形成文件并随着人工智能系统的变化进行动态变更。

04 人工智能系统(负面)影响评估

标准在人工智能系统(负面)影响评估控制域提出了一个控制目标和四项控制措施。人工智能系统(负面)影响评估的目的即:组织应在人工智能系统生命周期对利益相关方可能造成的(负面)影响进行评估。

基于这一目标,组织需要建立人工智能系统(负面)影响评估过程,明确人工智能系统影响评估的职能、评估的时机、评估应考虑的内容等。组织需要按照所建立的过程要求对人工智能系统在其生命周期各阶段对个人、群体及社会可能造成的(负面)影响进行评估,并将评估结果形成正式的文件。人工智能系统对个人、群体及社会带来的潜在负面影响可以从以下几个方面理解:

(1)对个人和群体带来的潜在负面影响:

  • 数据隐私和安全问题:人工智能系统需要大量的数据来训练和改进模型。这些数据可能包括个人敏感信息,如医疗记录、财务信息、个人偏好等。如果没有适当的隐私保护和安全措施,这些数据可能会被滥用或泄露,导致个人隐私和财务受到威胁。

  • 偏见和歧视:人工智能系统的数据输入可能带有偏见和歧视,这可能导致算法决策的不公平和不合理。例如,如果招聘算法的训练数据主要来自男性,那么该算法可能会偏向于选择男性候选人,从而导致女性候选人受到不公平的待遇。

  • 算法的不透明性和黑箱问题:人工智能系统的决策过程可能不透明,因为它们是基于复杂的算法和大量的数据进行的。这可能导致人们无法理解人工智能系统的决策过程和结果,从而无法进行有效的监督和纠正错误。

  • 失业和就业不稳定性:人工智能系统的自动化和智能化可能会替代一些传统的工作岗位,导致失业率上升和就业不稳定性增加。这可能会给个人和群体带来经济和社会方面的压力。

(2)对社会带来的潜在不良影响:

  • 社会不平等:人工智能的发展可能会导致社会不平等加剧。由于人工智能系统的能力和效率,资源可能会更加集中在少数人或公司手中,可能导致社会贫富差距进一步扩大。

  • 失业和社会动荡:随着人工智能系统的普及,许多传统行业的工作可能会被自动化取代,导致大量失业。这可能会引发社会不满和动荡,甚至可能引发政治和社会不稳定。

  • 人机交互和伦理道德问题:人工智能系统越来越多地被应用于人机交互中,这可能会引发一些伦理道德问题。例如,人工智能系统是否应该有自己的道德和法律地位?如果人工智能系统决策导致人类受到伤害或死亡,责任应该由谁承担?

  • 环境和资源问题:人工智能系统的能源消耗和资源占用可能会对环境和资源造成负面影响。例如,训练和运行大量人工智能模型可能需要大量的计算资源和电力,这可能会导致能源消耗增加和碳排放增加。

05 人工智能系统生命周期

标准在人工智能系统生命周期控制域提出了一个控制目标和九项控制措施。人工智能系统生命周期的控制目标即:确保组织针对人工智能系统的设计与开发识别和制定文件化的管理目标,并落实执行各项管控过程。基于这一目标,组织需要考虑采取以下控制措施:

  • 负责任地开发人工智能系统:确定管理目标并形成文件,用以指导开发可靠的(trustworthy)人工智能系统。组织针对所确定管理目标应落实具体的措施并体现在人工智能系统生命周期的各个阶段。标准提到的“可靠性(trustworthy)”是指“人工智能系统能够在没有偏见或歧视的情况下,以可预测和可靠的方式做出正确的决策”。

  • 定义人工智能系统的设计与开发过程:为确保组织设计与开发的人工智能系统具备可靠性特征,组织需要定义人工智能系统设计与开发的各个具体过程,并将这些过程文件化。

  • 明确人工智能系统的需求与规格:针对新的人工智能系统或对现有人工智能系统的材质增强(material enhancements),需要明确设计与开发需求及规格。

  • 确保人工智能系统的设计与开发过程形成文件:人工智能系统的开发与设计过程需要形成文件,文件化的目的是确保证实开发与设计过程符合组织目标设计开发需求、规格及准则。

  • 对人工智能系统进行验证和确认:对人工智能系统的验证和确认措施需要进行定义并形成文件,验证和确认措施的使用准则也需要进行规定。

  •  对人工智能系统的部署进行管控:需要制定人工智能系统部署计划,确保在正式部署前相关的要求得到满足。

  • 对人工智能系统的运行和监视进行控制:为确保人工智能系统持续有效地运行,组织需要定义必要的管控要素,并将这些管控要素形成文件。这些管控要求至少应考虑系统和运行表现监视、修复、更新及支持。

  • 确定所需的人工智能系统技术文件:针对不同类别的利益相关方(例如:人工智能系统用户、合作伙伴、监管机构等),组织要确定他们所需的人工智能系统技术文件,并以适宜的形式向他们提供这些文件。

  • 对人工智能系统的事态日志进行记录:人工智能系统在运行过程中,在需要时应启用自动保留事件日志的功能。

06 人工智能系统数据

标准在人工智能系统数据控制域提出了一个控制目标和五项控制措施。人工智能系统数据的控制目标即:确保组织充分理解数据在人工智能系统生命周期各阶段的作用与影响。基于这一目标,组织应考虑采取以下控制措施:

  • 管理人工智能系统开发及优化的数据:定义人工智能系统开发的数据管理过程,将其文件化并予以执行。

  • 数据获取控制:针对人工智能系统使用的数据,组织应针对这些数据的获取/选用的详细信息进行确定并形成文件。

  • 人工智能系统数据质量控制:针对人工智能系统开发与运行所使用的数据,组织需要明确规定这些数据的质量要求,以确保数据满足规定的要求。

  • 数据来源控制:针对人工智能系统所使用的数据,组织应就数据来源的验证及记录过程进行定义,并将这一过程形成文件。

  • 数据准备管理:组织应对数据准备需求及方法进行定义,并形成文件。

07 为人工智能系统相关方提供信息

标准在为人工智能系统相关方提供信息控制域提出了一个控制目标和五项控制措施。为人工智能系统相关方提供信息的控制目标即:确保组织利益相关方能够获取必要的信息以理解并评估风险及影响。基于这一目标,组织应考虑采取以下控制措施:

  • 准备适用于用户的系统文件及信息:组织应确定并向人工智能系统用户提供所需的信息。

  • 确保信息的可理解性:组织向相关方提供的信息应清晰、可理解并适用于他们。

  • 提供外部报告机制:组织应确保相关方能够报告人工智能系统产生的负面影响。

  • 沟通事件:组织应制定人工智能系统事件沟通计划,明确向用户沟通事件的时机及方式,并将其文件化。

  • 向相关方提供信息:组织应明确向相关方报告人工智能系统信息的义务,并将其文件化。

08 人工智能系统使用

标准在人工智能系统使用控制域提出了一个控制目标和三项控制措施。人工智能系统使用的控制目标即:确保组织负责任地根据组织方针使用人工智能。基于这一目标,组织应:

  • 建立过程,确保负责任地使用人工智能:组织应就如何确保负责任地使用人工智能的过程进行定义,并将其文件化。

  • 制定负责任地使用人工智能的目标:组织应制定明确的目标以确保负责任地使用人工智能系统。

  • 确保人工智能按照预期用途进行使用:组织应确保按照预期用途及相关文件要求使用人工智能系统。

09 第三方关系

标准在第三方关系控制域提出了一个控制目标和三项控制措施。第三方关系的控制目标即:对于人工智能系统生命周期中涉及的第三方,组织应理解其责任并始终对这些责任负责。组织在评估并降低第三方风险的同时,也应要求第三方评估并处置其与人工智能产品和服务相关的风险。基于这一目标,组织应考虑采取以下控制措施:

  • 界定职责:针对人工智能系统生命周期的各阶段,组织应界定各方职责,包括:组织自身、组织的合作伙伴、供应商、客户以及第三方。

  • 对供应商进行管理:组织应确保其供应商承诺应用负责任的方法开发人工智能系统。

  • 考虑客户需求与期望:组织应确保充分考虑客户需求与期望,应用负责任的方法开发人工智能系统。