OECD发布《AI事件报告共同框架》

日期:2025-03-20

随着人工智能系统应用增多,相关事件和危害报告频率上升,需要政府结构化监督。2025228日,经合组织(OECD)发布《AI事件报告共同框架》,提出了人工智能事件通用报告框架,为各国和各部门提供统一标准,旨在助力政策制定者理解人工智能事件、识别高风险系统、评估风险及影响。

一、框架构建

1、现有框架评估

构建通用报告框架参考了四个现有资源和框架,它们从不同角度提供了相关标准,帮助全面理解人工智能系统、事件和故障产品。经合组织人工智能系统分类框架可帮助政策制定者对应用人工智能系统分类,依据其对个体、社会和地球的潜在影响进行区分,通过五个维度和 37 个标准,将技术特征与政策影响相联系,辅助政策制定。

AI 事件数据库(AIID:负责记录人工智能危害和近似危害,使用两种分类法对事件分类,其提交和审查过程为监测器的开放报告系统提供经验,OECD AIID 在事件监测和报告方面合作紧密。

OECD 全球产品召回门户:促进产品安全信息共享与合作,收集政府部门发布的产品召回强制和自愿信息,每个召回信息包含 16 个标准,为人工智能事件监测提供类似目标参考。

OECD 人工智能事件监测器(AIM:实时跟踪全球媒体的人工智能事件,帮助各利益相关方了解事件和危害,未来将融入开放报告系统,成为可靠人工智能的重要工具,其包含 27 个反映事件特征的标准

2、标准筛选

从四个框架中识别出共计 88 个用于描述人工智能系统、事件或产品的标准,并将其归纳为八个维度。其中五个维度基于 OECD 人工智能系统分类框架,包括人员与地球、经济背景、数据与输入、人工智能模型、任务与输出维度;另外三个维度是事件元数据、危害详情以及关于事件的补充信息。在 88 个标准的基础上,通过两步法来确定纳入通用报告框架的标准。

经常性标准:有 10 个标准至少在四个框架中的三个里出现,作为多数框架的最小公分母,对事件报告意义重大,例如受影响的利益相关者、部署部门和事件发生国家等标准。

补充性标准:这类标准有 19 个,用于提供经常性标准未涵盖的、描述人工智能事件的相关补充信息,像事件提交者的详细信息,以及在适用情况下危害的量化信息,还有关于数据与输入、人工智能模型、相关人工智能系统任务和输出的技术信息等。最终,这 29 个标准共同构成了人工智能事件通用报告框架的基础。

二、框架详述

1框架特性

可选性29 个标准中仅 7 个为强制填报,如事件标题、描述、与 AI 系统的关系、提交者信息、事件严重程度、危害类型和支持材料等,这些是理解事件的关键信息。其余为可选标准,方便报告者在有相关信息时进行补充,简化了报告流程,同时也能满足多样化的报告需求。

答案格式:输入格式多样,包括二进制输入(如 / )、多选(如从预设选项中选择一个或多个)和开放文本。二进制和多选格式通过提供预定义答案,保证了报告的一致性和可比性;开放文本则给予报告者灵活性,可对特定情况进行详细说明。

维度设置29 个标准依据表 2.1 的分类,被整合为 8 个维度,与 OECD 人工智能系统分类框架基本一致。这种维度划分方式有助于系统地组织和理解事件信息,涵盖了事件的各个关键方面。

2、维度与标准

事件元数据(9 个标准):涵盖事件标题、描述、AI 系统与事件的关系、提交者信息、首次发生日期、发生国家、支持材料、AI 系统或产品的名称及版本、开发和部署组织等信息,为事件提供了基本的识别和背景描述。

危害详情(4 个标准):包括事件严重程度(如危险、严重危险、事件、严重事件、灾难等)、危害类型(如身体、心理、声誉、经济 / 财产、环境、公共利益 / 关键基础设施、人权或基本权利等)、危害量化(如经济损失、死亡、受伤人数、受影响利益相关者数量、赔偿等)以及事件是否与 AI 系统的不当使用有关及具体情况,详细说明了事件造成的危害。

人员与地球(3 个标准):涉及受影响的利益相关者(如消费者、儿童、工人、工会、企业、政府、民间社会、公众等)、对人权或基本权利的不利影响以及相关的 AI 原则(如问责制、公平性、包容性增长、隐私、数据治理等),突出了事件对人和社会的影响。

经济背景(4 个标准):包含事件发生的行业(采用国际标准产业分类)、业务功能(如人力资源管理、销售、ICT 管理和信息安全等)、是否与关键功能或基础设施的运作相关(如能源、医疗保健、交通等)以及 AI 系统的部署广度(如试点项目、窄范围部署、广泛部署等),从经济和产业角度对事件进行定位。

数据与输入(1 个标准):关注事件是否与 AI 系统的训练数据相关及具体关联方式,反映了数据在 AI 事件中的作用。

AI 模型(3 个标准):涉及事件是否与 AI 模型相关、模型的使用权限(如一次性许可、收费、仅用于研究等)以及是否与多个 AI 系统的交互有关,帮助分析 AI 模型在事件中的角色。

任务与输出(2 个标准):包括 AI 系统的任务类型(如识别 / 目标检测、组织 / 推荐、事件 / 异常检测等)和最大自主水平(如无行动自主、低行动自主、中等行动自主、高行动自主等),展示了 AI 系统的功能和自主性特征。

其他信息(3 个标准):允许提交者提供额外信息,包括已采取的行动(如预防、缓解、停止、修复等)、重现事件的步骤(若适用)以及其他补充信息,为深入调查和分析事件提供了更多线索。

三、实施与应用

框架测试与分析:鼓励各国监测人工智能事件的机构在实际工作中对通用报告框架进行测试。通过在实践中应用该框架,能够收集到大量关于 AI 事件的一手资料。这些丰富的数据有助于深入剖析 AI 事件发生的内在机制,挖掘其背后潜在的风险因素。对于一些严重的 AI 事件,基于实际数据的深入调查能够更准确地找出问题根源,例如是 AI 模型缺陷、数据偏差,还是人为操作失误等原因导致事件发生,为后续精准解决问题提供有力依据。

政策制定支持:通用报告框架的实施为政策制定者提供了多方面有价值的参考。借助该框架收集的 AI 事件数据,政策制定者可以从海量信息中筛选出高风险的 AI 系统,针对这些系统制定更具针对性的监管措施,加强管控力度。通过对 AI 事件风险的全面评估,政策制定者能够提前预判未来可能出现的风险趋势,为制定前瞻性的政策提供数据支撑。依据对常见 AI 事件的分析,政策制定者可以总结经验教训,探索有效的预防和缓解措施,为制定相关政策建议提供实践依据,进而完善 AI 治理体系,促进 AI 技术的健康发展。

AIM 的协同AI 事件监测器(AIM)在未来发展中,将与通用报告框架紧密协同。一方面,AIM 会按照框架标准,整合开放提交功能,这意味着用户能够依据框架要求,更规范地向 AIM 提交 AI 事件报告,确保报告内容的完整性和规范性。另一方面,AIM 在处理从媒体获取的 AI 事件和危害信息时,会使用框架所定义的标准进行标记,实现数据的标准化处理。通过这两方面的协同,AIM 能够更高效地收集、整理和分析 AI 事件数据,为各方提供更具价值的信息服务,成为推动 AI 安全发展的重要工具。


来源:www.tbtguide.com