欧盟发布《禁止AI实践指南》

日期:2025-02-19

2025年2月4日,欧盟委员会于发布的关于《人工智能法案》(AI Act)中禁止的人工智能实践的指南,目的是确保相关禁令的统一、有效实施,为监管机构、人工智能系统供应商和部署者提供指导。

一、背景

《人工智能法案》于 2024 8 1 日生效,其核心是为欧盟境内人工智能的市场投放、投入使用和实际应用制定统一规则。该法案采用风险分级模式,将人工智能系统划分为四个风险类别,其中对那些被认定为对基本权利和欧盟价值观构成不可接受风险的人工智能实践,在第 5 条中予以明确禁止,而对于高风险的人工智能系统,则规定了一系列相应的要求和义务。

依据《人工智能法案》第 96 (1)(b) 条的规定,欧盟委员会需要制定关于第 5 条所禁止的人工智能实践的实施指南。这是因为第 5 条的禁令在法案生效 6 个月后,即 2025 2 2 日开始正式实施,为了确保这些禁令能够得到正确理解和有效执行,有必要制定相应的指南。

本指南主要有两个目的。一是增强法律的清晰度,对《人工智能法案》第 5 条中的禁令进行详细阐释,让相关各方能够更准确地把握其内涵;二是提供欧盟委员会对这些禁令的解读,以保障禁令在实际应用中能够保持一致、高效和统一。该指南不具备法律约束力,最终对《人工智能法案》的权威解释权归属于欧盟法院。

二、禁止的人工智能实践概述

1、禁令内容

《人工智能法案》第 5 条明确禁止一系列具有特定危害的人工智能系统的使用。这些系统涵盖多种类型,如通过部署潜意识、操纵性或欺骗性技术,导致或可能导致重大伤害并扭曲人们行为的系统(5 (1)(a) 条);利用年龄、残疾或特定社会经济状况等人群的弱点,造成类似危害后果的系统(5 (1)(b) 条);基于社会行为或个人特征进行社会评分,引发不利或不公平待遇的系统(5 (1)(c) 条);仅依据个人画像或人格特征评估、预测犯罪风险的系统(5 (1)(d) 条);未经针对性抓取面部图像来创建或扩展面部识别数据库的系统(5 (1)(e) 条);在工作场所和教育机构推断情绪(医疗或安全目的除外)的系统(5 (1)(f) 条);基于生物识别数据推断特定敏感特征的生物识别分类系统(5 (1)(g) 条);以及在公共场所用于执法的实时远程生物识别系统(特定例外情况除外)(5 (1)(h) 条)。这些禁令旨在防止人工智能被用于侵犯基本权利和违背欧盟价值观的行为。

2、法律依据

该法案的法律基础主要有两个。其一为《欧盟运行条约》第 114 条,它构成了大部分禁令的法律依据;其二是《欧盟运行条约》第 16 条,针对与执法目的相关的远程生物识别系统使用、生物识别分类系统使用以及个人风险评估等涉及个人数据处理的禁令,提供了法律支撑。这两个法律基础相互配合,为禁令的合法性和权威性提供了保障。

3、适用范围

物质范围:涵盖人工智能系统的 “投放市场”“投入使用” “使用” 等各个环节。对这些概念均有明确界定,“投放市场” 指首次在欧盟市场提供人工智能系统;“投入使用” 涉及为首次使用而供应系统或内部开发部署;“使用” 则应作广义理解,包含系统生命周期中的使用或部署,甚至包括可能构成禁止实践的任何滥用情况。以实时远程生物识别系统为例,其禁令仅适用于使用环节,且不同环节的具体行为都有相应的规定和示例,以此明确法律的适用边界。

个人范围:主要涉及供应商和部署者两类责任主体。供应商指开发人工智能系统并将其投放市场或投入使用的各类主体,包括在欧盟境外但产品在欧盟使用的供应商;部署者是使用人工智能系统且非用于个人非专业活动的主体,其判断标准明确,若为法人,个体员工通常不被视为部署者。此外,明确了在不同情况下,供应商和部署者对确保系统合规的不同责任。

除外情形:包括国家安全、国防和军事目的,司法和执法与第三国的合作,研究与开发活动,个人非专业活动以及根据自由和开源许可证发布且不属于高风险或特定条款约束的人工智能系统。对每种除外情形都有详细解释和界定,如国家安全目的的排除需满足系统专门用于相关目的,若用于其他目的则可能受法案约束;研发活动在系统未投放市场或投入使用前可豁免,但需遵循伦理和法律规定等。

4、与其他规定的关系·

与高风险 AI 系统要求的关系:禁止的人工智能实践与高风险人工智能系统的规定紧密相关。部分被禁止的实践可能涉及高风险人工智能系统,若高风险人工智能系统的使用符合特定禁止条件,则会被禁止;反之,多数从禁止条款中例外的系统通常属于高风险类别,需要满足相应的风险评估、管理及其他合规要求。

与其他欧盟法律的关系:《人工智能法案》与欧盟其他法律相辅相成。一方面,它不会影响其他法律对相关人工智能实践的适用,若人工智能系统的使用不符合其他法律规定,即便未被该法案禁止,也可能是非法的;另一方面,该法案通过预防性和安全性规定,对其他法律进行补充,在数据保护、消费者保护、就业和产品安全等领域,共同构建全面的监管框架,确保对各类利益的充分保护。在数据保护方面,与《通用数据保护条例》(GDPR)等协同,规范人工智能系统处理个人数据的行为。

5、执行机制

市场监管机构:由成员国指定的市场监管机构以及欧盟数据保护监督员(负责欧盟机构相关事务)承担《人工智能法案》规则的执行职责,包括对禁令的执行。他们可依据职权或投诉展开执法行动,在处理涉及跨区域的风险时,需遵循欧盟保障程序,以保证禁令在各成员国的统一实施,为相关主体提供法律确定性。

处罚措施:法案根据违规严重程度制定了分级处罚制度,对违反第 5 条禁令的行为视为最严重的违规,处以高额罚款。针对不同主体,如企业、公共当局、欧盟机构等,设定了不同的罚款标准。同时强调在同一违规行为涉及多个条款时,应遵循一事不再罚原则,并依据法案规定的标准确定处罚。

二、各条款具体分析

1、第 5 (1)(a) (b) - 有害操纵、欺骗和剥削

目的:旨在保护个人和弱势群体免受人工智能驱动的操纵和剥削带来的严重危害,维护个人自主权和尊严,确保人工智能系统符合伦理和法律规范,促进值得信赖且以人为本的人工智能发展。

主要内容:5 (1)(a) 条禁止使用部署潜意识、故意操纵或欺骗性技术,且这些技术需具备扭曲个人或群体行为、导致或可能导致重大伤害的特点;5 (1)(b) 条禁止利用因年龄、残疾或特定社会经济状况导致的个人或群体脆弱性,产生类似的危害后果。

关键要素:对于 5 (1)(a) 条,技术类型包括潜意识技术(如视觉、听觉等潜意识信息传递)、故意操纵技术(如利用认知偏见影响行为)和欺骗性技术(如呈现虚假信息误导决策),且这些技术需对行为产生实质性扭曲并造成重大伤害。5 (1)(b) 条聚焦于对特定脆弱群体的保护,“利用” 行为需基于年龄、残疾或社会经济状况导致的脆弱性,同样要满足行为扭曲和造成重大伤害的条件

范围界定:明确区分了合法劝服与操纵行为,合法劝服基于透明和尊重个人自主权原则,而操纵行为则通过隐蔽手段破坏个人决策能力。同时,规定了操纵、欺骗和剥削性人工智能系统若不太可能造成重大伤害,则不在禁令范围内。

与其他法律的关系:与欧盟多项法律相关,如消费者保护法、数据保护法、非歧视法等。这些禁令不仅与这些法律相互补充,共同防范人工智能带来的风险,而且在具体案例中,同一行为可能同时违反多条法律规定,需综合考量。

2、第 5 (1)(c) - 社会评分

目的:防止不公平的 “社会评分” 实践,保护个人的基本权利,包括尊严、非歧视、数据保护等权利,维护社会公平正义和欧盟的民主价值观。

主要内容:禁止使用基于个人或群体的社会行为、个人或人格特征进行评分,并导致不利或不公平待遇的人工智能系统,这种待遇可能体现在不相关的社会背景中,或与社会行为的严重程度不成比例。

关键要素:“社会评分” 涵盖对自然人或群体的评估或分类,基于社会行为或个人特征数据,且评分结果需导致上述不公平待遇。如税收、福利分配、就业评估等场景中,若使用不相关数据进行评分并产生不利影响,可能触发禁令。

范围界定:明确排除对法律实体的评分(除非基于个人特征且直接影响个人)以及用户的个体评级等情况。同时指出,合法的评估实践,如基于相关数据且符合法律规定的信用评分、风险评估等,不在禁令范围内。

与其他法律的关系:与消费者保护法、数据保护法、非歧视法以及特定领域的法律(如信用评分相关法律)紧密相关。在判断某一社会评分行为是否合法时,需综合考虑这些法律的规定,确保全面保护个人权益。

3、第 5 (1)(d) - 个人犯罪风险评估和预测

目的:确保个人基于实际行为而非仅基于人工智能预测的行为被评判,保护个人免受不公正的预判,维护司法公正和个人的基本权利。

主要内容:禁止使用仅基于个人画像或人格特征评估、预测个人犯罪风险的人工智能系统,但用于支持基于客观和可验证事实的人类评估的系统除外。

关键要素:“犯罪预测” 通常指利用先进技术和数据分析预测犯罪风险,但该禁令仅适用于满足特定条件的风险评估。“仅基于” 强调评估不能单纯依赖个人画像或人格特征,需有客观事实依据。如执法部门若仅依据个人的某些特征进行犯罪风险预测,则可能违反该禁令。

范围界定:明确了位置或地理空间犯罪预测、支持基于客观事实的人类评估的系统、对法律实体的犯罪预测以及对行政违法行为的预测等情况不在禁令范围内,并对每种情况进行了详细说明。

与其他法律的关系:与数据保护法(如 GDPR、LED)、无罪推定原则相关法律紧密相连。在处理个人数据和确保公正审判方面,这些法律相互配合,共同保障个人在司法和执法过程中的权利。

4、第 5 (1)(e) - 无目标抓取面部图像

目的:保护个人隐私和数据保护权利,防止因无目标抓取面部图像用于面部识别数据库建设而导致的个人信息滥用和隐私侵犯。

主要内容:禁止通过无目标地从互联网或闭路电视(CCTV)镜头中抓取面部图像来创建或扩展面部识别数据库的人工智能系统。

关键要素:涵盖面部识别数据库的创建或扩展行为,手段是无目标抓取,即不针对特定个体地广泛收集,数据源限定为互联网和 CCTV 镜头。例如,面部识别软件公司从社交媒体上自动抓取面部图像以构建数据库的行为,可能违反该禁令。

范围界定:明确不涉及面部图像的其他生物识别数据抓取、非人工智能参与的抓取、不用于人脸识别的面部图像数据库以及用于生成虚拟人物图像的系统等不在禁令范围内。

与其他法律的关系:与欧盟数据保护法紧密相关,无目标抓取面部图像的行为在数据保护法中通常也是非法的,两者相互呼应,强化对个人数据的保护。

5、第 5 (1)(f) - 情绪识别

目的:在保障工作场所和教育机构中个人的权利和自由的同时,合理规范情绪识别技术的应用,避免其被滥用导致侵犯个人隐私和造成不公平待遇。

主要内容:禁止在工作场所和教育机构使用推断自然人员情绪的人工智能系统,但用于医疗或安全目的的除外。

关键要素:“情绪识别” 限定为基于生物识别数据推断情绪或意图,包括识别和推断两种方式,对情绪的定义较为宽泛。“工作场所” “教育机构” 范围广泛,涵盖各种相关场景。例如,在招聘过程或教学过程中使用情绪识别系统,若无正当理由,可能违反该禁令。

范围界定:明确不基于生物识别数据推断情绪、推断身体状态(如疼痛、疲劳)的系统以及在其他领域使用的情绪识别系统不在禁令范围内,但后者通常被视为高风险系统。

与其他法律的关系:与数据保护法、就业和劳动相关法律密切相关。在允许使用情绪识别系统的特殊情况下,也需遵守这些法律的规定,确保员工和学生的权益得到充分保护。

6、第 5 (1)(g) - 生物识别分类用于某些敏感特征

目的:防止基于生物识别数据对个人进行分类以推断敏感特征,避免由此引发的不公平和歧视性待遇,保护个人的尊严、隐私和非歧视权利。

主要内容:禁止使用基于个人生物识别数据对自然人进行分类,以推断其种族、政治观点、工会会员身份、宗教或哲学信仰、性生活或性取向的生物识别分类系统,但合法获取的生物识别数据集的标记、过滤等操作(如用于执法目的)除外。

关键要素:“生物识别分类系统” 用于将个人分配到特定类别,“基于生物识别数据” “推断敏感特征” 是核心要素。如通过分析社交媒体照片中的生物识别数据来推断个人政治观点的系统,属于被禁止的范畴。

范围界定:明确对合法获取的生物识别数据集进行标记、过滤等操作,若旨在确保数据质量或防止歧视,则不在禁令范围内,并举例说明了允许的情况。

与其他法律的关系:与数据保护法(如 GDPR、LED)紧密相关,进一步限制了个人数据处理的范围,确保在生物识别数据处理过程中充分保护个人敏感信息。

7、第 5 (1)(h) - 执法目的的实时远程生物识别(RBI)系统

目的:在考虑到执法需求的同时,平衡对个人权利和自由的保护,确保实时远程生物识别技术在执法中的使用合法、合理、适度。

主要内容:禁止在公共场所使用实时远程生物识别系统用于执法目的,但在特定例外情况下(如寻找特定犯罪的受害者、预防严重威胁、定位和识别特定犯罪嫌疑人等),在满足严格条件和保障措施的前提下允许使用。

关键要素:“实时远程生物识别系统” 需满足识别目的、远程操作、使用参考数据库等条件,“实时” 要求数据处理迅速无显著延迟,“公共场所” “执法目的” 也有明确的定义和范围。

范围界定:明确规定了允许使用的例外情况,每种情况都有严格的限制和条件,如对犯罪类型、威胁程度、嫌疑人范围等的规定。同时,对不属于禁令范围的情况进行了说明,如生物识别验证系统、在私人场所或网络空间的使用等。

与其他法律的关系:与数据保护法紧密相关,在处理生物识别数据时需遵循相关规定。同时,在执法过程中,与其他法律共同确保执法行为合法合规,保障个人权利。

四、例外情况的保障措施和条件

1、针对性个体和保障措施(Article 5 (2) AI Act)

使用限制与目的:使用实时 RBI 系统必须严格限定为确认特定目标个体的身份,以此避免大规模的无差别监控,平衡执法需求与对个体权利的影响。在寻找犯罪受害者、预防特定威胁或识别罪犯等场景下,使用该系统应精准指向具体个体,而不是进行广泛的监控。

评估与考量因素:在使用系统前,执法部门需全面评估多种因素。一方面,要衡量不使用系统可能造成的危害,包括对自然人、社会和执法目的的影响,例如危害的严重程度、发生概率以及影响范围;另一方面,也要评估使用系统对相关人员权利和自由的影响,同样涵盖后果的严重性、概率和范围。同时,还需思考是否存在侵入性较小的替代方案,只有在综合考量后,确认使用系统的必要性和合理性,才能进行后续操作。

地理、时间和人员限制:为防止系统滥用,使用时需明确划定地理范围,依据客观和非歧视性因素确定具体区域,避免对不必要的区域进行监控;设定严格的时间限制,使用期限应根据具体情况确定,且仅在必要时可按规定延长,杜绝无限期或模糊的使用;明确界定目标人员范围,排除无明确依据的随意识别,确保系统使用的针对性和精准性。

基本权利影响评估(FRIA)与系统注册:执法部门在部署系统前,必须完成 FRIA 并将系统在欧盟数据库中注册(紧急情况除外)。FRIA 需按照 Article 27 AI Act 的要求执行,全面评估系统对基本权利的影响,涵盖使用描述、预期目的、参考数据库、技术原理、法律依据、使用期限和频率、受影响人员类别、潜在危害风险以及相应的应对措施等内容。在紧急情况下,虽可先使用系统,但必须尽快完成注册,且注册时间需符合 “尽快” 的标准,具体情况需根据实际案例判断。

2、需要事先授权

授权目的:对实时 RBI 系统的使用进行事先授权,旨在确保其使用符合法律规定,必须经过严格评估,确认使用该系统对于实现特定执法目标(如寻找特定受害者、预防特定威胁、定位或识别罪犯)是必要且相称的,同时使用范围和时间应严格控制在必要限度内。

授权主体与原则:使用实时 RBI 系统必须获得司法机关或独立行政机关的事先授权,这是基本原则。但在紧急情况下,若满足 “使用系统的需求紧迫,无法在使用前获得授权” 的条件,可先使用系统,但需在 24 小时内提交授权申请,并说明紧急情况的原因。若授权申请被拒绝,必须立即停止使用系统,并删除所有相关数据和结果,以防止数据滥用。

申请要求:授权申请通常由部署者(如执法部门)提出,针对每次具体的使用场景都需单独申请。申请必须详细说明使用目的、依据和必要性,同时提供充分的证据支持,以证明使用系统的合理性和合法性。不同成员国可能对申请的具体内容和形式有详细规定,需遵循相应要求。

授权机关审查:授权机关必须对申请进行严格审查,确认使用系统符合法律规定的必要性和相称性标准,确保使用不会过度侵犯个人权利。机关需独立于使用系统的部门,以保证审查的公正性和客观性,司法机关通常具备这种独立性。只有在满足所有要求的情况下,才能批准授权。

禁止自动决策:即使获得授权,也严禁仅依据实时 RBI 系统的输出结果做出对个人产生不利法律影响的决策。执法部门在使用系统时,必须结合其他证据进行综合判断,避免因系统误差或错误导致不公正的结果,确保个人的合法权益得到充分保障。

3、通知相关部门:每次使用实时 RBI 系统后,需按照国家规定向相关的市场监管机构和国家数据保护机构进行通知。通知内容应包含必要信息,但不得涉及可能危及刑事诉讼完整性的敏感操作数据。这一措施旨在加强对系统使用的监督,确保使用过程符合法律规定,同时保护个人数据安全。

4、国家法律要求

法律基础:成员国若决定允许使用实时 RBI 系统,必须制定相应的国家法律,为系统的使用提供明确的法律依据。法律应明确规定授权的具体条件、程序和限制,确保系统使用在法律框架内进行,避免随意性和滥用。

遵循限制和条件:国家法律必须严格遵循《人工智能法案》的规定,不得超出其设定的界限。使用目的不能超出法案规定的范围,如仅可用于寻找特定受害者、预防特定威胁和定位识别特定罪犯等情况,同时需满足法案规定的其他相关条件,以保障个人权利不受过度侵犯。

详细规则制定:国家法律需对授权申请、发放、使用以及监督和报告等方面制定详细规则。包括明确主管部门和独立授权机关的职责,规定申请的具体内容和格式(如书面申请并详细解释使用目的、依据和必要性),设定系统使用的技术标准(如可靠性、准确性要求),确定数据处理的相关规则(如数据保留期限、安全措施),以及规定违反规定的制裁措施等,确保系统使用的各个环节都有章可循。

5、年度报告

成员国相关部门报告:成员国的国家市场监管机构和国家数据保护机构,在接到实时 RBI 系统使用通知后,需根据欧盟委员会提供的模板,每年提交使用情况报告。报告内容包括授权决定的数量和结果等信息,以便欧盟委员会全面了解系统在各成员国的使用情况,加强监管和评估。

欧盟委员会报告:欧盟委员会依据成员国提交的报告,每年发布关于实时 RBI 系统使用情况的综合报告。报告旨在总结整体情况,但会严格排除敏感操作数据,避免泄露可能影响刑事诉讼或执法工作的关键信息,同时为政策制定和后续监管提供参考依据。

五、生效与审查

1、生效时间

禁令生效:依据《人工智能法案》第 113 条,该法案第 5 条自 2025 2 2 日起正式施行。法案中关于治理、执法和处罚的章节于 2025 8 2 日生效。

2、过渡期间的要求:尽管在 2025 2 2 日至 8 2 日期间,相关监测和处罚条款尚未生效,但《人工智能法案》第 5 条的禁令对供应商和部署者仍然完全适用且具有强制性。这要求他们在这一过渡阶段主动采取必要措施,严格避免将可能构成禁止实践的人工智能系统投放市场、投入使用或进行相关操作。因为禁令本身具有直接效力,若有违反,受影响方有权向国家法院提起诉讼,要求对禁止的实践行为发布临时禁令,以此保障自身权益。

3、审查与更新

审查的必要性:这些指南是对《人工智能法案》第 5 条禁令的初步解释,并提供了实际示例。随着技术的快速发展、社会环境的变化以及监管实践的深入,有必要对指南进行审查和更新。实际执行过程中市场监管机构的执法经验、欧盟法院对禁令及相关条款的解释,都会为指南的调整提供重要依据,确保指南能够适应不断变化的情况,保持其有效性和准确性。

审查的主体与参与方:欧盟委员会负责对指南进行审查。在审查过程中,委员会将积极收集来自多方面的信息和意见,包括人工智能系统的供应商和部署者、人工智能委员会、其他相关利益相关者、市场监管机构、研究社区以及民间社会组织等。通过广泛征求各方意见,确保审查结果能够全面反映实际需求和行业发展趋势。

审查的可能结果:根据审查情况,欧盟委员会可能会决定对指南进行修订或撤回。若在审查中发现指南存在与实际情况不符、需要补充新内容以适应新技术或新问题等情况,委员会将对指南进行修订;若认为指南已无法适应现实需求或存在严重缺陷,也可能选择撤回指南,重新制定相关指引。这体现了欧盟委员会对指南的动态管理,以保障其对《人工智能法案》第 5 条禁令实施的指导作用。

来源:tbtguide

来源:cacs.mofcom.gov.cn