检测到您的浏览器版本过低,可能导致某些功能无法正常使用,建议升级您的浏览器,或使用推荐浏览器 Google Chrome EdgeFirefox X

首页科技前沿与新兴产业全球价值链全球价值链

欧盟《AI 内容透明度行为准则》研究与分析

供稿人:左雨萌供稿时间:2026-01-07 15:00:17关键词:欧洲,人工智能,透明度

一、引言

随着生成式 AI 技术的快速迭代,AI 生成内容(包括文本、图像、音频、视频等)的逼真度与传播效率显著提升,不仅推动了数字内容创作的革新,也引发了关于信息真实性、内容溯源及社会信任的严峻挑战。深度伪造技术引发的身份冒充、虚假信息传播,以及 AI 生成文本在公共事务领域的误导性使用,已对民主进程、个人权益及市场秩序构成实质性威胁。   

在此背景下,欧盟作为全球 AI 治理的先行者,于 2025 12发布《AI 内容透明度行为准则》(第一版草案)(以下简称《准则》),构建了 AI 生成内容透明度的全链条规范体系。该《准则》是欧盟《人工智能法案》第 50 条的具体化实施文件,经过多方利益相关者参与的开放式公共咨询与专题研讨,整合了产业界、学术界、公民社会及成员国代表的多元意见,形成了针对 AI 系统提供者与部署者的双重责任框架。本文将从制定背景与流程、核心内容框架、技术实施要求、合规与监督机制、挑战与展望等方面,对《准则》进行全面解析,以期为理解欧盟 AI 治理逻辑、推动全球 AI 内容透明度规则协同提供学术支撑。

二、《准则》的制定背景与流程

(一)法律依据与政策目标

《准则》的制定直接依据《人工智能法案》第 50 条第(2)(4)(5)款的规定,核心政策目标包括三方面:一是增强 AI 生成与操纵内容的透明度,使自然人能够有效识别 AI 来源内容,维护信息生态系统的完整性与公众信任;二是建立技术可行、比例适当的标识与检测机制,平衡 AI 创新发展与风险防控的关系;三是明确 AI 价值链各参与方的责任,促进提供者与部署者的协同治理,为欧盟内部市场的有序运作提供保障。同时,《准则》致力于确保 AI 技术的发展符合以人为本的原则,保护《欧盟基本权利宪章》所载的民主、法治、环境保护等基本权利,防范 AI 对健康、安全的潜在危害。

(二)制定过程与参与主体

《准则》的制定过程体现了多方共治的治理理念,其关键特点包括以下三点,一是多方利益相关者参与:通过开放式公共咨询收集 187 份书面意见,涵盖产业界、学术界、公民社会等多元主体,确保规则的实操性与包容性。二是专业工作组协作:设立两个专项工作组,分别负责生成式 AI 系统输出内容的标识和检测要求(工作组 1),以及深度伪造及特定 AI 生成文本的披露要求(工作组 2),由具备专业知识、经验、独立性及地域和性别多样性的主席和副主席领导。三是多轮研讨与专家审查:通过 2025 11 17-18 日的三次专题研讨会,结合针对性书面意见收集,整合最新学术研究、国际标准与实践经验,确保规则的科学性与前瞻性。

三、《准则》的核心内容

《准则》全文围绕 AI 系统提供者与部署者两大核心主体,构建了 “技术标识与检测”(针对提供者)和 “清晰披露与标签”(针对部署者)的双重责任体系,涵盖通用原则、具体承诺、实施措施及合规要求等内容,形成了逻辑严密、层次分明的规范框架。

(一)适用范围与术语定义

《准则》的适用范围与《人工智能法案》保持一致,涵盖生成或操纵合成音频、图像、视频、文本内容的 AI 系统(包括通用目的 AI 系统),重点规制深度伪造内容及旨在向公众告知公共利益事宜的 AI 生成文本。在术语定义方面,《准则》明确了主动标识、法证检测、感知哈希、结构化标识等关键技术术语的内涵,统一了 “全生成内容”“AI 辅助内容” 等核心概念的界定,为规则的统一适用奠定基础(具体术语定义见表 1)。

1 核心术语定义表

术语

定义

主动标识(Active marking

AI 生成或操纵的内容中添加或嵌入标识,如水印或附加信息(如元数据条目),便于检测该标识及对 AI 生成或操纵内容进行来源归属

法证检测(Forensic detection)

不依赖于主动 AI 标识存在的 AI 生成或操纵内容检测,可利用内容内在特征或机器学习模型区分 AI 生成与真实内容

感知哈希(Perceptual Hashing)

将音频或视觉内容缩减为短标识符以便索引,用于快速查找已知 AI 生成或操纵内容

结构化标识(Structural marking)

在训练期间或推理时嵌入模型的不可感知水印,适用于开放权重模型的标识

全生成内容

完全由 AI 系统自主生成且不含人类创作真实内容的内容

AI 辅助内容

人类和 AI 混合参与创作,AI 的参与实质性影响内容意义、事实准确性或情感基调的内容

  (二)针对 AI 系统提供者的核心义务

提供者的核心责任聚焦于技术层面的标识与检测,通过实施 多层标记法确保 AI 生成内容的可识别性与可追溯性,具体包括四大承诺及配套措施:

1. AI 生成内容的多层标识

该承诺要求提供者采用组合式标识技术,确保 AI 系统输出以机器可读格式进行标识,且标识技术符合有效性、互操作性、稳健性和可靠性要求。具体措施包括:第一,在机器可读标识技术方面:针对支持元数据嵌入的内容,在元数据中添加内容来源、AI 系统签名及操作类型等信息并进行数字签名;对 AI 生成内容嵌入不可感知水印,直接与内容交织以抵御典型处理操作;必要时建立指纹识别或日志记录设施,弥补元数据与水印技术的不足。第二,在特定模态标识技术方面:为不允许安全嵌入元数据的内容(如部分文本)提供数字签名的来源证书;确保多模态内容的标识在各模态间同步,防止单一模态被替换后标识失效。第三,在开放权重模型的结构化标识方面:在模型训练期间将标识编码于权重中,使基于该模型开发的下游 AI 系统自动继承标识特征,降低下游合规成本。 第四,在标识保护与来源链透明度方面:采取措施防止标识被更改或移除,在内容传播与转换过程中保留来源信号;记录内容从 AI 辅助修改到完全 AI 生成的来源链,区分 AI 操作与人工操作。

2.AI 生成内容标识的检测

提供者需确保 AI 生成内容可被用户及第三方检测,具体措施包括:第一,提供免费检测接口(如 API 或用户界面)或公开检测器,支持带有置信度分数的内容验证,并披露完整来源信息第二,模型提供者在模型投放市场前提供检测机制,促进下游系统合规第三,实施法证检测机制作为主动标识的补充,通过分析内容内在特征实现 AI 生成内容识别,不依赖主动标识的存在;最后,确保检测结果的人类可理解性与无障碍性,符合欧盟 ICT 产品和服务的无障碍标准提供培训材料与文档,提升部署者与用户的 AI 内容验证素养。

3. 标识和检测技术要求

提供者需确保标识与检测技术符合有效性、可靠性、稳健性和互操作性四大核心要求。首先是有效性:包括技术方案需计算效率高、成本可控,能实时应用且不损害内容质量与模型功能,兼顾环境可持续性。第二是可靠性:通过低假阳性 / 假阴性率、低比特错误率等指标衡量,需在未见过的 AI 生成与人类创作内容样本上验证。第三是稳健性:能抵御镜像、裁剪、压缩、转述等常见修改及复制、移除标识等对抗性攻击,采用速率限制等安全措施防范恶意使用。最后是互操作性:技术方案需适配不同分发渠道与技术环境,鼓励合作创建共享聚合验证器,采用国际与欧洲标准提升互操作性。

4. 测试、验证与合规

提供者需建立合规框架,确保标识与检测措施有效落地制定并更新合规框架,记录标识与检测流程,应监管要求提供相关文档。提供者在投放市场前及定期进行真实场景测试,邀请独立专家参与或在监管沙盒中开展评估,采用自适应威胁建模应对新型风险为相关人员提供培训,确保合规措施有效实施配合市场监管机构的合规评估,提供必要信息与系统访问权限。

(三)针对 AI 系统部署者的核心义务

部署者的核心责任是对深度伪造内容及涉及公共利益的 AI 生成文本进行清晰、显眼的标签披露,确保自然人在首次接触内容时即可识别其 AI 来源,具体包括三大通用承诺及针对深度伪造与 AI 文本的特定措施:

1. 通用承诺

该部分主要分为以下三点:1基于通用分类法和图标披露来源。采用 全生成内容“AI 辅助内容的二级分类法,明确区分 AI 参与程度;在欧盟通用图标确定前使用过渡性图标(如 “AI”“KI” 等成员国语言缩写),未来将开发交互式欧盟通用图标,支持点击查看详细来源信息,且图标放置需清晰可见、不干扰内容欣赏。2合规、培训与监督。制定内部合规文件明确标签实践,为相关人员提供培训;建立保密渠道接收第三方关于错误标签或未标签内容的举报,及时纠正不合规情况,并配合市场监管机构、事实核查组织等第三方的评估。3无障碍获取。确保标签符合欧盟无障碍要求,为视障用户提供音频描述、为听障用户提供字幕或手语披露,保证图标高对比度与屏幕阅读器兼容性。

2. 针对深度伪造的特定措施

这一部分同样分为三个方面,分别是:1建立内部分类流程,结合目标受众、分发渠道特性识别深度伪造内容,区分执法用途等例外情况与艺术、创意、讽刺等特殊作品类型;2针对不同模态深度伪造内容采取差异化披露方式:实时视频持续显示图标并在开始时插入免责声明;非实时视频在开始时显示免责声明或全程放置图标;图像在固定位置持续显示图标;短音频在开始时加入口头免责声明,长音频在不同阶段重复披露。3对艺术、创意类深度伪造内容采用非侵入性披露方式,在不影响作品欣赏的前提下进行标识,同时保障第三方权利与自由。

3. 针对 AI 生成与操纵文本的特定措施

AI 系统部署者需要建立内部流程识别涉及公共利益的 AI 生成文本,区分执法用途、人工审查等豁免情形,确保标签过程有适当人工监督在文本顶部、旁边或版权页等固定位置放置图标,确保首次接触时清晰可辨。同时,依赖人工审查豁免条款的部署者需建立内部程序并留存文档,明确承担编辑责任的自然人或者法人身份、审查措施、批准日期及最终内容版本等关键信息。

四、《准则》的创新亮点与制度价值

(一)技术规则的精细化与实操性

《准则》突破了单一标识技术的局限,提出 多层标记法,整合元数据、水印、指纹识别、日志记录、法证检测等多种技术手段,针对不同内容模态(文本、图像、音频、视频、多模态)设计差异化标识方案,兼顾技术可行性与抗攻击能力。同时,《准则》对技术要求进行量化界定,避免规则模糊导致的合规困难,为技术研发与应用提供明确指引。

(二)责任划分的链条化与协同性

《准则》构建了 AI 价值链全链条的责任体系,明确提供者(技术层面)与部署者(披露层面)的分工与协同:提供者通过技术手段嵌入标识、提供检测工具,为透明度奠定基础;部署者通过显眼标签与分类披露,确保普通公众能够感知 AI 来源。这种责任划分既避免了单一主体责任过重,又通过来源链记录、模型层面标识等机制实现责任传递,确保透明度要求贯穿 AI 内容生成、传播的全过程。同时,《准则》为中小企业与初创企业提供简化合规路径,体现比例原则,平衡了监管强度与创新活力。

(三)治理理念的多方共治与包容性

《准则》的制定过程与内容设计充分体现多方共治理念:在制定阶段吸纳产业界、学术界、公民社会等多元主体意见;在实施阶段鼓励提供者与监管机构、研究组织合作开发检测工具与标准,支持第三方参与内容验证;在规则设计中考虑艺术创作、讽刺表达等特殊场景,通过豁免条款与差异化披露方式保障创意自由,避免一刀切监管对文化创新的抑制。此外,《准则》强调无障碍要求,关注残障人士等弱势群体的信息获取权,体现了以人为本的治理导向。

(四)国际治理的示范性与引领性

作为全球首部针对 AI 内容透明度的详细行为准则,《准则》为国际 AI 治理提供了可借鉴的框架:其将技术标准与法律责任相结合,既明确合规要求,又为技术创新预留空间;通过通用分类法与图标系统促进规则统一,降低跨境合规成本;平衡了安全与发展、权利保护与创新激励的关系,为各国制定 AI 透明度规则提供了参考范式。同时,《准则》强调国际标准与互操作性,为全球 AI 内容透明度规则的协同奠定基础。

五、《准则》实施面临的挑战与展望

(一)实施挑战

《准则》的实施挑战主要有以下4个方面,首先在于技术落地的复杂性:不同内容模态的特性差异较大,尤其是极短文本、纯音频等内容的标识技术仍面临技术瓶颈,如何在不影响内容质量与效用的前提下实现有效标识,需要进一步的技术突破,法证检测技术的准确性与抗干扰能力需在实践中持续验证,多模型聚合检测工具的开发面临技术整合与数据共享难题。第二是跨境合规的协调性:欧盟《准则》的要求可能与其他国家或地区的 AI 治理规则存在差异,跨国企业需应对多重监管要求,增加合规成本;通用图标与分类法的国际认可度有待提升,跨境传播的 AI 内容可能面临标识不被认可的问题。第三是中小企业的合规压力:尽管《准则》提出简化合规路径,但中小企业与初创企业仍可能面临技术研发、检测工具部署等方面的成本压力,如何确保规则的可及性,避免监管成为创新壁垒,需要欧盟进一步提供支持措施。最后是监管执行的难度:AI 技术迭代速度快,新的生成与操纵技术可能规避现有标识与检测机制,监管机构需持续更新监管能力以应对新型风险;对 AI 内容的标签合规性检查涉及海量内容,如何实现高效监管而不增加行政负担,是监管机构面临的重要挑战。

(二)未来展望

技术创新与标准完善方面:随着《准则》的实施,预计将推动 AI 标识与检测技术的快速发展,尤其是多模态标识、法证检测、结构化标识等核心技术的成熟;欧盟将进一步推动国际与欧洲标准的制定,统一内容来源标识标准与水印更新、撤销机制,提升技术互操作性。

规则迭代与范围拓展方面:《准则》将根据利益相关方反馈与技术发展持续修订,未来可能将 AI 生成软件代码、VR/AR 内容等新型 AI 生成内容纳入规制范围,细化相关技术要求;针对艺术创作、政治广告等特殊场景的豁免条款与披露规则将进一步完善,平衡监管需求与权利保护。

国际协同与全球治理方面:欧盟可能通过双边或多边合作推动《准则》的国际认可,促进全球 AI 内容透明度规则的协同;国际组织(如联合国教科文组织、OECD)可能借鉴《准则》框架制定全球 AI 透明度指南,形成统一的治理原则与操作规范。

信任体系构建与公众素养提升方面:随着《准则》的落地,AI 生成内容的透明度将显著提升,有助于缓解信息信任危机;通过培训、公众宣传等方式,公众对 AI 内容的识别能力将逐步增强,形成技术标识、法律监管与公众素养相结合的多元治理格局。

六、结论

欧盟《AI 内容透明度行为准则》(第一版草案)作为《人工智能法案》的重要配套文件,构建了全球首个针对 AI 生成内容的全链条透明度规范体系,明确了 AI 系统提供者与部署者的责任边界,细化了标识与检测技术要求,平衡了风险防控与创新发展的关系。《准则》的核心创新在于采用 多层标记法通用标签系统的双重技术路径,建立了多方共治的治理框架,体现了技术精细化、责任链条化、治理包容性的特点。

尽管《准则》在实施过程中面临技术落地、跨境合规、中小企业负担等挑战,但其为欧盟 AI 信任体系的构建奠定了基础,为全球 AI 内容透明度治理提供了重要参考。随着规则的迭代完善与国际协同的推进,《准则》有望成为全球 AI 治理的标杆,推动 AI 技术在透明、可信的轨道上发展,实现技术创新与社会公共利益的共赢。对于 AI 企业而言,应积极参与《准则》的反馈与修订过程,提前布局合规技术研发与流程优化,以适应欧盟的监管要求;对于其他国家而言,可借鉴《准则》的治理逻辑,结合本国实际制定 AI 内容透明度规则,推动全球 AI 治理体系的协同与完善。

 

参考文献:

1、First Draft Code of Practice on Transparency of AI-Generated Content[EB/OL].[2025-12-17].[2026-01-06]https://digital-strategy.ec.europa.eu/en/library/first-draft-code-practice-transparency-ai-generated-content

2、Code of Practice on marking and labelling of AI-generated content[EB/OL].[2025-12-17].[2026-01-06]https://digital-strategy.ec.europa.eu/en/policies/code-practice-ai-generated-content

3、Tech’s Expectations for the EU AI Act Transparency Code of Practice[EB/OL].[2025-12-17].[2026-01-06]https://www.itic.org/news-events/techwonk-blog/techs-expectations-for-the-eu-ai-act-transparency-code-of-practice