检测到您的浏览器版本过低,可能导致某些功能无法正常使用,建议升级您的浏览器,或使用推荐浏览器 Google Chrome 、Edge、Firefox 。 X
一、引言
随着生成式 AI 技术的快速迭代,AI 生成内容(包括文本、图像、音频、视频等)的逼真度与传播效率显著提升,不仅推动了数字内容创作的革新,也引发了关于信息真实性、内容溯源及社会信任的严峻挑战。深度伪造技术引发的身份冒充、虚假信息传播,以及 AI 生成文本在公共事务领域的误导性使用,已对民主进程、个人权益及市场秩序构成实质性威胁。
在此背景下,欧盟作为全球 AI 治理的先行者,于 2025 年12月发布《AI 内容透明度行为准则》(第一版草案)(以下简称《准则》),构建了 AI 生成内容透明度的全链条规范体系。该《准则》是欧盟《人工智能法案》第 50 条的具体化实施文件,经过多方利益相关者参与的开放式公共咨询与专题研讨,整合了产业界、学术界、公民社会及成员国代表的多元意见,形成了针对 AI 系统提供者与部署者的双重责任框架。本文将从制定背景与流程、核心内容框架、技术实施要求、合规与监督机制、挑战与展望等方面,对《准则》进行全面解析,以期为理解欧盟 AI 治理逻辑、推动全球 AI 内容透明度规则协同提供学术支撑。
二、《准则》的制定背景与流程
(一)法律依据与政策目标
《准则》的制定直接依据《人工智能法案》第 50 条第(2)(4)(5)款的规定,核心政策目标包括三方面:一是增强 AI 生成与操纵内容的透明度,使自然人能够有效识别 AI 来源内容,维护信息生态系统的完整性与公众信任;二是建立技术可行、比例适当的标识与检测机制,平衡 AI 创新发展与风险防控的关系;三是明确 AI 价值链各参与方的责任,促进提供者与部署者的协同治理,为欧盟内部市场的有序运作提供保障。同时,《准则》致力于确保 AI 技术的发展符合以人为本的原则,保护《欧盟基本权利宪章》所载的民主、法治、环境保护等基本权利,防范 AI 对健康、安全的潜在危害。
(二)制定过程与参与主体
《准则》的制定过程体现了多方共治的治理理念,其关键特点包括以下三点,一是多方利益相关者参与:通过开放式公共咨询收集 187 份书面意见,涵盖产业界、学术界、公民社会等多元主体,确保规则的实操性与包容性。二是专业工作组协作:设立两个专项工作组,分别负责生成式 AI 系统输出内容的标识和检测要求(工作组 1),以及深度伪造及特定 AI 生成文本的披露要求(工作组 2),由具备专业知识、经验、独立性及地域和性别多样性的主席和副主席领导。三是多轮研讨与专家审查:通过 2025 年 11 月 17-18 日的三次专题研讨会,结合针对性书面意见收集,整合最新学术研究、国际标准与实践经验,确保规则的科学性与前瞻性。
三、《准则》的核心内容
《准则》全文围绕 AI 系统提供者与部署者两大核心主体,构建了 “技术标识与检测”(针对提供者)和 “清晰披露与标签”(针对部署者)的双重责任体系,涵盖通用原则、具体承诺、实施措施及合规要求等内容,形成了逻辑严密、层次分明的规范框架。
(一)适用范围与术语定义
《准则》的适用范围与《人工智能法案》保持一致,涵盖生成或操纵合成音频、图像、视频、文本内容的 AI 系统(包括通用目的 AI 系统),重点规制深度伪造内容及旨在向公众告知公共利益事宜的 AI 生成文本。在术语定义方面,《准则》明确了主动标识、法证检测、感知哈希、结构化标识等关键技术术语的内涵,统一了 “全生成内容”“AI 辅助内容” 等核心概念的界定,为规则的统一适用奠定基础(具体术语定义见表 1)。
表 1 核心术语定义表
术语 | 定义 |
主动标识(Active marking) | 向 AI 生成或操纵的内容中添加或嵌入标识,如水印或附加信息(如元数据条目),便于检测该标识及对 AI 生成或操纵内容进行来源归属 |
法证检测(Forensic detection) | 不依赖于主动 AI 标识存在的 AI 生成或操纵内容检测,可利用内容内在特征或机器学习模型区分 AI 生成与真实内容 |
感知哈希(Perceptual Hashing) | 将音频或视觉内容缩减为短标识符以便索引,用于快速查找已知 AI 生成或操纵内容 |
结构化标识(Structural marking) | 在训练期间或推理时嵌入模型的不可感知水印,适用于开放权重模型的标识 |
全生成内容 | 完全由 AI 系统自主生成且不含人类创作真实内容的内容 |
AI 辅助内容 | 人类和 AI 混合参与创作,AI 的参与实质性影响内容意义、事实准确性或情感基调的内容 |
(二)针对 AI 系统提供者的核心义务
提供者的核心责任聚焦于技术层面的标识与检测,通过实施 “多层标记法” 确保 AI 生成内容的可识别性与可追溯性,具体包括四大承诺及配套措施:
1. AI 生成内容的多层标识
该承诺要求提供者采用组合式标识技术,确保 AI 系统输出以机器可读格式进行标识,且标识技术符合有效性、互操作性、稳健性和可靠性要求。具体措施包括:第一,在机器可读标识技术方面:针对支持元数据嵌入的内容,在元数据中添加内容来源、AI 系统签名及操作类型等信息并进行数字签名;对 AI 生成内容嵌入不可感知水印,直接与内容交织以抵御典型处理操作;必要时建立指纹识别或日志记录设施,弥补元数据与水印技术的不足。第二,在特定模态标识技术方面:为不允许安全嵌入元数据的内容(如部分文本)提供数字签名的来源证书;确保多模态内容的标识在各模态间同步,防止单一模态被替换后标识失效。第三,在开放权重模型的结构化标识方面:在模型训练期间将标识编码于权重中,使基于该模型开发的下游 AI 系统自动继承标识特征,降低下游合规成本。 第四,在标识保护与来源链透明度方面:采取措施防止标识被更改或移除,在内容传播与转换过程中保留来源信号;记录内容从 AI 辅助修改到完全 AI 生成的来源链,区分 AI 操作与人工操作。
2.AI 生成内容标识的检测
提供者需确保 AI 生成内容可被用户及第三方检测,具体措施包括:第一,提供免费检测接口(如 API 或用户界面)或公开检测器,支持带有置信度分数的内容验证,并披露完整来源信息。第二,模型提供者在模型投放市场前提供检测机制,促进下游系统合规。第三,实施法证检测机制作为主动标识的补充,通过分析内容内在特征实现 AI 生成内容识别,不依赖主动标识的存在;最后,确保检测结果的人类可理解性与无障碍性,符合欧盟 ICT 产品和服务的无障碍标准,提供培训材料与文档,提升部署者与用户的 AI 内容验证素养。
3. 标识和检测技术要求
提供者需确保标识与检测技术符合有效性、可靠性、稳健性和互操作性四大核心要求。首先是有效性:包括技术方案需计算效率高、成本可控,能实时应用且不损害内容质量与模型功能,兼顾环境可持续性。第二是可靠性:通过低假阳性 / 假阴性率、低比特错误率等指标衡量,需在未见过的 AI 生成与人类创作内容样本上验证。第三是稳健性:能抵御镜像、裁剪、压缩、转述等常见修改及复制、移除标识等对抗性攻击,采用速率限制等安全措施防范恶意使用。最后是互操作性:技术方案需适配不同分发渠道与技术环境,鼓励合作创建共享聚合验证器,采用国际与欧洲标准提升互操作性。
4. 测试、验证与合规
提供者需建立合规框架,确保标识与检测措施有效落地,制定并更新合规框架,记录标识与检测流程,应监管要求提供相关文档。提供者在投放市场前及定期进行真实场景测试,邀请独立专家参与或在监管沙盒中开展评估,采用自适应威胁建模应对新型风险,为相关人员提供培训,确保合规措施有效实施,配合市场监管机构的合规评估,提供必要信息与系统访问权限。
(三)针对 AI 系统部署者的核心义务
部署者的核心责任是对深度伪造内容及涉及公共利益的 AI 生成文本进行清晰、显眼的标签披露,确保自然人在首次接触内容时即可识别其 AI 来源,具体包括三大通用承诺及针对深度伪造与 AI 文本的特定措施:
1. 通用承诺
该部分主要分为以下三点:(1)基于通用分类法和图标披露来源。采用 “全生成内容” 与 “AI 辅助内容” 的二级分类法,明确区分 AI 参与程度;在欧盟通用图标确定前使用过渡性图标(如 “AI”“KI” 等成员国语言缩写),未来将开发交互式欧盟通用图标,支持点击查看详细来源信息,且图标放置需清晰可见、不干扰内容欣赏。(2)合规、培训与监督。制定内部合规文件明确标签实践,为相关人员提供培训;建立保密渠道接收第三方关于错误标签或未标签内容的举报,及时纠正不合规情况,并配合市场监管机构、事实核查组织等第三方的评估。(3)无障碍获取。确保标签符合欧盟无障碍要求,为视障用户提供音频描述、为听障用户提供字幕或手语披露,保证图标高对比度与屏幕阅读器兼容性。
2. 针对深度伪造的特定措施
这一部分同样分为三个方面,分别是:(1)建立内部分类流程,结合目标受众、分发渠道特性识别深度伪造内容,区分执法用途等例外情况与艺术、创意、讽刺等特殊作品类型;(2)针对不同模态深度伪造内容采取差异化披露方式:实时视频持续显示图标并在开始时插入免责声明;非实时视频在开始时显示免责声明或全程放置图标;图像在固定位置持续显示图标;短音频在开始时加入口头免责声明,长音频在不同阶段重复披露。(3)对艺术、创意类深度伪造内容采用非侵入性披露方式,在不影响作品欣赏的前提下进行标识,同时保障第三方权利与自由。
3. 针对 AI 生成与操纵文本的特定措施
AI 系统部署者需要建立内部流程识别涉及公共利益的 AI 生成文本,区分执法用途、人工审查等豁免情形,确保标签过程有适当人工监督,在文本顶部、旁边或版权页等固定位置放置图标,确保首次接触时清晰可辨。同时,依赖人工审查豁免条款的部署者需建立内部程序并留存文档,明确承担编辑责任的自然人或者法人身份、审查措施、批准日期及最终内容版本等关键信息。
四、《准则》的创新亮点与制度价值
(一)技术规则的精细化与实操性
《准则》突破了单一标识技术的局限,提出 “多层标记法”,整合元数据、水印、指纹识别、日志记录、法证检测等多种技术手段,针对不同内容模态(文本、图像、音频、视频、多模态)设计差异化标识方案,兼顾技术可行性与抗攻击能力。同时,《准则》对技术要求进行量化界定,避免规则模糊导致的合规困难,为技术研发与应用提供明确指引。
(二)责任划分的链条化与协同性
《准则》构建了 AI 价值链全链条的责任体系,明确提供者(技术层面)与部署者(披露层面)的分工与协同:提供者通过技术手段嵌入标识、提供检测工具,为透明度奠定基础;部署者通过显眼标签与分类披露,确保普通公众能够感知 AI 来源。这种责任划分既避免了单一主体责任过重,又通过来源链记录、模型层面标识等机制实现责任传递,确保透明度要求贯穿 AI 内容生成、传播的全过程。同时,《准则》为中小企业与初创企业提供简化合规路径,体现比例原则,平衡了监管强度与创新活力。
(三)治理理念的多方共治与包容性
《准则》的制定过程与内容设计充分体现多方共治理念:在制定阶段吸纳产业界、学术界、公民社会等多元主体意见;在实施阶段鼓励提供者与监管机构、研究组织合作开发检测工具与标准,支持第三方参与内容验证;在规则设计中考虑艺术创作、讽刺表达等特殊场景,通过豁免条款与差异化披露方式保障创意自由,避免“一刀切”监管对文化创新的抑制。此外,《准则》强调无障碍要求,关注残障人士等弱势群体的信息获取权,体现了以人为本的治理导向。
(四)国际治理的示范性与引领性
作为全球首部针对 AI 内容透明度的详细行为准则,《准则》为国际 AI 治理提供了可借鉴的框架:其将技术标准与法律责任相结合,既明确合规要求,又为技术创新预留空间;通过通用分类法与图标系统促进规则统一,降低跨境合规成本;平衡了安全与发展、权利保护与创新激励的关系,为各国制定 AI 透明度规则提供了参考范式。同时,《准则》强调国际标准与互操作性,为全球 AI 内容透明度规则的协同奠定基础。
五、《准则》实施面临的挑战与展望
(一)实施挑战
《准则》的实施挑战主要有以下4个方面,首先在于技术落地的复杂性:不同内容模态的特性差异较大,尤其是极短文本、纯音频等内容的标识技术仍面临技术瓶颈,如何在不影响内容质量与效用的前提下实现有效标识,需要进一步的技术突破,法证检测技术的准确性与抗干扰能力需在实践中持续验证,多模型聚合检测工具的开发面临技术整合与数据共享难题。第二是跨境合规的协调性:欧盟《准则》的要求可能与其他国家或地区的 AI 治理规则存在差异,跨国企业需应对多重监管要求,增加合规成本;通用图标与分类法的国际认可度有待提升,跨境传播的 AI 内容可能面临标识不被认可的问题。第三是中小企业的合规压力:尽管《准则》提出简化合规路径,但中小企业与初创企业仍可能面临技术研发、检测工具部署等方面的成本压力,如何确保规则的可及性,避免监管成为创新壁垒,需要欧盟进一步提供支持措施。最后是监管执行的难度:AI 技术迭代速度快,新的生成与操纵技术可能规避现有标识与检测机制,监管机构需持续更新监管能力以应对新型风险;对 AI 内容的标签合规性检查涉及海量内容,如何实现高效监管而不增加行政负担,是监管机构面临的重要挑战。
(二)未来展望
在技术创新与标准完善方面:随着《准则》的实施,预计将推动 AI 标识与检测技术的快速发展,尤其是多模态标识、法证检测、结构化标识等核心技术的成熟;欧盟将进一步推动国际与欧洲标准的制定,统一内容来源标识标准与水印更新、撤销机制,提升技术互操作性。
在规则迭代与范围拓展方面:《准则》将根据利益相关方反馈与技术发展持续修订,未来可能将 AI 生成软件代码、VR/AR 内容等新型 AI 生成内容纳入规制范围,细化相关技术要求;针对艺术创作、政治广告等特殊场景的豁免条款与披露规则将进一步完善,平衡监管需求与权利保护。
在国际协同与全球治理方面:欧盟可能通过双边或多边合作推动《准则》的国际认可,促进全球 AI 内容透明度规则的协同;国际组织(如联合国教科文组织、OECD)可能借鉴《准则》框架制定全球 AI 透明度指南,形成统一的治理原则与操作规范。
在信任体系构建与公众素养提升方面:随着《准则》的落地,AI 生成内容的透明度将显著提升,有助于缓解信息信任危机;通过培训、公众宣传等方式,公众对 AI 内容的识别能力将逐步增强,形成技术标识、法律监管与公众素养相结合的多元治理格局。
六、结论
欧盟《AI 内容透明度行为准则》(第一版草案)作为《人工智能法案》的重要配套文件,构建了全球首个针对 AI 生成内容的全链条透明度规范体系,明确了 AI 系统提供者与部署者的责任边界,细化了标识与检测技术要求,平衡了风险防控与创新发展的关系。《准则》的核心创新在于采用 “多层标记法” 与 “通用标签系统” 的双重技术路径,建立了多方共治的治理框架,体现了技术精细化、责任链条化、治理包容性的特点。
尽管《准则》在实施过程中面临技术落地、跨境合规、中小企业负担等挑战,但其为欧盟 AI 信任体系的构建奠定了基础,为全球 AI 内容透明度治理提供了重要参考。随着规则的迭代完善与国际协同的推进,《准则》有望成为全球 AI 治理的标杆,推动 AI 技术在透明、可信的轨道上发展,实现技术创新与社会公共利益的共赢。对于 AI 企业而言,应积极参与《准则》的反馈与修订过程,提前布局合规技术研发与流程优化,以适应欧盟的监管要求;对于其他国家而言,可借鉴《准则》的治理逻辑,结合本国实际制定 AI 内容透明度规则,推动全球 AI 治理体系的协同与完善。
参考文献:
1、First Draft Code of Practice on Transparency of AI-Generated Content[EB/OL].[2025-12-17].[2026-01-06]https://digital-strategy.ec.europa.eu/en/library/first-draft-code-practice-transparency-ai-generated-content
2、Code of Practice on marking and labelling of AI-generated content[EB/OL].[2025-12-17].[2026-01-06]https://digital-strategy.ec.europa.eu/en/policies/code-practice-ai-generated-content
3、Tech’s Expectations for the EU AI Act Transparency Code of Practice[EB/OL].[2025-12-17].[2026-01-06]https://www.itic.org/news-events/techwonk-blog/techs-expectations-for-the-eu-ai-act-transparency-code-of-practice