检测到您的浏览器版本过低,可能导致某些功能无法正常使用,建议升级您的浏览器,或使用推荐浏览器 Google Chrome EdgeFirefox X

首页科技前沿与新兴产业政策创新政策创新

欧盟发布《通用人工智能实践准则》

供稿人:徐岑筱供稿时间:2025-07-18 14:55:14关键词:通用人工智能,透明度,版权,安全保障

2025710日,欧盟委员会发布《通用人工智能实践准则》(General-Purpose AI Code of Practice,以下简称“准则”)的最终版本。这份具有行业指导性的政策文件,标志着欧盟在全球通用人工智能(General Purpose AIGPAI)治理方面迈出了关键一步。该准则不仅为模型提供商履行欧盟《人工智能法案》的合规义务提供了操作性参考,更释放出欧盟在塑造全球AI发展规则中追求“卓越与信任”的战略信号。

一、推动《人工智能法案》落地实施

欧盟《人工智能法案》自202481日生效以来,被视为全球首部全面监管AI技术的法律框架。法案采用分级风险监管方法,将人工智能系统分为最低风险、有限风险、高风险、不可接受风险四个风险等级。其中,通用人工智能模型被设定了专属规则,其透明度、版权合规以及系统性风险控制被列为关键监管内容。

此次《准则》的发布正是为了补足《人工智能法案》在落地层面的技术与管理缺口。该准则由13位独立专家撰写,参考了来自逾千名利益相关方(涵盖模型开发者、中小企业、学者、版权持有者、民间团体等)的反馈,《准则》具备高度包容性与实操性。尽管签署属于自愿行为,但已被视作模型提供商获得监管认可信任的重要“通行证”。

欧盟明确表示,202582日起,GPAI相关义务将正式生效。一年后将首先适用于市场上新发布的模型;两年后,现有模型也需全面遵守。这一过渡机制体现了监管与创新之间的平衡理念。

二、《准则》聚焦透明度、版权、安全与保障

《准则》共分为三大章节,分别聚焦于透明度、版权、安全与保障,体现了欧盟对GPAI技术基础、内容来源与系统性风险的全面治理。

1、透明度:标准化信息披露机制

《准则》的透明度章节明确了以下几点核心要求:

模型文档标准化:所有提供商需填写《模型文档表》(Model Documentation Form),内容涵盖模型架构、数据来源、训练过程、输入输出模态、许可类型及使用限制等。该表不仅需随模型更新同步修订,还需保存历史版本至少10年。

分级披露机制:对不同主体(如:人工智能办公室AIO、下游开发者等)设定差异化信息披露范围和响应时限。下游方提出信息请求时,需在14天内回复。

信息安全保障:强调网络安全技术保护机密数据,同时确保披露信息的真实性与完整性。

该机制一方面增强了GPAI的可解释性,有助于下游系统集成开发者履行各自义务;另一方面,也保障了知识产权与商业机密的安全,降低了企业合规的顾虑。

2、版权:明确合法使用和责任归属

GPAI训练过程中获取和使用海量互联网内容已成行业常态,但版权风险日益凸显。《准则》版权章节围绕合法内容获取、侵权风险防控等关键问题,提出以下措施:

版权政策制定与披露:模型提供商需建立清晰的内部版权合规政策,并定期更新,鼓励向公众披露版权政策摘要。

网络爬取合规化:严禁绕过内容平台的付费墙或订阅限制,明确排除侵权网站作为训练数据来源。

识别权利声明:要求遵守“爬虫排除协议”(Robots Exclusion Protocol),并支持欧盟统一的权利保留标准开发,确保机器可读的版权声明不被忽略。

防止侵权输出:部署技术手段防止模型生成明显侵犯版权的内容,并在使用政策中明令禁止相关用途。

建立申诉机制:设立版权方联系窗口,便于权利人提交投诉并获得回应。

通过这一系列细化操作指南,欧盟意图引导AI开发者在促进创新与遵守版权之间找到更清晰的界限,建立行业长期发展的正向机制。

3、安全与保障:针对系统性风险的治理体系

通用人工智能模型中最先进的一部分,因其可能具备极高的能力(如自主生成敏感信息、操作生物化学知识等),被认定具有“系统性风险”。该章节仅适用于此类模型(如OpenAIGPT-4MetaLlamaGoogleGeminiAnthropicClaude等),其核心内容包括:

风险识别与分类:明确生物安全、人权侵害、模型失控等为高优先级风险,需开发场景化风险模拟与应对方案。

全生命周期管理机制:模型上市前需完成系统性风险全面评估;上市后则需持续监控,建立动态调整机制。

安全防护措施:包含数据过滤、接口权限控制、参数加密、员工背景审查等,防止外部滥用与内部泄露。

第三方审查机制:要求部分模型在关键阶段需接受独立安全测试,如红队测试等。

该章节特别强调企业需在内部确立安全责任体系,并定期向AIO报送《安全与保障模型报告》。对于中小企业而言,部分简化要求亦得以保留,以兼顾监管公平与发展活力。

三、信任与卓越:欧盟AI发展战略底色

《准则》的出台并非孤立事件,而是欧盟系统性AI战略的自然延伸。

20254月发布的《欧洲人工智能大陆行动计划》提出,要在全球范围内打造“可信赖的AI力量”,强调以基本权利、民主价值与技术安全为基础推动AI发展。配合“数字欧洲”和“地平线欧洲”计划,欧盟每年将在AI领域投入至少10亿欧元,并吸引更多私人资本,力争未来实现每年200亿欧元的AI投资。

在法规治理方面,欧盟已相继出台《人工智能法案》《人工智能责任框架》《数据治理法案》《网络安全战略》等配套政策,并设立欧洲人工智能办公室(AIO),以实现监管统一化、标准清晰化、执行高效化。

在全球AI技术和规则博弈日趋激烈的当下,欧盟试图通过法治与合作路径,建立一个既安全又创新的AI生态,这一模式或将成为全球AI治理的重要参考。

四、后续步骤与政策展望

《准则》一经获得欧盟委员会和成员国正式认可,签署方将可在证明合规方面享受更低行政负担与更高法律确定性。这将成为企业获取市场信任与监管支持的双重凭证。

展望未来,欧盟将在AI治理方面持续推动“协作式合规”,推动GPAI开发者、版权方、行业协会与监管机构共建共治。通过构建“技术透明—法律合规—安全保障”的三位一体架构,欧盟意图实现“可信AI”的产业升级路径。

 

 

资料来源:

1、European Commission. General-Purpose AI Code of Practice now available[EB/OL]. (2025.7.10). https://ec.europa.eu/commission/presscorner/detail/en/ip_25_1787

2、European Commission. The General-Purpose AI Code of Practice[R]. (2025.7.10). https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai

3、Reuters. EU's AI code of practice for companies to focus on copyright, safety[EB/OL]. (2025.7.11). https://www.reuters.com/business/eu-code-practice-help-firms-with-ai-rules-will-focus-copyright-safety-2025-07-10/