检测到您的浏览器版本过低,可能导致某些功能无法正常使用,建议升级您的浏览器,或使用推荐浏览器 Google Chrome 、Edge、Firefox 。 X
2025年11月,世界经济论坛(WEF)联合凯捷咨询公司(capgemini)发布《人工智能代理行动:评估与治理的基础(AI Agents in Action: Foundations for Evaluation and Governance)》,聚焦当下兴起的“自主AI(agentic AI”和
“智能体系统(AI agents)”。即不只是生成文本或图像的工具,而是能够完成“感知-决策-任务执行(sense-learn-act)”流程的智能系统。报告试图为这一新兴类别构建一个系统化、可治理的基础结构和评估治理框架,以帮助企业、政府与社会合理、负责任地部署和使用AI agents。
报告认为,AI agents 的广泛应用可能推动生产力革命、业务流程自动化以及新型协作机制,但与此同时也带来了透明性、责任、合规、社会信任与制度设计的新挑战。若缺乏系统治理与评估机制,这种“能动性(agentic)”反而可能放大风险、损害信任和公共利益。
一、技术架构、功能分类与治理路径
报告首先对AI agents的技术架构进行了界定与拆解,强调与传统工具型AI和分析型 AI 的差异:AI agents 更强调自主性、环境感知与长期和连续的决策能力,及其任务执行、环境反馈和状态更新机制的流畅性。
基于此,WEF 提出对 AI agents 的功能分类维度,包括但不限于:角色、自主性、可预测性、应用环境上下文等。这样的分类有助于不同类型的 agent 被清晰识别、评估与治理。
对于AI agents,报告主张采用进化式的治理监管方式,意即不是简单套用传统AI 、软件或自动化系统治理,而是根据AI代理的功能类型、使用环境、风险等级设定分层和分级治理与持续监控机制。报告提出的治理框架建议覆盖从“设计 (design) → 部署 (deployment) → 运行 (operation) → 监测 (monitoring) → 责任审计 (accountability audit) 的全生命周期 (full‑lifecycle approach)”。这种整体闭环方法,有助于兼顾创新速度与社会伦理和安全责任。
二、AI Agents的潜在价值与应用逻辑
根据报告观察,AI agents的价值主要体现在以下几个方面:
一是流程自动化与复杂任务执行:与生成型及推荐型模型不同,AI agents可执行更复杂、涉及多个步骤与状态判断的任务,如自动化办公流程、自动客户服务、合规监控、供应链运营调度、数据监测、跨系统及跨部门决策辅助等。
二是提高效率、节省人力,兼顾灵活性与可扩展性:对于人力成本高、重复性强、标准化流程多的行业 (例如金融、后台服务、供应链管理、运营监控),agentic AI 可成为未来企业 /组织数字化转型的重要基础设施。
三是进一步推动人机协作范式创新:相比传统自动化工具,AI agents更能嵌入组织流程与业务体系,在人类与机器之间建立协作关系,而非简单替代或工具调用,从而增强组织韧性与适应复杂环境的能力。
三、风险、挑战与治理难题
报告同时分析了AI agents带来的挑战与风险,指出其治理监管必须与技术开发同步。主要风险包括:透明性与可解释性 (transparency & auditability):agent 在做决策、执行任务、与多个系统或人类交互时,其行为、决策依据、责任链条往往复杂。如果缺乏可追踪机制,可能导致责任不清、滥用、误用或系统失控;风险等级划分识别困难:由于AI agent功能范围广、应用场景多,如何事先判断某某个情境是否属于高风险类别、是否需要更严格治理,是一个制度设计难题;治理结构与责任主体不明确:传统软件 /AI 系统治理多由开发者 /平台方主导,但 agent 的自治性和行为复杂性,要求治理角色从开发者扩展到运营、审计、合规、使用者、监管机构等多方。监管体系、责任机制、合规标准需要同步建立;政策与标准滞后:当前很多国家和地区及其监管框架对 AI agents 的特殊性缺乏专门规则,若过早大规模部署,可能带来治理、隐私、安全及社会信任等风险。
四、政策建议:构建负责任、可扩展的AI Agent应用体系
基于上述分析,报告对不同利益相关者提出了如下建议:
企业和组织(采用者):在引入AI agents 时,应对潜在应用场景进行分类,评估其风险、收益、合规性;优先选择风险可控、收益明确、流程标准化、易于监控的任务进行试点;建立从设计 → 部署 → 监测 → 审计 → 反馈 / 改进的闭环治理体系;与技术供应商、合规、法律、审计、运营各部门协同合作。
技术平台和供应商:在开发AI agent系统时,应设计可监控、可审计、可追踪的架构;对不同功能和任务类型的AI agent进行分类与标记;为用户部署者提供清晰的安全合规文档与工具。
政策监管机构及标准化组织:应尽快识别agentic AI与传统 AI /软件/自动化系统的差异,制定专门政策 /标准 /认证 /审计 /责任机制;推动制定适用于 agent 的透明度 / 可解释性 /责任链规范;建立跨部门/跨利益主体 (多利益相关方) 的治理机制 (multi‑stakeholder governance),确保agent的部署符合公共利益、安全与伦理要求。
社会及公众:应关注 AI agents 对劳动市场、就业结构、职业技能要求、职业安全、隐私与伦理等方面的长远影响;加强对AI 使用、治理、监督、责任机制和社会规范的公共讨论与参与。
报告为当前“agentic AI 的快速崛起提供了一套系统、结构化、面向治理 (governance‑ready) 的分析与路径图,揭示了 AI agents在效率、自动化、协作、组织转型等方面的潜力,也指出了其带来的治理与合规风险。对政策制定者、产业、研究机构及公众而言,现在是构建AI代理规制框架的关键窗口期:谁能率先建立起清晰、可信、可持续、负责任的AI代理生态,谁就可能在未来 AI 竞争与重构中占据战略主动。
参考文献:
[1] WEF. AI Agents in Action: Foundations for Evaluation and Governance[R/OL]. (2025-11-27)[2025-11-28]. https://www.weforum.org/publications/ai-agents-in-action-foundations-for-evaluation-and-governance/.
[2] The Future Society. Ahead of the Curve: Governing AI Agents under the EU AI Act[R/OL]. (2025-06-04)[2025-11-28]. https://thefuturesociety.org/wp-content/uploads/2023/04/Report-Ahead-of-the-Curve-Governing-AI-Agents-Under-the-EU-AI-Act-4-June-2025.pdf.