检测到您的浏览器版本过低,可能导致某些功能无法正常使用,建议升级您的浏览器,或使用推荐浏览器 Google Chrome EdgeFirefox X

首页科技前沿与新兴产业新一代信息技术人工智能

负责任的人工智能:实现技术进步与风险控制的双赢之道

供稿人:方杰供稿时间:2025-07-20 15:11:45关键词:负责任的人工智能,网络安全,隐私,风险


随着人工智能技术的迅猛发展及其在各行各业中的广泛应用,普华永道PwC关于负责任AI分析企业正面临着前所未有的机遇与挑战分析一方面,AI代理正在重塑业务运营模式,推动创新和业务敏捷性;另一方面,这也带来了新的网络安全风险、复杂的合规需求以及对数据隐私保护的更高要求。面对这些变化,构建灵活且有韧性的人工智能治理体系已成为企业成功的关键。这不仅涉及采用风险管理框架等标准来指导实践,还需要将负责任的人工智能(Responsible AI)原则深入融合到技术创新、第三方管理及隐私保护中,确保在快速演进的技术环境中保持竞争力和合规韧性。 

网络安全

AI代理技术深度集成至业务核心的进程中,‌网络安全必须成为AI治理的战略支柱‌。当前生成式AI和自主AI系统的动态风险已远超传统标准(如ISO/IEC 42001、NIST AI风险管理框架)的覆盖范围,尤其面临模型供应链攻击、对抗性样本注入等新型威胁。网络团队需主导构建具有战略弹性的治理体系,将‌网络安全控制深度嵌入AI全生命周期‌:通过动态资产指纹识别技术追踪AI模型版本与数据溯源,实施对抗性测试评估系统韧性,并建立行为基线监控检测AI代理异常操作。重点需将NIST AI RMF中的安全准则(如鲁棒性、隐私保护)与ISO 27001等网络安全标准融合,发展持续验证、实时威胁情报共享等核心能力。企业应避免机械追求认证,转而将标准视为动态工具包,网络团队应通过参与ISO/IEC JTC 1/SC 42等标准组织推动安全条款制定,同时在行业联盟(如FAIR联盟)中建立AI安全基准测试库。这种安全左移策略既能防范AI特有的数据泄露、模型劫持等风险,又能通过嵌入式安全控制保障业务敏捷性,最终实现负责任AI创新与网络风险管理的双重目标。 

第三方风险管理

‌AI技术正在重塑第三方服务生态,迫使企业彻底重构传统风险管理框架‌。随着第三方供应商在云平台、SaaS工具和外包服务中广泛部署AI(包括客户往往不知情的嵌入式AI),传统基于SOC 2报告和通用问卷的供应商评估机制已无法应对模型训练透明度、数据溯源、偏见缓解等新型挑战。企业需建立‌AI赋能的第三方风险管理TPRM新范式‌:通过自动化工具监测供应商AI使用痕迹(如.ai域名关联),将AI特定条款嵌入供应商合同(强制披露AI部署细节),并重构风险分层框架(根据AI用例敏感度动态调整评估优先级)。关键举措包括建立‌预审供应商白名单‌以加速合规AI服务接入,开发‌AI专用SOC 2附加条款‌强化模型审计能力,以及实施‌生态级数据使用监控‌防止训练数据滥用。这种现代化TPRM方法既能将供应商AI准入周期缩短40%,又能通过标准化治理框架(如参照欧盟AI法案)平衡创新速度与风险管控,最终实现第三方生态中AI驱动的业务价值与合规性的双重突破。 

行业标准

‌AI技术的指数级发展已使传统行业标准体系面临系统性重构需求‌。当前生成式AI和自主AI系统的动态能力(如多模态交互、实时决策)已远超ISO/IEC 42001:2023、NIST AI RMF 1.0等现有标准的预设范围,尤其在模型可解释性、持续学习机制等关键维度存在治理真空。企业需建立战略弹性治理框架‌,将行业标准转化为动态能力建设工具:通过ISO/IEC 23894:2023实现AI全生命周期风险映射,采用NIST框架的模块化结构应对技术突变,并基于ISO/IEC 42005:2025开展社会影响预评估。重点在于重构标准应用范式——将认证导向转为‌能力导向‌(如建立AI资产实时清单、对抗性测试沙盒),同时深度参与ISO/IEC JTC 1/SC 42等标准制定组织,推动Agentic AI等新兴领域的安全条款制定。这种活体标准策略既能通过ISO 42001等框架建立基础合规防线,又能通过行业联盟(如FAIR联盟)构建前沿技术治理试验场,最终实现AI创新自由度与风险管控严密性的动态平衡。 

AI监管准备

‌AI技术的指数级演进与全球监管体系的碎片化发展正在形成双重挑战‌,企业需构建动态化合规体系应对三层级监管复杂性:在技术层面,生成式AI的自主决策能力已超越现有法规预设范围(如欧盟AI法案对透明度的基础要求),需建立‌实时技术影响评估机制‌追踪模型迭代的合规缺口;在监管层面,美国各州差异化立法(如加州AB-331法案)与欧盟AI法案形成监管马赛克,跨国企业需开发‌地理围栏合规引擎‌实现属地化策略部署;在价值链层面,需重构供应商合约框架,将NIST AI RMF风险分级标准转化为可执行的‌第三方AI服务SLA条款‌(如强制要求API供应商提供模型训练数据溯源报告)。核心解决方案包括建立‌跨职能AI治理委员会‌(整合法务、研发与采购部门)、采用‌模块化合规架构‌(兼容ISO 42001与未来AI法案修订)、部署‌监管变化感知系统‌(通过自然语言处理实时解析全球立法动态)。这种监管适应性策略既能将新规响应周期缩短60%,又能通过可信AI认证(如欧盟CE标志)转化为市场竞争优势,最终实现合规成本与创新效率的帕累托最优。 

隐私:

‌隐私领导者正从合规执行者转型为AI治理的核心决策者‌,其关键在于构建数据伦理技术创新商业价值"三位一体的治理体系。随着生成式AI对个人数据的深度挖掘(如通过行为数据推断敏感属性),企业需建立‌动态隐私影响评估机制‌,将传统隐私保护原则(GDPR的合法性基础、数据最小化)适配到AI全生命周期——在模型开发阶段实施差分隐私技术,在部署阶段嵌入实时数据流监控,在运营阶段建立可解释性报告框架(如SHAP值可视化)。分层治理模型通过风险敏感度矩阵实现精准管控:对客户画像等高危AI应用实施隐私设计Privacy by Design强制审查,而对内部流程优化等低风险场景采用轻量级备案制。这种治理架构能使AI创新速度提升35%,同时通过‌隐私信任徽章‌(如基于ISO 27701认证)将合规成本转化为品牌溢价。核心实践包括:重构数据供应链(要求第三方供应商提供AI训练数据溯源证明),开发‌隐私增强型AI‌(联邦学习架构降低集中化数据风险),以及建立跨职能的‌AI伦理委员会‌(整合隐私、法务与算法团队),最终实现隐私保护与AI商业价值的共生共荣。 

通过战略性地运用行业标准、强化网络安全措施、优化第三方风险管理以及重视隐私保护,企业能够在享受AI带来的巨大利益的同时,有效应对潜在的风险和挑战。负责任的人工智能实践不仅是遵守法律法规的要求,更是赢得利益相关者信任、提升品牌声誉、保证数据质量及实现长期可持续发展的关键。最终,这种全面而系统的治理方法将帮助企业建立稳固的信任基础,并在日益复杂的人工智能时代中占据有利位置,引领未来的发展方向。 

[1] Pwc.Responsible AI and cybersecurity: what you need to know[OL]. (2025-06-12) [2025-07-20]. https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-cybersecurity.html

[2] Pwc.Responsible AI and third-party risk management: what you need to know[OL]. (2025-06-19) [2025-07-20]. https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-tprm.html

[3] Pwc.Responsible AI and industry standards: what you need to know[OL]. (2025-06-26) [2025-07-20].https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-industry-standards.html

[4] Pwc.Responsible AI and regulatory readiness: what you need to know[OL]. (2025-07-08) [2025-07-20].https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-regulatory-readiness.html

[5] Pwc.Responsible AI and privacy: what you need to know[OL]. (2025-07-15) [2025-07-20].https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-privacy.html