检测到您的浏览器版本过低,可能导致某些功能无法正常使用,建议升级您的浏览器,或使用推荐浏览器 Google Chrome EdgeFirefox X

首页科技前沿与新兴产业新一代信息技术电子信息

AI治理三驾马车:审计、数据与模型

供稿人:方杰供稿时间:2025-08-24 19:17:11关键词:AI,人工智能

在当今瞬息万变的商业环境中,人工智能(AI)正以前所未有的速度重塑企业运营,为内部审计、数据治理和模型测试带来了新的挑战与机遇。这篇分析将深入探讨AI如何影响这些核心职能,并概述组织应如何采取关键行动,以确保在拥抱创新的同时,实现负责任的AI应用和持续增长。健全的治理框架不再是简单的合规要求,而是驱动创新、降低风险并建立信任的战略基石。 

内部审计

1. 人工智能如何快速改变内部审计的现状

就像十年前网络安全成为审计的焦点一样,人工智能风险也迅速成为审计委员会和领导层关注的首要问题。人工智能正在快速重塑核心业务流程,但治理模式的跟进速度却往往滞后,这使得缺乏明确战略或用例清单的组织尤其脆弱。不受控制的人工智能系统可能带来多重风险,包括做出违反隐私、公平或公正预期的决策,因其缺乏可解释性而使审计和合规复杂化,以及通过第三方模型或数据泄露引入安全和知识产权风险。在这种背景下,董事会、监管机构和客户都在寻求答案,而内部审计部门如果具备正确的职责、能力和框架,则完全有能力提供解决方案。

2. 内部审计利用负责任的人工智能创造价值的机会

除了传统的风险降低作用,内部审计还迎来了独特的机会,可以通过塑造推动创新的治理框架,来促进人工智能的负责任使用,从而创造价值并实现企业转型。就像赛车的刹车系统能够让车手放心加速一样,健全的人工智能治理框架也能让组织更快速地开展创新。通过及早参与治理,内部审计团队可以评估初始框架、识别新兴风险,并在人工智能开发和使用过程中建立信任。他们能够就透明度、隐私、输出质量和问责制等关键问题提供指导,确保人工智能系统从一开始就建立在强有力的保障措施之上,并随着应用的扩展,持续将负责任的使用作为首要考量。

3. 要优先考虑的关键行动

为了帮助内部审计部门在负责任的人工智能领域发挥关键作用,可以从以下几个方面入手:首先,需要全面了解组织内部所有人工智能系统、模型及工具,并与相关部门合作建立并评估一个动态的清单,这不仅有助于识别高风险用例、评估供应商风险,也为未来的审计工作奠定基础。其次,审计团队应审查和评估分散在各职能部门的人工智能治理结构,确保其职责、决策权和升级路径清晰、有效且资源充足。此外,评估组织所采用的人工智能风险和控制框架的充分性至关重要,如 NIST AI RMF或ISO 42001,并重点审查高影响模型在训练数据、验证方法和决策逻辑等方面的控制措施。同时,内部审计应尽早融入人工智能的设计和部署生命周期中,尤其对于高风险模型,要建立发布前审查机制。最后,审计团队自身也应积极探索并利用人工智能工具,以提升审计效率、扩大覆盖范围并获取预测性洞察。 

数据治理

1. 人工智能如何改变数据治理现状

在人工智能时代,数据治理已不再是可有可无的合规性要求,而是所有组织的战略要务。人工智能的兴起,对数据的来源、沿袭和使用权提出了更高要求,使得各行各业对高质量、可追溯数据的需求全面提升。对于监管严格的行业,挑战在于如何调整其既有的数据治理框架以应对人工智能带来的新监管审查;而对于监管相对宽松的行业,人工智能则强制性地将数据治理提升到高管和董事会层面,迫使他们从零开始构建数据治理方案,尽管这可能面临架构、工具和高管支持不足的挑战,尤其对于那些数据环境分散的企业而言。最终,无论监管环境如何,健全的数据治理都已成为企业利用人工智能的基石,它不仅能有效降低风险、确保结果可靠,更能为企业建立信任、加速洞察,并为其人工智能用例的扩展提供有力支持。

2. 数据治理和负责任的人工智能的机会

强大的数据治理是推动人工智能应用的关键,因为它能建立信任、简化合规流程,并确保人工智能系统的可靠性、透明度和公平性。在技术层面,健全的治理能提高人工智能输出的准确性、减少“幻觉”,并增强其可用性和可扩展性。通过投资数据治理,企业能够确保用于人工智能的数据是可信的、经过授权的,并有清晰的来源,这不仅有助于满足监管要求,更能增强利益相关者的信心。此外,人工智能本身也能赋能治理,通过自动化异常检测和数据质量验证等任务,提升治理效率。最终,那些在负责任管理人工智能数据方面展现领导力的公司,通过数据治理实现人工智能模型的可解释性和公平性,将会在客户、供应商和监管机构中脱颖而出,成为负责任创新的典范。

3. 需要优先考虑的关键行动

数据是人工智能的核心,其治理质量直接决定了项目成败。为了保持领先,企业应将数据治理提升到董事会层面,使其成为人工智能战略的核心组成部分,并将其指标纳入关键绩效指标(KPI)中。同时,企业需要投资现代化架构和工具,集中、清理和管理数据,并优先关注数据沿袭追踪和元数据管理,以提升人工智能系统的透明度和可解释性。此外,合理化数据源、减少数据孤岛并建立单一可信来源,对于确保数据质量至关重要。最后,企业应将人工智能考量融入现有的数据治理框架,明确数据治理与模型治理之间的关系,并整合涵盖人工智能全生命周期的治理接触点,确保数据政策与人工智能风险评估及负责任使用指南保持一致。

模型测试

1. 模型测试和监测的现状如何变化

许多组织,特别是那些缺乏严格监管驱动测试实践的组织,正在意识到持续进行人工智能模型测试和监控的必要性,难以找到可重复的方法或组建胜任的团队。随着生成式AI和代理AI的兴起,传统的软件测试实践已无法满足需求,因为与线性开发、确定性输出的软件不同,模型开发是迭代且实验性的,其输出具有可变性,并可能包含数据偏差。因此,在模型部署后进行持续监控和定期重新测试变得尤为重要。然而,许多组织在测试方面存在文化、组织和治理上的差距,例如监控所有权分散、人工智能开发和使用高度去中心化以及监管框架的不确定性。为了有效利用人工智能模型来驱动关键决策,组织必须投资建立标准化的流程,确保在模型生命周期的各个阶段对其进行测试和监控,并就测试内容、人员、时间和问题上报机制达成共识。

2. 模型测试和负责任的人工智能的机会

妥善的人工智能模型测试不仅是风险管理,更是对人工智能投资的回报保障。良好的治理能够让模型运行更可靠,带来更可预测、更可持续的结果,同时帮助企业更好地了解其性能局限、调整方法及人工干预的最佳时机。普华永道的Model Edge平台正是为此而生,通过提供精简的环境治理和测试需求文档化,它能帮助企业更高效地标准化测试、追踪性能趋势并满足合规要求。最终,健全的模型测试实践能够增强企业追求更多人工智能应用和更广泛转型目标的信心,让那些曾经因风险过高而难以触及的人工智能用例,现在变得更具可行性。

3. 需要优先考虑的关键行动

AI模型开发中,企业需要建立一套与现有软件开发生命周期可能不同但相适应的、获得组织共识的测试方法。这套方法应覆盖各类AI系统,包括第三方应用中的嵌入式功能、代理以及独立的机器学习预测引擎。同时,还应建立相应的测试和监控机制,来管理员工使用生成式AI工具构建的系统。此外,为了平衡“快速投产”的心态,企业需要通过激励措施来建立一种积极的测试文化,鼓励团队主动思考潜在故障点并设计控制措施。这些测试指南应与治理框架相结合,对高风险应用进行更严格的测试,并明确各方职责,以符合组织的风险承受能力和新兴的法律法规要求。 

随着人工智能日益融入企业运营,内部审计职能必须与时俱进,提供及时的技术支持和保障。数据治理已不再是单纯的合规门槛,而是构建竞争优势和负责任人工智能的基石。普华永道可以帮助企业实现内部审计能力的现代化,有效应对人工智能风险,并深化治理以创造更大的战略价值。我们助力企业将治理作为核心战略和技术优先事项,帮助客户建立并完善人工智能模型的测试与监控流程,同时提供独立的测试、评估和监控服务。通过现在就投资于治理,企业能够在快速变化的数字环境中,自信且规模化地释放人工智能的未来潜力,从而实现负责任的创新与发展。 

参考文献:

[1] Pwc.Responsible AI and internal audit: what you need to know[OL]. (2025-07-24) [2025-08-24]. https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-internal-audit.html

[2] Pwc.Responsible AI and data governance: what you need to know[OL]. (2025-08-07) [2025-08-24]. https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-data-governance.html

[3] Pwc.Responsible AI and model testing: what you need to know[OL]. (2025-08-19) [2025-08-24].https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-model-testing.html