检测到您的浏览器版本过低,可能导致某些功能无法正常使用,建议升级您的浏览器,或使用推荐浏览器 Google Chrome EdgeFirefox X

首页科技前沿与新兴产业经社风向经社风向

英国开启医疗人工智能监管的制度性安排

供稿人:徐星颖供稿时间:2026-01-05 15:11:13关键词:医疗,人工智能,监管

随着人工智能在医疗领域的应用不断扩展,其影响已逐步超出单一技术或产业范畴,开始触及医疗服务体系的运行方式、公共治理结构以及社会信任机制本身。从健康咨询工具到医疗服务流程,从专业系统到公众日常使用,人工智能正在改变医疗服务的组织方式,也对既有监管模式提出新的要求。

在这一背景下,英国围绕医疗人工智能监管(Regulation of AI in Healthcare)启动的一系列制度性安排,显示出相关议题正在从技术合规层面,转向更具整体性的治理层面。这一进程并未以直接出台新规为起点,而是通过国家层面的研究机制与公开征求意见安排逐步展开:先对问题进行系统梳理,再对分歧进行充分讨论,最后进入制度选择阶段。这种以过程为导向的推进方式,体现出在高度不确定的技术环境中,政策制定更趋向于稳健演进。

一、国家层面治理平台的出现

围绕医疗人工智能监管问题,英国已设立医疗人工智能监管国家委员会(National Commission into the Regulation of AI in Healthcare)。这一安排并非单一监管部门的内部咨询机制,而是一个跨领域、跨主体的协同平台,参与主体涵盖技术、医疗、法律、公共部门以及患者与公众代表。

该委员会的定位并不在于立即形成具体规则,而是围绕监管所面临的关键问题开展系统研究,并为后续政策选择提供基础性参考。通过将“制度形成前的关键环节”纳入正式安排,相关讨论获得了相对稳定的组织框架,也为不同立场和经验的交流提供了制度化空间。相关研究成果预计将在后续阶段逐步形成并发布。

从治理结构的角度看,通过国家层面平台统筹讨论新技术监管问题,反映出医疗人工智能已被视为具有广泛社会影响的公共事务,而不再只是行业或技术部门内部的专业议题。

二、公开征求意见安排的制度含义

与国家委员会工作相配套的,是面向社会各界广泛开展的公开征求意见安排(Call for Evidence)。这一做法不仅用于收集信息,也被明确纳入监管制度形成的整体过程之中。

通过公开征求意见,患者与公众、行业主体、医疗机构、专业团体以及国内外相关机构,均可围绕现行监管框架的适用性、实施难点和潜在风险,提出意见和实践经验。相关反馈将作为后续政策研究和制度设计的重要参考。

在规则尚未定型的阶段引入多方参与,有助于提前识别分歧和风险,也为制度的社会接受度奠定基础。对于医疗人工智能而言,公众信任往往直接影响技术应用的边界和节奏,公开征求意见在一定程度上增强了制度生成过程的透明度和可解释性。

三、监管议题上升的现实与制度背景

医疗人工智能监管之所以逐渐成为治理层面的重要议题,与其应用形态的变化密切相关。

在现实层面,人工智能已逐步进入公众健康管理和医疗服务流程。一些研究显示,部分公众已将基于人工智能的工具作为获取健康信息的重要渠道;在医疗机构内部,人工智能也被用于预约管理、筛查通知、诊疗记录整理,以及疾病筛查和辅助决策等多个环节。相关应用既包括承担特定任务的系统,也包括适用范围更广的通用模型。应用范围的扩大,使医疗人工智能不再只是局部工具,而可能对医疗服务效率、资源配置以及风险暴露方式产生更广泛影响。

在制度层面,现行监管体系仍主要围绕医疗器械建立,对具有医疗用途的人工智能工具进行规范,并辅以数据保护和信息安全要求。这一以产品为中心的监管方式在保障基本安全方面发挥了积极作用,但随着应用场景和功能边界不断拓展,其适用范围和实施方式逐渐显现出需要进一步讨论和完善的空间。

四、当前聚焦的主要问题

在现阶段,围绕医疗人工智能监管的讨论,并未集中于具体规则条款,而是逐步收敛到若干基础性议题,这些议题相互关联,共同构成监管体系演进过程中需要统筹考虑的关键方面。

首先,是监管框架的覆盖范围问题。随着应用形态日益多样化,既有以医疗器械为中心的监管体系,正在面对新的适配压力。部分工具在功能上具有医疗影响,但在使用方式和部署场景上并不完全符合传统产品监管逻辑,由此引发了对监管对象边界的持续讨论。

其次,是安全保障与效率提升之间的平衡问题。在确保患者安全和公众信任的前提下,监管安排如何既能发挥风险防控作用,又不对技术应用和服务效率形成过度约束,是制度设计中需要反复权衡的因素。

第三,是责任划分与问责机制的问题。在人工智能参与医疗服务和决策支持的情境下,开发主体、部署机构与医护人员之间的责任关系正变得更加复杂。通过制度安排提升责任链条的可解释性和可追溯性,被认为是维持临床判断主导地位的重要前提。

第四,是持续监测与动态评估机制的问题。与传统医疗产品相比,部分医疗人工智能系统在部署后仍可能发生性能变化,这使得上市后的安全监测和效果评估显得尤为重要。制度化的持续监测安排,有助于对相关风险进行动态管理。

最后,是数据使用与社会信任问题。医疗人工智能对数据的高度依赖,使数据的合法合规使用、共享安排以及透明度要求,成为监管讨论中不可回避的基础议题。数据治理水平不仅影响技术效果,也直接关系到公众对相关应用的接受程度。

五、一个正在展开的治理进程

总体来看,围绕医疗人工智能监管展开的这一系列制度性安排,并非一次性政策调整,而是一个逐步展开的治理进程。国家层面治理平台的设立、公开征求意见安排的引入,以及对监管适配性的系统讨论,共同勾勒出医疗人工智能治理正在发生的阶段性变化。

在相关技术和应用仍处于持续演进的背景下,这一治理进程本身值得持续关注。它不仅关系到医疗人工智能如何进入医疗体系,也关系到公共部门如何在不确定性环境中组织规则、分配责任并维持社会信任。

参考文献

1. Regulation of AI in Healthcare [EB/OL]. (2025-12-18) [2026-01-05].https://www.gov.uk/government/calls-for-evidence/regulation-of-ai-in-healthcare

2. Call for Evidence: National Commission into the Regulation of AI in Healthcare [EB/OL]. (2025-12-18) [2026-01-05].  https://www.gov.uk/government/calls-for-evidence/regulation-of-ai-in-healthcare

3. Summary - Information on how AI is used in Health and the Current Regulatory Frameworks[EB/OL]. (2025-12-18) [2026-01-05]. https://www.gov.uk/government/calls-for-evidence/regulation-of-ai-in-healthcare/summary-information-on-how-ai-is-used-in-health-and-the-current-regulatory-frameworks

4. Non-technical summary: Section 2 – Information on how AI is used in Health and the Current Regulatory Frameworks[EB/OL]. (2025-12-18) [2026-01-05]. https://www.gov.uk/government/calls-for-evidence/regulation-of-ai-in-healthcare/non-technical-summary-section-2-information-on-how-ai-is-used-in-health-and-the-current-regulatory-frameworks