医疗AI安全治理亟待强化 院士委员建言筑牢风险防控体系

(问题)随着智能技术影像识别、临床辅助决策、病历质控与随访管理等场景加快落地,医疗服务效率与质量提升的空间深入打开。但王建安指出,医疗天然具有高专业门槛与高风险特征,任何算法失准、数据泄露或系统被攻击,都可能从“影响诊疗质量”演变为“危及患者生命”。因此,智能医疗发展不能只看速度与规模,更要守住安全底线与伦理边界。 (原因)调研显示,当前智能医疗应用仍存在多类共性短板:其一,部分模型可解释性不足,决策路径难以被临床人员清晰复核,容易形成“只给结论、不讲依据”的应用方式,在急危重症、肿瘤等高风险环节推广受到制约。其二,数据安全与隐私保护压力显著上升,医疗数据维度多、敏感度高,跨机构流转与训练使用中若缺少分类分级与授权审计,存在被“重识别”及滥用的风险。其三,系统上线后的持续监测、版本管理和质量评估机制不健全,模型漂移、数据偏倚、适用人群变化等问题难以及时发现,形成监管盲区。其四,智能医疗系统正成为网络攻击的高价值目标,攻击者可能通过对抗样本、参数篡改等手段干扰输出,进而影响诊断与处置建议,安全风险呈现“技术化、隐蔽化、链条化”趋势。 (影响)业内普遍认为,智能医疗蕴含巨大增量空间。权威机构预测,全球智能医疗市场在2030年前后有望达到约3万亿元规模,年复合增长率保持在30%以上。王建安认为,我国以公立医院为主体的医疗服务体系在组织动员、临床数据规模、专科体系建设等具备比较优势,单点应用基础较好,若安全治理与制度供给同步跟进,有望在国际竞争中实现从“跟跑”到“并跑”“领跑”的跃升。反之,一旦安全事件频发,不仅可能伤害患者权益、削弱医患信任,也会抬升行业合规成本、拖慢创新转化步伐,甚至对公共卫生治理形成新的隐患。 (对策)针对“可用、好用、更要安全可靠”目标,王建安提出,应加快建立覆盖准入、运行、迭代与退出的系统性安全保障框架。第一,推动形成强制性、可落地的安全可追溯标准,将“可解释性、可追溯性、可审核性”作为高风险智能医疗产品进入临床场景的核心门槛,明确责任主体与证据链要求,做到结论可复核、过程可回放、问题可定位。第二,强化医疗数据全链条治理,完善数据分类分级管理、授权使用与审计追责机制,在保证科研与临床应用的同时,降低隐私泄露与滥用风险;积极推广“数据可用不可见”的技术路径,通过联邦学习、差分隐私等方式提升合规共享与协同建模能力。第三,构建全生命周期安全监管体系,完善上线后的持续监测与风险预警,建立模型更新备案、版本管理与效果复评制度,把“上线即结束”转变为“上线才开始”。第四,提升网络与系统防护等级,将关键智能医疗系统纳入重点保护范围,强化攻防演练、漏洞管理和应急处置,形成从技术、管理到制度的多重防线。 (前景)王建安强调,智能医疗的价值最终要回到“以患者为中心”。未来一段时期,随着诊疗场景进一步细分、支付与评价机制逐步完善、医疗资源跨区域协同增强,智能技术将在分级诊疗、慢病管理与基层能力提升上释放更大潜力。但他也提醒,越是深入临床核心环节,越要坚持安全优先、循证验证与伦理审查并重,通过标准化、可审计与可追责机制,推动技术创新在可控边界内稳步前行。

医疗人工智能的发展前景令人期待,但安全保障同样紧迫关键;王建安委员的建议抓住了医疗人工智能应用中的关键问题,提出了务实有效的解决路径。在推进技术创新的同时,加强制度建设、完善监管体系,这是确保医疗人工智能朝着正确方向发展的必然选择。只有将安全保障作为医疗人工智能高质量发展的底座,让创新在有序、可控的框架内进行,才能真正实现技术进步与患者福祉的统一,推动我国卫生健康事业实现更高质量的发展。