首页 > 产业市场 > 即时新闻

“AI+医疗”应用边界引关注 专家建议全链条动态监管

2026-02-02 07:40 来源:经济参考报
查看余下全文
首页 > 产业市场 > 即时新闻

“AI+医疗”应用边界引关注 专家建议全链条动态监管

2026年02月02日 07:40 来源:经济参考报 □记者 李保金 邓婕 李思源
[字号 ]

近日,某知名医生“拒绝把AI引入所在医院电子病历系统”的表述,引发热议。“AI+医疗”的应用边界在哪?如何解决“AI+医疗”的风险与伦理之困?就这一话题,《经济参考报》记者对多位行业专家进行了采访。专家认为,“AI+医疗”的核心是“用其长、防其短”,要明确AI的“辅助”定位,绝非替代医疗从业者,同时加快补齐监管空白,搭建跨部门协同全链条动态监管机制。

“AI+医疗”应用边界引关注

“拒绝把AI引入所在医院电子病历系统”,其核心是反对年轻医生从实习阶段就系统性依赖AI,担忧年轻医生的临床思维训练受阻,甚至被AI结论误导。

百川智能创始人、CEO王小川直言:“医生和患者都认可患者利益优先的原则。AI发展非常迅猛,一些场景下‘AI+医生’已明显优于单一医生,符合医学科学规律。因为担心阻碍‘医生成长’而限制使用AI,可能就限制了最有利于病人的医疗措施。”

在王小川看来,如果AI能实质性帮助到患者,就不应该拒绝使用。换句话说,医生的成长,不能以当前患者为成本。至于对AI会导致年轻医生能力退化的担忧,解题的关键在于转换使用思路:医生不是在给AI纠错,而是让AI对医生的临床思维进行提醒,对诊疗结果进行校验,从而降低漏诊、误诊的风险。这样一来,患者受益的同时,医生也成长了。

业界认为,此番行业讨论的焦点集中于AI在医疗过程中的应用边界、人才培养、责任认定等核心问题上。

北京中医药大学卫生健康法治研究与创新转化中心主任邓勇在接受《经济参考报》记者采访时表示,争论的核心是医疗行业“安全优先”的本质属性与AI技术“快速迭代”的发展特性之间的适配矛盾——医疗直接关乎生命健康,容错率低,而AI存在算法黑箱、数据偏差等不确定性,各方对风险的容忍度不同。

邓勇认为,争议焦点主要集中在三个方面:一是价值导向问题,是优先保障医生能力培养,还是优先保障患者诊疗获益;二是角色定位问题,是将AI作为效率工具,还是需警惕其变相“主导”诊疗;三是风险管控问题,是先放开应用再完善规范,还是先建立规则再有序推广。

“对于‘AI+医疗’该用还是该防的讨论,其核心是‘用其长、防其短’,而非非此即彼。”首都医科大学附属北京安贞医院心脏超声医学中心主任何怡华说。

应明确AI“辅助而非替代”定位

近年来,随着技术的迭代,越来越多的AI产品落地医院临床场景,并从主流的医学影像辅助诊断,延伸至智能预问诊、随访管理、手术辅助、智能监护、心理服务等多元环节,且产品合规化与临床渗透率大幅提升。

根据中邮证券研报,截至2025年12月5日,累计已有207款人工智能医疗器械获三类医疗器械注册证。AI在生物制药、辅助诊断、医疗服务等领域步入成熟阶段。

2024年11月,国家卫健委、国家中医药局、国家疾控局联合印发的《卫生健康行业人工智能应用场景参考指引》,明确了4大领域13个细分板块共84个“AI+医疗”应用场景;2025年10月,国家卫健委等五部门再发《关于促进和规范“人工智能+医疗卫生”应用发展的实施意见》,锚定8大重点方向推进落地。

“‘AI+医疗’是医疗技术数字化升级的必然趋势,本质是用人工智能技术优化医疗服务流程、弥补医疗资源短板,绝非替代医疗从业者,而是医疗体系的重要补充。”邓勇说。

何怡华也认为,临床场景中,至少在目前的发展阶段来看,AI“辅助工具”的核心边界应该是“建议权而非决策权”,即AI可提供数据支持、诊断参考、风险预警,但最终的诊疗方案、治疗决策必须由医生结合患者具体病情、身体状况、个人意愿等综合判断后作出。

“避免过度依赖的关键在于建立‘医生主导、AI辅助’的使用机制”。何怡华表示,一方面,医院需针对不同场景、不同类型的Al产品,制定差异化使用规范与操作流程,要求医生对部分AI的输出结果进行复核,将AI建议作为强有力助手而非不假思考的“直接采信”;另一方面,在人才培养中,要强化临床思维和对疾病的认知推理能力培养,用好AI既可以获得知识,也可以辩证思考专家经验,更关键的是助力医生思辨能力的提升,让技术成为夯实专业根基、锤炼核心素养的助力。

中国医学科学院医学信息研究所医疗卫生法制研究室主任曹艳林建议,要避免医生对AI的过度依赖,可以从制度约束、认知提升、技术倒逼、流程把控、考核监督等多个维度构建“医生主动判断、AI辅助参考”的临床使用机制,让医生把AI当作工具而非依赖,最终回归以临床思维为核心、患者个体需求为导向的医疗本质。

“医院应制定AI使用规范,明确不能直接照搬AI的诊断、治疗建议;建立AI使用的‘追责与溯源机制’;还应加强AI产品设计的监测与规范,要求临床使用的AI产品不做定性判断,只做客观标注和信息整合。”曹艳林说。

“AI+医疗”风险与伦理之困待解

中邮证券在研报中预测,“AI+医疗”行业人工智能解决方案的全球市场规模预计将由2022年的137亿美元增至2030年的1553亿美元,复合增长率为35.5%;到2030年,中国市场有望达到168.3亿美元,行业存在爆发式增长机会。

但不容忽视的是,“AI+医疗”面临的商业化进程、道德伦理、监管风险等一系列深层次挑战仍然存在。

“AI医疗产品的核心风险点,集中在数据、算法、安全三大维度,且彼此关联、互相影响。”邓勇说,作为最基础的风险点,患者隐私信息等相关数据不仅存在因采集不规范、存储有漏洞、传输无加密而引发大规模泄露的隐患,还会陷入同质化严重与缺乏小众病数据的困境,直接局限了AI的诊疗边界。

此外,邓勇认为,算法相关风险是核心所在,数据偏差衍生的诊疗偏见会对特定人群造成医疗不公,而算法决策逻辑不可解释的“黑箱”问题,也让医生无法判断其结论的合理性,难以开展有效校验。

“性能稳定性则是最关键的风险点,AI诊疗能力高度依赖数据与算力,在复杂并发症、罕见病等非标准化临床场景中易出现性能波动,且若算法迭代后未充分验证便上线,还会大幅提升误诊、漏诊的医疗风险。”邓勇补充道。

在他看来,“AI+医疗”会引发新的医学伦理挑战。“首先,多数患者对AI诊疗逻辑不知情,医生若未明确告知诊疗中AI的参与度,会侵犯患者知情权,且患者缺乏是否接受AI辅助诊疗的选择权;其次,AI训练数据多源于优质医疗资源集中的地区,易对罕见病、小众人群、基层患者产生算法偏见,导致诊疗服务的不公平分配。”邓勇说。

此外,邓勇认为,“优质AI医疗产品多集中于头部机构,可能加剧‘强者愈强’的医疗资源分化,进一步拉大基层与三甲医院的服务差距;此外,过度依赖AI会弱化医患面对面的沟通与人文关怀,让医疗服务沦为‘数据+算法’的冰冷流程,背离医疗的人文本质。”

“从医学伦理角度来看,AI+医疗确实带来了新挑战:一是患者知情权问题;二是算法公平性,若训练数据存在偏差,可能导致AI对特定人群的诊断准确率不足,需持续优化数据多样性;三是医疗资源的分配,若AI产品价格过高,可能加剧优质医疗资源的‘数字鸿沟’,需推动AI技术普惠化。”何怡华认为,这些挑战并非不可解决,而是需要通过技术优化、制度规范逐步完善,不能因存在伦理问题就否定AI的价值。

完善全链条动态监管

“当前,我国的法律制度和监管规则已确立医疗机构和医生是责任主体,AI是辅助工具,并明确了‘安全优先’‘数据合规’的核心底线,能有效防范AI医疗的基础风险,但对AI医疗特有的算法‘黑箱’、持续迭代、责任链复杂等问题,缺乏精细化、动态化的管控机制。”曹艳林说。

在何怡华看来,面对快速迭代的技术与复杂的临床场景,监管方面仍需强化几个方面:一是产品上市前的测评和审核,目前多是针对单项Al技术产品的上市前审核,而对于医疗大模型的测评和监管尚存在欠缺;二是动态监管机制,AI算法在临床应用中会不断迭代优化,对上市后的算法更新、性能监测需持续监管;三是隐私保护的技术与制度衔接,医疗数据包含大量敏感信息,如何在保障Al训练数据需求的同时,杜绝隐私泄露,仍需更细化的操作规范。

“应加快补齐监管空白,尽快出台AI医疗责任界定、算法审查、全流程监测等专项规则;搭建跨部门协同监管平台,整合医疗、网信、工信等部门力量,实现从准入到退出的全链条动态监管;加强基层AI应用监管,出台适配基层的AI产品标准,避免优质AI资源过度集中。”邓勇说。

具体来看,邓勇建议,首先,按AI医疗产品的风险等级分类,对辅助影像筛查、报告录入等低风险产品,简化审批流程、鼓励试点应用;对辅助诊断、治疗方案建议等高风险产品,严格准入标准、强化全流程监测。

其次,管住核心风险点,一是建立算法备案与审查机制,要求企业披露算法基本逻辑与训练数据来源;二是明确责任划分规则,厘清各方在诊疗中的责任边界;三是搭建风险预警平台,实时监测AI临床应用中的异常数据。

此外,建立监管沙盒机制,对创新型AI医疗产品,划定特定区域、特定场景进行试点,允许在可控范围内探索;同时根据技术发展、应用反馈,及时优化监管规则,避免规则滞后于技术创新。

(责任编辑:刘芃)