李明:AI推荐很“美丽”,医疗现实很骨感

发布时间:2026-01-23
浏览次数:

在近期开展的一项大语言模型应用评估的课题研究双盲评审结果揭晓后,笔者发现人工智能与临床医生之间的诊疗决策差异明显大于事前预期。于是,笔者进一步与多位临床医生进行了深入交流,试图探究其背后的原因。

开始,笔者理所当然的认为,基于指南和循证证据生成AI“最优治疗方案”应该积极为医生考虑,而且许多研究表明医疗AI工具在临床诊疗过程特定任务中,其准确性已能达到甚至超越人类医生水平。然而,在真实的临床实践中,医生有时并不会、也不可能完全依照人工智能所推荐的所谓“最佳方案”为患者进行治疗。这种偏离并非源于医生对指南或证据的忽视,而是因为临床决策本身所固有的复杂性、多维性与现实约束性。

临床决策的选择:不是算法问题,而是价值权衡

医生表示,临床治疗决策从来不是一个单纯的“最优解”问题,而是在多种因素考量下的权衡。患者的治疗偏好、对疗效与生活质量的考量、对不良反应的可接受程度、既往治疗经历以及心理预期,都会深刻影响最终的治疗选择。尤其在肿瘤患者治疗过程中,在面对毒性较高但潜在获益更大的方案时,一些患者可能更倾向于保守治疗,而另一些患者则愿意承担更高风险以换取延长生存的可能性。这类高度个体化、价值导向的因素,往往难以被标准化建模,更难以在基于指南的人工智能系统中得到充分体现。

医生也明确指出患者的合并症与整体健康状况构成了临床决策的重要约束。许多指南中的“推荐方案”是在严格入组标准的临床试验人群中得出的,而且排除了很多不符合遴选条件的患者,而真实世界的患者往往合并症更多、多器官功能不全,并非完美的“标准化”患者。临床医生在决策时,必须综合评估患者的耐受性、潜在风险以及治疗后果的不可逆性。因此,看似“偏离指南”的选择,在具体临床情境中往往是更加安全、更加符合患者整体利益的理性决策。

指南之外的现实约束:可及性与支付能力

更重要的是,医生的治疗决策还受到一系列在基于指南或评分体系中难以显性呈现的结构性因素的制约。这些因素包括药物在当地是否可获得、是否纳入医保报销目录、患者及其家庭的经济承受能力,以及不同医疗系统之间在资源配置上的差异。在许多情况下,指南推荐的“最佳方案”在现实中并不可及,或会给患者带来难以承受的经济负担。临床医生因此不得不在疗效、毒性、可及性和可负担性之间寻找一种现实可行的平衡点。当年IBM Watson肿瘤解决方案在中国实施被诟病“水土不服”就是这样一种情况,医生说,Watson方案挺不错,但是用不了。

再者,现有证据本身也具有明显的历史情境性。临床决策并非发生在一个静态的、以最新指南为唯一参照的时间点上,而是在一个不断更新的医学知识体系中逐步展开。许多晚期肿瘤患者的治疗过程跨越数年,期间药物选择、组学研究和循证证据持续更新。医生在当时所做出的决策,是基于当下可获得的药物、证据和临床经验,而非事后回顾时所看到的“最优路径”。相比之下,人工智能系统通常基于当前时点的综合证据生成建议,这种时间维度上的不对称,进一步放大了“人工智能——临床医生”之间的表观差异。

在晚期疾病情境中,这种差距尤为显著。诸如抗体-药物偶联物(ADC)或PARP抑制剂等新型疗法,其可及性高度依赖于医疗体系能力、保险政策以及患者的经济状况。临床医生在真实决策中,往往优先选择那些在可实施性、毒性控制和经济可负担性之间取得相对平衡的方案,而人工智能生成的建议则更倾向于反映最新、最前沿的循证选项,却难以充分考虑这些现实世界的限制条件。

信息滞后的现实:AI始终在追赶医学动态

在医生沟通过程中,他们也提到了所谓的“信息滞后”问题。尽管人工智能依赖于指南和同行评审文献,但医学前沿知识的产生往往先于正式发表。大量关键研究结果最早出现在ASCO(美国临床肿瘤学会)、ESMO(欧洲肿瘤内科学会)或CSCO(中国临床肿瘤学会)等重要学术会议上,甚至仍处于临床研究阶段,尚未形成成熟的指南推荐。这使得人工智能系统在某些情境下更像是一个“静态的知识整合器”,而非对医学实践前沿具有实时感知能力的决策主体。

因此,人工智能与临床医生之间的差异,不应简单被理解为“性能优劣”的体现,而应被视为两种本质上不同的决策框架之间的差异。人工智能追求的是在理想条件下、基于现有证据的理论最优解;而临床医生所面对的,则是一个充满不确定性、资源约束与人类价值判断的现实世界。使用AI工具的时候,只是冰冷的数据输入,提出问题,AI给出回答。在实际中,医生与患者或家属进行的是持续的多轮次交互交流,患者也积极参与治疗方案的选择。患者面对的是熟悉的“李医生”“张护士”,医师面对的有血有肉的实体患者,提出的诊疗意见是基于全方位考虑。在这一意义上,所谓的“偏离最优”,恰恰是临床决策理性与人文性的体现。

从这一视角出发,未来人工智能在临床中的角色,或许不应被定位为“最优决策者”,而应被视为一种能够辅助医生理解证据边界、识别潜在选项,并在现实约束下支持个体化决策的工具。只有承认并尊重这种决策框架的根本差异,人工智能与人类临床医生之间的协同,才能真正实现。我们要清楚医疗的核心是患者福祉,而非算法完美。

参考文献:

1.Pálfi B, Arora K,Kostopoulou O. Algorithm-based advice taking and clinical judgement: Impact ofadvice distance and algorithm information. Cogn Res Princ Implic. 2022;7(1):70.doi:10.1186/s41235-022-00421-6

2.Corrao S, Argano C. Rethinking clinicaldecision-making to improve clinical rea‐soning. Front Med. 2022;9:900543.doi:10.3389/fmed.2022.900543

3.Singhal K, Azizi S, Tu T,et al. Large language models encode clinical knowledge. arXiv. Preprint posted online December 26, 2022. doi:10.48550/arXiv.2212.13138

4.Di Maio M, Perrone F, Conte P. Real-world evidence in oncology: Opportunities and limitations. The Oncologist. 2020;25(5):e746-e752. doi:10.1634/theoncologist.2019-0647

5.Otte I, Salloch S, Reinacher-Schick A, Vollmann J. Treatment recommendations within the leeway of clinical guidelines: A qualitative interview study on oncol‐ogists’ clinical deliberation. BMC Cancer. 2017;17(1):780. doi:10.1186/s12885-017-3783-

作者简介

李明,博士,MBA,医学士,主治医师,研究员。主要研究领域数字健康,医疗人工智能,卫生政策。