李明:面对人工智能,中国肿瘤医生的担忧是什么?

发布时间:2024-08-07
浏览次数:

  人工智能技术在医疗领域已经得到实践,并积极探索新的领域,尤其在肿瘤领域展现出前所未有的潜力和前景。然而,面对日益广泛的AI产品的应用,肿瘤医生对AI的担忧是什么?持怎样的态度?这些担忧绝非杞人忧天,它们触及到医疗专业和伦理的问题。

  中国抗癌协会人工智能专业委员会于2023年进行了中国肿瘤医生对AI感知态度的课题研究,其中一项子课题是关于肿瘤医生对AI担忧的研究。研究结果发表在JMIR Form Res (https://pubmed.ncbi.nlm.nih.gov/38838307/)。

存在多重担忧

  全国范围内的228名肿瘤医生参与了在线问卷调研,研究发现医生们在拥抱AI技术的同时,也表达了对其在临床中AI应用的多种担忧。这些担忧不仅多样且深刻,其背后的因素对于推动AI在医疗领域的安全、有效实施具有不可忽视的影响。

  根据调研结果,担忧主要体现在以下方面:

  1.AI误导诊断与治疗的隐忧:高达71.49%的受访者表达了对AI可能误导诊断和治疗流程的深切忧虑。由于AI系统高度依赖训练数据,数据中的偏见会无形中传递给AI,进而引发错误的诊断或治疗建议。此外,AI的预测能力受限于其学习数据的完整性,不全面的数据如同盲人摸象,难以保证预测的准确性。更令人担忧的是,AI系统的复杂性和不透明性常常让医生难以透彻理解其背后的逻辑与结论,加之部分医生缺乏针对AI的充分培训,这可能会导致在实际应用中做出次优的决策。

  2.过度依赖AI的风险:71.05%的受访者警示了过度依赖AI可能带来的后果——医生自身的诊断与治疗能力或将逐渐退化。他们担心过度依赖AI可能会削弱医生通过长期教育、培训和实践积累的核心技能,导致医生对AI的决策产生盲目相信,进而忽视必要的审慎与判断力,这无疑对患者的安全构成了潜在威胁。类似完全信任地图导航,而失去自己的判断和认知。

  3.数据安全与患者隐私泄露的隐患:53.95%的受访者对数据安全和患者隐私保护问题表示了关注。随着AI系统在医疗领域的广泛应用,大量敏感的患者数据被收集和处理,这使得医疗系统成为了黑客攻击的高价值目标。一旦数据泄露,不仅可能引发身份盗窃、财务损失等严重后果,还会对医疗机构的声誉和患者信任造成不可估量的损害。值得注意的是,国外类似研究也普遍将这一问题视为首要顾虑,这或许反映了全球范围内对数据隐私保护的共同重视,同时也受到不同国家和地区文化认知差异的影响。

  4.数据与算法偏见的阴影:同样有53.95%的参与者指出了AI数据和算法偏见的存在及其严重后果。这些偏见如同潜藏在健康AI中的定时炸弹,可能导致诊断失误、治疗疏漏,甚至对患者造成不可逆转的负面影响。更令人担忧的是,这些偏见还可能加剧社会现有的不平等现象,使得某些群体在享受AI带来的医疗便利时面临更多障碍。

  5.法律法规滞后的挑战:半数受访者(50.44%)对AI在医疗领域应用时面临的法律法规滞后问题表示了担忧。他们指出,当前医疗AI相关的法律、法规和政策尚不完善,医疗责任界限模糊不清,这给医疗机构和医生带来了极大的不确定性。在快速发展的AI技术面前,如何及时制定并完善相关法律法规,确保医疗AI的合法、安全、有效应用,成为了亟待解决的问题。

  此外,39.47%的参与者对AI产品的“黑箱”特性也表达了一定程度的忧虑,这一现象与学术界和业界对更具可解释性和透明度AI模型的广泛呼吁不谋而合。专家认为,可信的AI应当赋予专业人员足够的能力,让他们能够自信地为其决策承担责任,这进一步凸显了发展可解释AI技术的重要性。为确保AI算法在临床应用中的安全性和有效性,必须对其分析和临床效果进行持续监测,并明确可解释性和因果关系作为监督的基石。专家们强调,只有凭借可解释性和因果关系的明确证据,他们才能更加负责任地履行自己的职责。

  同时,36.84%的受访者指出,AI在医疗护理中缺乏同理心,这一观点在AI伦理的讨论中屡见不鲜,凸显了人类情感在医疗过程中无法被技术轻易替代的独特价值。另外,商业模式的不明确(25.44%)、与现有工作流程整合的困难(16.67%),以及AI产品操作的复杂性(同样占比16.67%),也是受访者提及的显著问题。

  值得注意的是,仅有一小部分(3.07%)受访者认为AI在医疗应用中不存在任何风险,这种感知的多样性很可能源于受访者对AI技术的理解程度、知识储备以及实际接触经验的差异。

  在对影响医生对人工智能(AI)担忧的人口统计学和专业变量进行的细致分析中,研究发现性别差异在统计上并不显著。男性和女性医生对AI可能误导诊断和治疗的担忧比例相近,分别为71.85%和70.97%,而对过度依赖AI的担忧比例也相仿,分别为69.63%和73.12%。

  在教育水平方面,拥有本科学历的肿瘤医生对数据和算法偏见的担忧比例高于硕士和博士学位持有者(P=.034)。这可能是因为高等教育培养了个体对新兴技术如AI的接受度,通过提供知识、批判性思维能力、技术接触和学习信心,从而减少了对AI的担忧。此外,本科学历的肿瘤医生对法律法规政策滞后的担忧也更为显著(P=.046)。相比之下,临床工作10年以下的肿瘤医生对这一问题表现出较少的担忧,与拥有10年以上经验的医生相比(P=.047)。尽管在大学附属医院工作的医生与非教学医院的肿瘤医生相比,对AI商业模式问题表现出更大的担忧,但这种趋势并没有达到统计学上的显著性(P=.088)。

  特别值得注意的是,具有IT经验的医生——特别是那些参与过医院信息系统(HIS)、电子病历(EMR)等项目开发和实施的医生——在对过度依赖AI的担忧以及对AI可能降低同理心的担忧上,明显低于没有IT背景的同行(P=.017;P=.003)。这些数据揭示了医生的专业背景和经验在他们对AI的接受度和担忧上的影响,尽管某些趋势并未达到统计显著性。

推动AI在医疗领域健康应用

  研究进一步指出,IT经验在医生对AI的态度中扮演了重要角色。具备IT经验的肿瘤科医生由于对AI的能力和局限有更深刻的理解,因此在将AI技术融入其医疗实践中显得更加自信。而没有IT经验的医生可能因为对这项技术的不熟悉而感到担忧。这些发现强调了在医疗领域推广AI技术时,需要考虑到医生的不同背景和经验,并提供相应的教育和培训,以确保技术的有效和人性化的整合。

  在深入剖析影响医生对人工智能(AI)担忧的人口统计学与专业变量时,研究发现了一个引人关注的现象:性别差异的影响在其他众多研究中有统计学上的显著性。本研究未见此差异,具体而言,无论是男性医生还是女性医生均普遍担忧AI可能误导诊断与治疗;同样,在过度依赖AI的忧虑上,两者的比例也相近,分别为69.63%和73.12%。不过在国外其他专科医生研究中,显示了性别上的差异,可能与样本量有关。

  观察教育水平的影响,研究揭示了预期中的发现:相较于硕士及博士学位的同行,拥有本科学历的肿瘤医生对数据和算法偏见表现出更高的担忧比例(P=.034)。这或许归因于高等教育在增强个体对新兴技术接受度方面的作用,通过系统学习、批判性思维训练及技术实践的积累,高学历医生可能更加自信地面对AI带来的变革,从而减少了不必要的忧虑。此外,本科学历的肿瘤医生还显著更担心法律法规政策滞后的问题(P=.046),而临床工作经验超过十年的医生则对此类问题表现出更多忧虑,与经验较少的医生形成对比(P=.047)。

  尤为值得注意的是,那些具备IT经验,特别是参与过医院信息系统(HIS)、电子病历(EMR)等项目开发实施的医生,在担忧过度依赖AI及AI可能削弱同理心的问题上,比例显著低于无IT背景的医生(P=.017;P=.003)。这表明,对AI技术的深入理解与实践经验,不仅增强了医生对AI的信心,也促使他们更理性地看待其潜在影响。

  AI在肿瘤学领域展现出了极为广阔的应用前景,但要确保其顺利融入临床实践,有必要正视医生们的顾虑。这需集合政策制定者的引导、技术开发者的创新、医疗专业人员的实践智慧以及法律专家的专业意见,来共同推动。具体措施包括增强透明度、坚持以人为核心的设计理念、有效减少技术偏见,并对医疗工作者进行充分的AI知识普及,使他们既了解AI的巨大潜力,也认识到其局限性。这些努力对于促进AI在医疗行业的健康发展至关重要。

  需要指出的是本次关于AI在医疗应用中的调查问卷已经过严格的效度和信度验证,确保了数据的可靠性和问卷的质量。更令人期待的是,即将发布的II期调研结果,基于1122例更大样本量的数据,将为我们提供更为深入、全面的分析视角,帮助我们探索更多变量间的关联与影响,进一步推动AI在医疗领域的精准应用与持续优化。

  作者简介

  李明,博士,MBA,医学士,主治医师,研究员。主要研究领域数字健康,医疗人工智能,卫生政策。