AI医疗机器人临床应用法律风险及其应对策略
随着人工智能(artificial intelligence,AI)技术不断迭代更新,“AI+医疗”正在迅速发展。国家工信部印发的《人形机器人创新发展指导意见》中提出加速“拓展人形机器人在医疗等领域的服务应用,重点提升人机交互可靠性和安全性”等要求,为AI医疗机器人的创新发展和应用提供政策指引。近年来,AI医疗机器人如手术机器人、康复机器人、诊断机器人等广泛被应用于临床诊疗中,实现新一轮科技革命在智慧医疗中的蓬勃发展,为社会医疗体系带来全新的创新驱动力。然而,盲目的科技发展所带来的一系列制度隐忧容易引发患者不信任甚至排斥心理,因此必须重视科技带来的负面影响。医疗人工智能技术不断发展和AI医疗机器人逐渐临床应用的同时,对法律制度和伦理规范也带来不小的挑战。
1 AI医疗机器人临床应用现状
1.1 AI医疗手术机器人
手术机器人在医疗领域的应用灵感由来已久,第一台手术机器人的临床应用可以追溯到20世纪80年代,关节臂式工业机器人被临床应用于执行神经外科活检手术临床试验。手术机器人采用多模态智能感知和远程人机协同技术可以实现在手术过程中高精度控制,很大程度提高了手术的治疗效果,经过严格培训的医生可通过手术机器人的远程操控台和5G成像系统实现人机协同治疗,可以高质量完成更复杂的手术。随着外科手术复杂程度的提高以及患者对高精度、低损伤、舒适化的诊疗需求提高,依赖医生手、眼的传统手术面临难以克服的瓶颈。凭借人工智能技术,AI医疗手术机器人能够突破医生观察和操作的生理极限。其优势主要在三点:第一,手术机器人可以作为手术的高精、减压、稳定的优质助手。3D影像技术可以10~30倍放大手术部位并实现误差限缩在毫米级的精准定位,很大程度减少医生体力消耗和因疲劳带来的手部震颤。第二,手术机器人参与手术相较于传统开放性外科手术具有微创的优势。创口在1~2 cm(传统手术创口一般为10~20 cm),出血量降低95%以上,患者恢复时间更快。第三,手术机器人有助于破解医疗资源不平衡、不充分的难题。手术机器人的参与能实现医生远程操控手术并且减少更多医务人员参与,医生通过5G信号实时传输的三维立体成像并操纵手术机器人机械臂就能够实现跨越距离的手术。
1.2 AI医疗康复机器人
康复机器人又称为护理机器人,是将康复或护理工作与传统的机器人相结合,通过功能代偿和辅助患者康复训练等方式实现残障人士、术后部分功能障碍人士、老年人群体生理功能的替代或恢复,通过不同场景下与患者的人机交互实现生理功能的恢复、补偿或替代,不仅能够对因中风、创伤性脑损伤等原因造成的运动障碍进行功能性恢复,还能够帮助自闭症、多动症等认知功能障碍患者恢复。凭借人工智能技术,AI医疗康复机器人能够随时监测患者的训练数据,通过即时数据反馈并分析,及时提高患者的训练强度和效率,帮助患者尽早恢复正常生活参与能力。其优势主要在于三点:第一,康复机器人结合人工智能技术实现人机交互的主动柔顺性控制。通过高精度的力传感器进行数据反馈,可以敏锐检测力的变化,同时通过摩擦补偿,重力补偿,惯量识别等一系列的算法模型,能实时动态检测患者的运动意图,给予合适的助力。第二,康复机器人结合生物力学分析技术实现患者康复训练过程中的活动自由。康复机器人能够提供符合人体生理特征的步态训练,采取生物反馈功能以及动态减重(Levi)和骨盆控制(FreeD)系统可以让设备在保证四肢自由活动的同时实现骨盆自由转动。第三,AI医疗康复机器人更有助于普惠医疗的实现。康复机器人采取超声波检测技术和数据反馈功能实时掌握患者膀胱内尿量变化以及预测排泄时间,能够有效维护患者个人尊严和减轻陪护者的压力。
1.3 AI医疗诊断机器人
诊断机器人可以分为预问诊机器人和辅助诊断机器人。所谓预问诊机器人,是指利用语音识别、自然语言处理技术将患者对自己病症的描述与标准医学知识库进行比对,从而完成患者导诊、问诊等服务。所谓辅助诊断机器人,是指利用人工智能技术如AI影像技术辅助诊断,帮助医生进行如癌症、心脏病等疾病的临床诊断,提高病症判断的准确率。随着算法、算力和数据能力的提升,生成式AI在传统AI基础上以更革新的技术、场景化应用的形式,赋能患者从诊疗到愈后管理的完整链路。第一,在症状感知阶段,生成式AI通过深度学习和神经网络提供医学知识内容呈现和智慧问答,为患者提供初步的个性化诊断服务。第二,在疾病诊疗阶段,生成式AI对医学图像(B超、CT、MRI图像等)进行分析,其识别准确率不断提升,结合人工智能分析系统提供生命体征分析结果,提升疾病诊断的效率和准确度。第三,在疾病复诊阶段,生成式AI可以对患者生命体征数据和病情变化情况做出分析和预警,帮助医生及时发现异常情况并采取应对措施,并且生成式AI能够精准确定患者所需药物并进行配给。第四,在康复保养阶段,生成式AI可以提供个性化的愈后健康知识内容和愈后健康管理计划。
2 AI医疗机器人临床应用法律风险
2.1 AI对医生自主地位的消解
在传统医疗领域,医生与患者在治疗决策的过程中进行合作,最终仍以医生决策为最终依据,尊重医生的独立地位和知识经验,由医生主导整个诊疗活动。但随着人工智能技术在医疗领域的应用以及算法技术的不断完善,AI医疗机器人能够逐步替代医生做出一些诊断和治疗决策。从问诊、导诊、检测、手术、康复、放疗等阶段都有AI医疗机器人的参与,医生的自主地位受到影响。
2.1.1 医生在医疗过程中的决策地位降低。人与机器之间的关系永远是主客体的关系,机器的使用本质上是为了辅助人类更好地进行社会性劳动。然而,随着AI医疗技术临床应用的逐渐广泛和深入,医务人员对AI医疗机器人的依赖程度也在不断加深,容易产生医疗机械化的现象。AI医疗技术通过算法技术可以轻松地绕过传统的医学伦理审查和规范强制,并且通过其强大的诊断效率和精准的数据反馈能力逐步让医务人员让渡自己对医疗活动的主动控制权。随着AI医疗技术愈来愈普及化,医务人员在诊疗的过程之中更多地选择参考AI的治疗方案,尤其是在医疗资源相对紧缺、诊疗压力大以及新手医务人员缺乏全面的临床诊疗经验的情况下,最终会导致医务人员的自主决策空间不断被AI医疗机器人挤占,医生在医疗过程中的决策地位不断降低。
2.1.2 AI医疗机器人法律地位定性模糊。AI医疗技术的飞速发展正在倒逼学界对其法律人格制度的重新研判,对AI医疗机器人的法律地位重新给出定义。同时,捋清AI医疗机器人法律地位也是解决AI医疗事故中责任问题的先决条件。目前,国内外对于AI医疗机器人法律地位的学说主要有拟制人格说、有限人格说、动物说以及工具说几类。拟制人格说、有限人格说预设了AI医疗机器人具备了自主意识,倾向于认为其具备“人”的属性,即具备法律主体地位,能够独立承担法律责任。但认可该观点的几个国家在肯定AI主体地位的基础上,却要求所有者或管理者承担法律责任,这显然与赋予AI法律主体地位的观点背道而驰。动物说认为AI甚至具备如同自然人一般的地位,具备法律主体地位是应有之义,这一解释显然无法解释“智能化”的问题。工具说是目前最为主流的学说,该学说认为AI仅仅只是人类完成某一领域任务或达到实现某一目的的辅助工具,是以“物”的地位而存在,因此自然不具备法律上的主体地位,当然也无法独立承担法律责任。但学术上的观点争议导致实践中的医疗事故责任判定标准不一,必须从法律上对AI医疗机器人的主体地位进行清晰界定。
2.2 AI医疗事故中责任问题
随着AI医疗机器人在手术、治疗、诊断等临床应用中呈现逐渐扩大和深入的趋势,AI医疗侵权案件量也不断上升。据统计,美国外科手术机器人仅在13年间,就造成了1391起医疗事故,导致144位患者死亡。国内AI医疗事故也是纠纷不断,以“医疗损害”“机器人”为检索关键词在中国裁判文书网中进行搜索,共计66份裁判文书。但上述数据对该类案件仅是管窥蠡测,AI医疗事故复杂性高,较多案件和解结案未能成诉,且裁判文书网收录判决书数量有限,AI医疗侵权案件量应比上述数据更加庞大。总体而言,AI医疗机器人所带来的法律风险主要有以下几方面。
2.2.1 侵权责任类型模糊。现阶段认定AI医疗机器人致人损害的法律责任主要采取“人-物”二分法,即认为当下人工智能仅仅是工具地位,不存在匹配人类智慧的独立主体意识,对致人损害的侵权后果不具备“辨认能力”和“控制能力”,因此要求AI医疗机器人承担侵权责任主体不具备合理性。基于此,当下对AI医疗机器人侵权责任仍沿用传统的过错责任与严格责任为核心的二元问责制。在一般医疗场景下,AI医疗机器人临床应用造成的医疗事故应当适用一般医疗侵权责任,但目前国内也有学者认为因AI医疗机器人本身缺陷造成的医疗事故也可以适用产品责任。根据我国《医疗器械监督管理条例》规定,计算机软件也可以归类于医疗器械的范畴,那么基于计算机软件为核心的AI医疗机器人同样也属于医疗器械,因此AI医疗机器人在临床应用中因产品缺陷造成医疗事故,也有了适用产品责任的解释空间。基于此,AI医疗机器人临床应用所产生的侵权既可能适用一般医疗侵权责任,也可以适用产品责任。现实中人工智能医疗案件往往错综复杂,事故往往是多个行为共同促成,责任主体也呈多元化趋势,导致司法实践中侵权责任类型认定不明确,无法确定责任主体的义务范畴。
2.2.2 责任主体难以追溯。AI医疗机器人临床应用所产生的医疗事故可能引发医疗侵权责任,也可能引发产品侵权责任,因此需要从两个角度对责任主体的追溯进行阐释。从医疗侵权责任角度出发,医疗机构及其医务人员是事故发生的唯一控制者,医务人员误诊或误操作是医疗事故引发的主要原因,法律仅需要通过过错原则就可以确定医疗事故的责任主体。但当医生自主决策转变为“人-机”混合决策时,AI医疗机器人的使用者、管理者多方主体介入决策过程,法律便需要在多方主体参与决策和算法复杂特质的共同影响下对何种主体承担侵权责任做出判断。从产品责任角度出发,我国《民法典》规定医疗器械的主要责任主体为生产者或销售者,而将AI医疗机器人设计者的责任没有进行明确,是司法实践中追责困难的重要原因。事实上,AI医疗机器人与普通医疗器械相比有很大不同:第一,AI医疗机器人的机械结构和程序设计更为复杂,增加了医患双方对其认知难度,导致在法律和事实两个层面认定侵权责任困难。第二,AI医疗机器人具备自主做出决策和深度学习的能力,这导致事故责任主体的认定和事故发生原因的查明难度增大。第三,AI医疗机器人在临床应用的过程中会直接深入人体或实施切割、缝合等对人体组织有重大影响的操作,一旦发生医疗事故直接危害患者健康。这些特点都体现AI医疗机器人设计者在其中的重要作用。此外,导致AI医疗机器人发生医疗事故的原因大都是因为自主决策的失误而非产品本身的缺陷。因生产者仅对外部机械结构的缺陷负责,而法律规定并未对设计者的侵权责任进行明确,导致AI医疗侵权案件中因算法程序缺陷引发的医疗事故责任往往难以追究。
2.2.3 因果关系难以认定。AI医疗侵权案件的发生往往是多因一果、多因多果的过程,再加上“人-机”混合决策的复杂性,加剧了因果关系认定的难度。第一,算法本身具有“技术歧视”风险,该风险主要来源于数据缺乏代表性和算法偏见两个方面。一方面,AI医疗机器人会在临床应用前通过输入和采集大量医学数据和实践案例进行深度学习,此时若收录的数据不够全面和准确就会导致算法决策准确性大打折扣。另一方面,算法程序的开发者可能会将主观偏好编入程序中或疏忽某些重要的指标,这都会对算法决策的公平性产生影响,造成结果偏差,并且算法程序并不会自主排除歧视,反而倾向于将歧视固化甚至放大,使歧视长存于算法决策中。第二,算法本身具有“黑箱”属性,又称为“不透明性”,即算法复杂且快速的计算过程导致医患二者均无法感知和理解决策做出的过程和结果。AI医疗机器人可捕捉到人类无法察觉到的微小数据变化,但这也让其产生难以检测的偏见,并且这些看似微小的偏见会在决策过程中不断被放大,使部分患者受到歧视性对待,甚至最终导致医疗事故的发生。第三,算法本身具有“自主学习”的能力,这就意味着AI医疗机器人可以自主对一些临床操作判断做出一些决策。可见,当AI医疗机器人决策失误导致医疗事故时,由于算法固有的特性导致患者在举证过程中证明医务人员与事故发生具有因果关系更加困难。
2.3 AI医疗中数据安全问题
AI医疗训练中需要大量的数据进行喂养,尤其是凭借患者运动数据反馈并分析计算的AI康复机器人和凭借患者数据信息反馈做出决策的AI诊断机器人。医疗大数据是其临床应用的基础,其中包含大量的患者个人信息,如患者的年龄、身高、通讯地址等身份信息、以往的身体健康状况及通过基因检测得出的基因信息等基本信息,还包含对于患者个人敏感度极高的负面医疗敏感信息,如遗传疾病、传染病等可以导致个人在学习、就业、保险等方面受到歧视的信息。我国《宪法》《民法典》等法律均规定医务人员对患者的医疗数据都负有保密义务,如果不存在正当化事由导致信息泄露就需要承担民事责任、行政责任甚至在情节严重的情况下还需要承担刑事责任。
2.3.1 AI康复机器人应用下的数据安全问题。AI康复机器人预先储存医学相关信息,通过自主深度学习掌握基本的临床医学知识,然后再应用到诊疗活动中。大量的临床康复数据和算法程序是AI康复医学领域应用的基础,通过不断地诊疗训练和数据反馈并依据算法自动调整改进,从而实现患者康复过程的精准高效。目前,大部分的康复医疗采用运动疗法、作业疗法和言语疗法,对康复诊疗所达到的实际效果偏于主观,更多的是取决于康复师和治疗师的经验和专业能力。因此在康复过程中很难对患者肢体的恢复程度和功能的客观变化有明确的标准,但AI康复机器人能够凭借精准的数据收集和反馈形成一个标准化、准确化的康复治疗体系,这也导致医疗临床应用过程中康复师和治疗师对其的依赖。AI康复机器人不仅能为患者提供一个准确的肢体功能评估,及时调整康复计划促进患肢恢复,还可以在临床康复治疗的过程中从视觉、听觉等各方面实现人机交互,从而提高康复治疗的效果。AI康复机器人无时无刻将患者的身体功能数据进行记录和反馈,该数据对于患者来说尤为重要,尤其是涉及患者手术内容、生理和心理健康情况、身体健康程度、患肢恢复状况等敏感个人信息。但AI康复机器人的保密性仍然令人担忧,毕竟所存储的信息任何人均可以调取,即便是采取了加密技术也不能完全阻止黑客的窃取。摒弃对患者个人数据的保护,全力发展医疗人工智能技术或追求个人数据的全面保护都不可取,必须在二者之间找到平衡点。
2.3.2 AI诊断机器人应用下的数据安全问题。AI诊断机器人分为AI预问诊机器人和辅助诊断机器人。在AI预问诊的应用场景下,所获取的数据主要有2类:第一类是通过从患者提出的问题中提取关键词所获取的信息,患者的问询过程之中为了提高问诊的准确性,不可避免尽量详细描述病情,此时许多涉及患者身心健康的信息内容便会被AI捕捉。第二类是通过对患者提供的病情进行分析得出结论,所得出的结论也会成为数据进行存储。算法是通过不断训练和学习提高决策的准确性,因此每次问诊所得出的结论也会被存储起来。在AI辅助诊断的应用场景下,所获取的数据主要有4类:第一类是医学影像设备产生的医学图像数据,如X射线、CT、MRI等图像。第二类是医用电子设备产生的生理参数数据,如心电、脑电、血压等波形数据。第三类是体外诊断设备产生的体外诊断数据,如病理图像、显微图像等。第四类是特殊情形下的通用设备产生的用于医疗用途的客观数据,如数码相机拍摄的用于皮肤疾病诊断的皮肤照片、健康电子产品采集的用于心脏疾病预警的心电数据等。这些数据存储着对患者来说均属于私密的敏感信息,如果存储和处理不当,很容易会引起医疗数据泄露和滥用的后果。
3 AI医疗机器人临床应用法律对策
3.1 明定AI医疗机器人法律地位
鉴于AI医疗机器人固有的“技术黑箱”和“技术歧视”特性极易导致算法程序决策错误引发医疗事故发生的风险,必须坚持人类中心主义,避免医疗决策的空心化。在具体的做法上,维护医务人员医疗主体基本权利,实现医务人员在诊疗过程中的决策地位,同时也要明确AI医疗机器人的客体地位,使其回归工具属性,打破医务人员对其过度依赖的心理。
3.1.1 维护医务人员诊疗中的自主地位。坚持人类中心主义的人工智能法治运行原则是法律正义价值在数字领域的体现,也是数字正义的基本内容。然而,算法程序以效率为导向,决策本身具有内生性风险,非常容易与数字正义相向而行。为了维护关乎民生的医疗领域正义,必须遵循数字正义下科技向善原则,重新实现医务人员医疗决策的主导权。一方面,在AI医疗机器人算法程序编写的过程中介入积极的价值导向的人为干预。通过“自上而下”的一般性医疗伦理法则指导和约束机器人决策的治理范式,也即将基本的医疗伦理通过编程的方式输入到程序之中,便可以达到医疗数据来源的合法、准确、科学以及数据的普遍适用和系统全面,实现模型训练的数据正义。另一方面,在AI医疗机器人算法训练过程中输入指导性案例以形成系统性价值观。通过“自上而下”的案例训练让AI医疗机器人理解医疗道德与伦理,也即场景化案例学习让AI模拟人类的道德行为,从而获得普遍的道德以此规范未来的决策。
3.1.2 明确AI医疗机器人客体地位。目前而言我国并未对AI的法律地位做出明确的规定。从外观而言,AI医疗机器人是具有物理形态的医疗工具,仍属于医疗器械的范畴。从内在而言,AI医疗机器人是通过算法程序提供决策的系统。该系统虽然有数据训练、自主学习的能力,但仍旧是由人类设计并控制,并没有做到脱离人类存在完全自主独立从事诊疗活动。从目前AI医疗机器人发展阶段来看,虽然其具有强大的学习能力,但仍不具备像人一样思考的自主意识。在当下诊疗活动中,做出最终诊疗结论以及下达指令的仍应当是医务人员。因此,AI医疗机器人不应当具备独立的法律主体地位,仍属于法律客体的范畴,是辅助医务人员进行诊疗活动的医疗器械,在算法程序运行的各个阶段都必须有医务人员的指导和控制。在事前防范阶段,医务人员必须尽到AI医疗机器人投入临床应用的审查义务。在事中监管阶段,AI医疗机器人的设计者应当事先将关乎生命健康的重大算法参数进行报备,便于划分责任主体。在事后问责阶段,分类构建医疗领域的算法问责机制,即在区分AI医疗机器人产品侵权还是医疗侵权的基础上,判定到底追究哪一方责任。
3.2 明晰AI医疗事故中法律责任
在明确AI医疗机器人的法律客体地位后,应当尽快对其侵权责任问题遵循“最小化原则”和“程序化原则”加以解决。“最小化原则”是指在最小程度影响现行法律制度的前提下尽可能通过法律解释的方式解决AI医疗机器人的侵权责任问题,“程序化原则”是指尽可能对现行法律制度进行程序上的技术改造。针对当前AI医疗机器人侵权现状,宜以一般医疗侵权责任和产品责任为基础,通过最小化和程序化的改造,明确不同侵权场景下的侵权责任规则适用。
3.2.1 明确侵权责任类型。明确侵权责任类型的重点在于区分不同侵权场景下具体是适用一般医疗侵权责任规则还是产品责任规则的问题。在一般医疗侵权责任规则下,由医疗机构承担医务人员在诊疗活动中使用AI医疗机器人因过错导致损害而产生的损害赔偿责任。在产品责任规则下,由AI医疗机器人的生产者或设计者承担因产品缺陷导致损害而产生的损害赔偿责任。可见,区分二者的关键之处在于损害发生的原因来源于医疗操作不当还是产品本身缺陷,那么明晰损害原因产生类型即可解决这一关键问题。
就医疗操作不当而言,主要包含3方面:第一,技术组织不当,如医务人员向AI医疗机器人下达错误指令,包括输入错误的数据、强行干预决策过程、误操作导致系统紊乱,以及医疗机构未组织医务人员充分培训或开展有效的考核工作;第二,伦理组织不当,医务人员并未向患者及其家属释明AI医疗机器人参与诊疗的必要性、潜在风险以及可能存在的技术偏见;第三,管理组织不当,医疗机构对AI医疗机器人没有定期进行保养和检修,未对AI医疗机器人“黑匣子”尽到保管义务或无正当理由拒绝患者及其家属的查询申请,没有尽到后勤管理保障义务,导致防火墙虚化或备用电路不稳定等原因造成医疗事故。
就产品本身缺陷而言,主要包含3方面:第一,制造缺陷,即AI医疗机器人在生产过程中外观、材料、零部件等存在物理缺陷,导致其部分功能无法发挥正常功效;第二,设计缺陷,即AI医疗机器人在生产过程中所编入的算法程序存在缺陷,导致其判断出现重大错误;第三,警示说明缺陷,即AI医疗机器人算法程序的歧视程度、误差率、禁止操作行为等信息没有在明显的位置标明或通过合理的途径让使用者获悉的情形。此外,当一次医疗事故是由于医疗操作不当和产品本身缺陷共同造成的时候,则应根据原因力大小确定损害赔偿责任的大小。
3.2.2 明确侵权责任主体。由于AI医疗事故涉及多个侵权责任规则的适用以及多方利益主体,因此在明确侵权责任类型后还需要在此基础上进一步明确侵权责任的主体。从一般医疗侵权责任规则出发,侵权责任主体主要有医疗机构及其医务人员。在民事侵权责任上,医疗机构承担替代责任,即医疗机构应当对患者在诊疗过程中受到的损害承担赔偿责任,无论这个主观过错是来源于医疗机构还是医务人员。在刑事侵权责任上,医务人员在诊疗活动中严重不负责造成患者死亡或严重损害健康的,承担刑事责任。在AI诊断领域,AI手术机器人与辅助诊疗机器人均不具备法律主体地位,因AI诊断错误引发医疗事故的,首先要追究医务人员的过失责任,即便是AI手术机器人通过预设的程序和提前输入的指令自主做出的决策,医务人员也要承担监管义务。在AI康复领域,医务人员因未掌握操作技能造成的医疗事故,或未按说明要求进行的操作造成患者损害的,同样要承担侵权责任。
从产品侵权责任规则出发,侵权责任主体主要有生产者、销售者以及仓储者和运输者等第三方。生产者、销售者显然是主要的侵权责任主体,但仍有区别,二者均可能承担中间责任或最终责任主体,但销售者承担最终责任主体主观必须有过错,仓储者和运输者则是被追偿的对象。如前所述,AI医疗机器人算法程序设计者的地位十分重要,由于医疗领域极高的专业性使得设计者往往与生产者相分离,生产者负责外部机械结构的设计和制造,设计者负责为内核系统程序进行编写,二者分别负责完成相对独立的工作,因此其责任也不应混为一谈。AI医疗机器人的核心技术是内在的算法程序,而设计者更是程序生成的关键主体,也不应与仓储者和运输者相提并论。综上所述,应当在立法中考虑将设计者纳入产品侵权责任主体且与传统生产者同等地位,规定生产者或设计者对AI医疗机器人产品缺陷承担无过错责任。
3.2.3 适当减轻患者举证责任。在一般医疗侵权责任规则与产品责任规则竞合时,应当根据原因力大小确定损害赔偿责任主体。但根据我国实务通说当请求权竞合时受害者只能择其一起诉,其中对因果关系的证明力度因请求权基础的不同而不同。在一般医疗侵权责任的脉络下,患者需要证明医疗机构或其医务人员的诊疗过失,而在产品侵权责任下,患者仅需根据无过错规则原则提供AI医疗机器人产品缺陷的表面证据即可。可见,产品侵权责任中的因果关系认定标准相较于一般医疗侵权责任的更低。AI医疗机器人产品缺陷同传统医疗器械产品缺陷不同之处在于算法程序设计缺陷也属于产品缺陷的一种。鉴于AI医疗中存在证据偏见和不透明、当事人对算法技术的控制力弱等现象,该类缺陷的举证难度极大,往往导致患者追责困难。因此为落实民事证据法平等原则,确有必要适当减轻AI医疗中患者的举证责任:当法院认定是由于AI医疗机器人算法程序具有设计缺陷导致客观上产生难以解释的错误时,可以减轻受害者的举证责任,转由被告承担。这一做法并非为了惩罚AI医疗机器人生产者或设计者的过错,而是因为AI医疗事故中的因果关系极度复杂难以厘清,医疗机构、生产者或设计者作为被告往往占有一定的技术优势,能够捋清因果关系,因此要求被告在AI医疗侵权案件中承担更重的举证责任,以此平衡原被告双方实力悬殊的举证能力。
3.3 规范AI医疗中数据利用行为
医疗大数据是AI医疗机器人算法程序运行的基础,但其中又包含了大量患者的个人信息。我国《个人信息保护法》将医疗健康领域的信息纳入敏感个人信息的范畴并要求采取更为严格的保护措施。为了确保AI医疗机器人的数据安全,必须建立完善的数据安全管理制度,充分考虑AI医疗数据处理的特殊性,注重对患者个人信息权益的保护。
3.3.1 加强医疗数据安全。鉴于AI医疗事故的复杂性和专业性,AI医疗机器人存储和利用数据的每个环节都应当受到监管和控制,以防止事故的进一步恶化。第一,对数据存储和传输进行加密处理。医疗机构应当采取更为先进的数据加密技术,对AI医疗机器人临床应用中收集并存储的数据进行加密处理,定期更新算法密钥。同时,针对敏感医疗数据定期进行脱敏,防止发生数据泄露风险。此外,还应当对数据传输通道进行安全认证,防止被人为篡改。第二,建立健全身份认证机制。AI医疗机器人依据医务人员的指令做出相关决策,包括对患者数据的调取和利用,因此医疗机构应当采取多因素认证的方式确保只有授权的医务人员才能访问敏感的医疗数据以及输入相关指令。第三,对数据安全定期审计与风险评估。通过审计可以核实出AI医疗机器人算法系统中存在的安全漏洞和不足,及时采取措施进行修复和改进,通过风险评估识别和量化AI医疗机器人潜在的安全风险,为制定安全策略和资源分配提供依据。第四,完善数据备份与快速恢复机制。数据是AI医疗机器人运行的基础,为了防止其在诊疗过程中突发数据丢失或系统故障导致诊疗过程陷入停滞,定期的医疗数据备份和快速恢复机制是确保诊疗过程连续性的关键。第五,建立完善的数据安全事件应对机制。在发生数据泄露或其他安全事件时,能够及时采取措施,减轻损害,并按照法规要求向相关部门和个人报告。
3.3.2 保障患者信息权益。AI医疗技术的临床应用很大程度上影响着患者个人信息权益,患者对自身病情的知情权以及对治疗方案的选择权往往难以得到实现。AI医疗机器人所带来的“技术黑箱”和“技术歧视”导致新的法益纠纷出现,AI医疗技术为医疗提质增效的同时绝不能忽视患者个人信息权益的保障。第一,保障患者知情权和同意权。AI医疗机器人对患者健康数据的采集必须患者知情且经过其同意,包括收集患者敏感个人信息的目的、范围、用途等方面。第二,保障算法解释权的实现。算法解释权是指被决策人有权要求算法决策的使用者保证决策过程的透明度,且告知其对个人权益有重大影响的相关决定。医疗机构以及医务人员有义务在诊疗前应患者的要求履行解释说明义务,确保医疗算法的可信度。此外,在赋予患者算法解释权的同时也赋予患者可以一并请求AI医疗机器人在做出重大决策的过程中再运行或再决策,最大化减少对患者个人信息权益的损害。第三,保障患者算法决策拒绝权的实现。算法决策拒绝权是指被决策者有权拒绝仅通过算法决策做出的决定。这一权利的实现既有助于推动医务人员履行算法解释说明义务,增强医务人员与患者之间的信赖度,更重要的是实现患者个人信息权益的保障。算法解释权和算法决策拒绝权并非为了建立个体对数据的绝对控制,而是实现算法公开透明化保障个体知情权、同意权等各项信息权益实现的有效路径。
来源:《中国医院》杂志2024年第10期
作者:徐伟琨、沈春悦
单位:暨南大学法学院/知识产权学院、上海交通大学医学院附属瑞金医院
(参考文献略)
上一篇: 张雷:医疗机构安全运营的新思考