黄昊:ChatGPT对医疗信息化的冲击与挑战——人智博弈,逐浪前行

发布时间:2023-04-17
浏览次数:

  作为一名信息化从业者,谈到人工智能,我经常调侃“人工和智能之间现在得加一顿号”,表明目前的人工智能技术还是停留在某些专业技能的智能化应用,还不能实现通用智能技术的突破。

  然而这段时间,我们却不断被人工智能的新变化冲击着,前有ChatGPT的震撼,紧接着又迎来了GPT4.0的冲击,期间也伴随着国内“文心一言”发布所展示的中国声音。在专业领域应用上,GPT4.0现已迅速切入了医疗领域,微软子公司Nuance Communications日前推出一款基于GPT-4的医用软件DAX Express。老款的DAX可以将患者在就诊中与医生的交流转化为临床档案,结合人工审核来确保信息的准确性,整个过程需要耗费4小时,而最新推出的基于GPT-4的DAX Express,只要短短几秒就能搞定上述工作。

  GPT所展现出的“科技与狠活”已经显示了它对大众岗位的威胁,我们自以为是的技能和多年打造出的职业经验,瞬间被它击垮。动动嘴皮子、随便写个提纲,它就帮你搞定剩下的一切,此类主题的宣传视频在网上比比皆是。那些原本我们需要加班熬夜码的代码,在它也是小CASE,在强大科技面前,我们已成为一粒灰尘,风吹过,消失在尘烟中。基于AI的绘图软件的出现直接让一些简单的美工岗位不复存在。人们纷纷感叹“四年大学比不上一分钟问询,八年工作经验挡不住一秒暴击”,躺平之声甚嚣尘上。

  一日,在食堂偶遇某临床科室主任,他一脸真诚的对我说:“昊哥,现在美国ChatGPT的回答都非常专业了,我们应该把它引进来搞信息化。现在的信息系统太LOW了,谈不上智慧医疗。”看吧,就算我们不进步选择躺平,时代都会把我们拽起来,推着我们前进。

  如此强悍的人工智能模型,相信不仅个人,就是各个行业都在思考,如何与它联合,解决实际问题,探索科研奥秘。我们必须得思考类似GPT这类大模型通用智能技术对医疗信息化到底有些什么挑战,我们又能做些什么。

  先用一组数字来说明GPT的强大吧。

  类似GPT的大模型,其核心特征是模型参数多、训练数据量大。有研究估测,GPT-3是高达1750亿个参数的语言大模型,需要上万个CPU/GPU24小时不间断地输入数据。其能耗相当于开车往返于地球和月球,一次运算就要花费450万美元。GPT-4是一个超大的多模态模型,也就是说,它的输入可以是文字(上限2.5万字),还可以是图像,其参数更是比GPT-3高了16倍,达到了1.6万亿个。百度“文心一言”的参数也高达1000亿以上。

  据报道,跑通一次100亿以上参数量的模型,算力至少需要1000张GPU卡。GPU芯片中领先者如A100售价达1万美元, 微软Azure云服务为ChatGPT布署了超过1万枚英伟达A100芯片。高昂的成本意味着大模型只能由超大型科技公司或少数机构所掌握。在一次学术会议上,某全国顶级医院的主任自豪说,我们的数据中心目前已经拥有191块GPU的算力了,有效算力全国医疗机构排名第一。然而这些算力背后都是巨大的资金投入,对于大多数医疗机构来说,要开展人工智能应用,使用云端服务是合适的选择。

  从行业发展看,也是这样的趋势,自2月份百度官宣“文心一言”以来,已有超过650家企业宣布接入“文心一言”生态。术业有专攻,在大模型人工智能的使用上,少数机构做研发,其他也就是选择场景进行应用了。

  冲击一

  大众对信息化的期望值被拉高

  相信体验过ChatGPT的人都会成为它的粉丝。进而大家也都会将嫌弃的目光投向我们在用的各个系统。那么如何从业务系统向智慧业务系统进化,相信各厂商也在开始思考从现有的微服务架构进化为智能架构了。

  冲击二

  更多的云化应用被催生

  通用人工智能模型难以进行私有化部署,“云、管、端”的模式将成为常态。对于普通大众来说,在没有出现更轻量型的模型或更高性价比的算力平台之前,还只有采用云服务的模式。但是采用云模式必然也会受制于云,一旦云端服务中断或者被禁止,我们的业务也会受到影响。

  冲击三

  现有的安全体系进一步被打破

  有人说,人类进步的动力就是因为我们的懒惰。蒸汽机代替了马匹;电力取代了蒸汽;互联网让我们获取资料更方便;人工智能让我们不必“思考”。人们肯定会用智能工具来完成各类工作,从论文撰写、绘画、各类报告材料等等,这在使用过程中难以避免可能造成信息的泄露。

  据韩国媒体《economist》3月30日报道,近日,三星内部发生三起涉及ChatGPT误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”。3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。其个人数据保护局认为,3月20日,ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。而该平台没有就收集处理用户信息进行告知,且缺乏大量收集和存储个人信息的法律依据。

  冲击四

  人类的一些技能将更为退化

  亘古以前,人类狩猎,需要逃避野兽的追击,需要掌握武器和搏击技能;如今,信息系统的应用让很多医务人员都不再熟悉一些医疗管理的规章,如药品使用、医保政策等,反正都是系统在把关。同样,当我们能够通过与GPT简单的沟通就获得一份漂亮的材料后,我们的分析能力、调查能力都会退化。

  冲击五

  可能带来的系统性安全事件值得关注

  没有完美的软件,就算是ChatGPT也是不完美的。它仍然有一些局限性,还在不断的进步。

  ChatGPT在其未经大量语料训练的领域缺乏“人类常识”和引申能力,甚至会一本正经的“胡说八道”。ChatGPT无法处理复杂冗长或者特别专业的语言结构。对于来自金融、自然科学或医学等非常专业领域的问题,如果没有进行足够的语料“喂食”,ChatGPT可能无法生成适当的回答。而这些一本正经的“胡说八道”往往还更具有迷惑性,导致一些错误判断发生。

  ChatGPT仍然是黑盒模型。目前还未能对ChatGPT的内在算法逻辑进行分解,因此并不能保证ChatGPT不会产生攻击甚至伤害用户的表述。据说它的进步已经威胁到人类自身了,最新的消息是,一众科技大佬纷纷发声,要求暂停GPT的研发进展。

  坐享其成自然好,但却不现实。就如GPT一类的大模型也需要数据去训练,而这些专业性的数据的产生,不仅需要技术型人才的分析能力,更需要各专业领域人士的投入,如数据标注,数据的标准化处理,这类原始性工作尤显重要。尤其是对医疗这种涉及生命安全的领域,大模型依然存在潜在风险。避免系统性问题,还需要有评估和不良事件上报的流程及管理文件的完善,这也正是国家出台相关法规的原因之一。

  结语

  人工智能的应用来势汹汹,“算法、算力、数据” 作为AI核心三要素,相互影响,相互支撑。就算是大语言模型的GPT也需要大量标准的数据去投食去训练。在医学这个细分领域尤其如此,如果没有大量经过验证的数据去训练模型(标准疾病病历库),也会再现当年机器人沃森医生的尴尬,来也匆匆,去也匆匆。最后用一首打油诗和大家共勉。

身边多个万事通,保密意识记心中。

可用切勿成依赖,顺势而为道路通。

  注:此文借鉴和参考了互联网上公开发表的各种资料,在此一并表示感谢,时间关系没有按照论文格式进行撰写,还请谅解。

  作者简介

  黄昊,现任陆军特色医学中心信息科主任、正高级工程师,CHIMA常委,中国研究型医院学会医院信息化分会常务理事,中国研究型医院学会医院信息化分会智慧医疗专委会主任委员。