十余个医疗大模型相继发布,专家提示需注意三类风险

CDSreport
关注

导读

大语言模型对文本数据的解析能力极大方便了知识库系统的构建,而自然语言检索和问答则提升了知识库的应用的便利性。‍

自ChatGPT风靡全球以来,国内各领域也开始积极探索生成式人工智能大语言模型产品的应用。《中国人工智能大模型地图研究报告》显示,截至5月底国内10亿参数规模以上的大模型已发布79个,医疗领域的大模型产品也已发布十余个,应用场景聚焦在辅助问诊、辅助决策、健康咨询、医学智慧影像等。

医疗大模型在辅助决策方面能够发挥哪些作用?其与临床决策支持系统有哪些区别?CDSreport结合了几位专家的观点进行剖析。

01

大模型或改变知识库建设和应用方式

在刚结束的2023世界人工智能大会上,中国信通院云大所副所长闵栋在健康高峰论坛列举了医疗大模型可能的9个应用方向,包括辅助决策、治疗方案生成和质量控制等。

在辅助决策、辅助诊断方面,闵栋认为,在传统临床决策支持系统(CDSS)的基础上,大模型的训练数据来源更为广泛,自我进化能力更高效,因而能为CDSS带来较大幅度的提升。实际工作中,医生经常需要调动大量医学知识、记忆大量的患者信息,难免会出现记忆疲劳、身体疲惫等问题。而医疗大模型的引入可以帮助医生记录信息,大幅减少医务人员工作量,缓解疲劳。同时,大模型还能通过学习电子病历、医学文献、检查检验结果等数据同医生进行语言互动,提升诊断的准确性及效率。

2023年以来,已有十几家公司发布了医疗大模型产品,应用场景多聚焦在辅助问诊、健康咨询、医学智慧影像等。其中,大模型在辅助决策发挥的作用及对CDSS能力的提升已经成为共识。

有研究显示,通用大模型已经能够在诊疗过程中发挥作用。例如,在信息抽取上,可以将大段临床文本进行结构化;在数据清洗层面,可以在一定范围内提供一致性校验工作。在此基础上,经过特殊训练的医疗大模型,通过整合多种来源和格式数据,可以提升医疗效率与质量。

医疗大模型是如何提升CDSS能力的?华东理工大学计算机技术研究所所长、自然语言处理与大数据挖掘实验室主任阮彤表示,数据库的建设和应用提升效果最明显。

传统的知识库构建通常采用人工手段,从专业书籍、临床指南,医学文献中抽取知识。这种抽取过程不但需要耗费较大人力,后续更新过程也比较缓慢。同时,知识图谱等结构化的数据虽然精确,但语义表达能力远远弱于自然语言,包括多元关系、条件关系,因果关联等知识模式定义。建设和使用过程需要较高的专业认知能力和业务建模能力,而模式的理解和正确性验证也同样有双重门槛。此外,经过加工的知识库,在不同应用场景还需要结合实际情况进行二次加工,进一步局限了使用场景。

以诊断为例,不仅要结合患者主诉,还要根据检验检查结果评估诊断优劣。这个过程取决于对疾病判断的精准度、检验检查合理性以及信息交互过程方便程度。达到这些目标,信息系统需通过数据抓取和分析来判断各种疾病的可能性,并且在各信息系统之间以及与医务人员交互之间具备较好的处理能力,针对不同场景还需要独特的系统设计和评估方式。

针对这一难点,一些CDSS供应商选择自然语言处理等人工智能技术来处理海量医学信息,从而实现结构化数据,建立医学知识库和临床规则库,并纳入临床真实病历对知识模型进行持续训练优化,形成不断更新的循证医学知识库。

阮彤认为,大语言模型对文本数据的解析能力极大方便了知识库系统的构建,而自然语言检索和问答则提升了知识库的应用的便利性。大语言模型体现的推理能力,提供了智能医学诊断和治疗方案推荐的可能性。例如,可以通过ChatGPT的开源框架langchain的一系列工具,以及Zero-Shot抽取能力,将原始文本数据抽取成为合适的形式。而对于临床决策类的知识库应用,可综合患者数据通过大模型进行解析,在知识库上进行推理。

02‍

医疗大模型不能“胡说”,部署可及性需要考虑

ChatGPT问世后,其语言交互能力令人惊叹,但“一本正经胡说”的情况也时有发生。在医疗领域,这类可能会误导诊断,甚至威胁到患者的生命健康。医疗行业的专业性与严肃性,对大模型的精准度提出了极端的高要求。

日前,北京市卫生健康委发布《北京市互联网诊疗监管实施办法(试行)》便提出,严禁使用人工智能等自动生成处方,严禁在处方开具前向患者提供药品。此举意在规范互联网诊疗活动,亦是在降低大模型等人工智能技术可能带来的风险。

对于大模型在医疗领域应用的风险,闵栋总结了3方面风险:算法的局限性可能导致内容失真,生成内容可能出现错误;医疗数据质量不足,可能导致训练存在安全和隐私泄露风险;算力不足可能导致成本较高。

惠每科技CTO王实曾表示,对于医疗行业的企业,数据是他们独有的优势。这些数据一方面为半公开数据,包括收集了大量的医学文献的医学知识库、知识图谱等;另一方面是非公开数据,包括临床脱敏数据、电子病历、检测检验报告和RLHF临床医生反馈数据。通过使用这些数据训练大模型,能够形成有别于通用基座大模型的专业能力。

同时,由于使用场景为医疗机构,为保证数据安全和患者隐私,大模型或需要在本地部署。阮彤指出,医疗行业对患者隐私保护和数据安全的要求较高,满足医疗机构本地环境部署要求也是大模型落地的重要考量因素。考虑到医院实际部署环境,动辄上千亿参数的通用大模型难以在院内施展拳脚,这就要求医疗大模型不能无限“大”,而要尽可能考虑部署可及性。同时,由于医疗数据不可能外接到ChatGPT或其他外部运营的大模型上,这就意味着医疗机构可控的、较为廉价的模型或是最佳选择。

资料来源:[1]阮彤:ChatGPT等大语言模型对医疗信息系统的影响与提升——大语言模型在医疗行业应用系列,中国医院协会信息专业委员会‍‍[2]医疗大模型:转瞬即逝的昙花还是跨时代的变革,动脉网[3]大模型在临床辅助诊疗场景下的问题与探讨,CDSreport

【责任编辑:王惠】

       原文标题 : 十余个医疗大模型相继发布,专家提示需注意三类风险

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存