来源:智能相对论(ID:aixdlun)
设想一下,你去一家医院看病,一进诊疗室的门就有一位护士不断地为你拍照,然后这些照片会上传到一台AI设备里,这个设备则会根据照片里你的模样来进行病情诊断……而在整个过程中,不会出现任何专业的人类医生。
是不是觉得不可思议?即使现在AI医疗发展得很快,一些AI在医疗领域实现了不同程度的落地,比如AI识别医学影像、药物研发、辅助诊断等,但这些AI起到的还是辅助作用,最终负责决断的依旧是人。让AI执证上岗,独立地做临床诊断,似乎从未见过。
然而,这样的“看病模式”可能已经开始萌芽了。近日,美国食品和药物监管局(FDA)首次批准了一种人工智能诊断设备IDx-DR,该设备可以通过观察视网膜的照片来检测一种眼科疾病,并且不需要专家医生的参与。
也就是说,这个叫IDx-DR的AI设备竟然有了上岗证,成为了一名真正的“医生”。科学家们不断攻破一个又一个的技术难关,我们高兴的同时,却也有隐忧。医疗AI之路越走越顺畅,但现在就出现独立的AI医生,合适吗?
AI医生要“独立”,还缺乏完整的产业链
智能相对论(ID:aixdlun)分析师颜璇认为,我们要想让AI医生独立起来,必须在一开始就深入研究产业布局和各产业链每个环节的协调和共生的发展,否则只要里面有一个环节发展不良,就会导致智能医疗的结构出现上下游之间的断档,可能也会被技术伦理问题所牵绊。
1. 落地还没有统一标准
从患者端或者是其它的医疗使用端来看,医疗AI其实在短时间内不会有特别大的变化。因为证批不下来,以及如何为一个AI医生去批证也是模糊的。AI医生合格的标准是什么?是器械的精密性,还是诊断的正确率?即使是FDA批准的IDx-Dr,在一项使用了900多张图像的临床试验中,检测到视网膜病变的正确率也仅是87%。
归根结底,AI医生能否落地,并不是要思考机器究竟算不算人这样的哲学问题,而是行政是否授权的问题。在医疗领域,一个产品的落地,必定包括许可证、医学严谨性的问题,聘用一个独立的AI医生,可能还有比较长远的路要走。
2. “售后”服务不好办
在现实生活中,病人碰上了医生误诊,可以要求医院赔偿或者处分该医生;医生给你看病,5个里面治好3个可能就差不多了。然而AI医生给你看病,可能100个里就错了1个,那唯一被看错的那个会怎么想?遇到水平不够好的医生,还能自嘲一句“遇人不淑”。遇到误诊的AI医生呢,恐怕就没那么宽容了。
首先,追责医院和厂家肯定少不了。然后呢,要怎么办?“罪魁祸首”AI还没有受到任何处理呢。
销毁掉这个AI医生吗?或者把这个AI医生的“头脑”格式化,以示惩罚?但是,一把抹灭它正确诊断99个病人的功劳似乎不妥。而且,在医学方面,随着电子病历和数字胶片的积累,大量结构化病例被用于机器学习,对于AI医生,这个模型训练的大数据至少是以10万份为起点。
AI是一种集体交付的结果,从程序、算法的开发到机械安装,处理掉一个AI医生的成本是难以计算的。假设病人家属一时气愤,怒摔机器,恐怕还会收到一笔昂贵的赔付账单。所以,如果AI出错,权责可以由医院和公司来承担,但对于这台“犯错”了的机器,要如何处置才能平息病人的怒火呢?
3. AI医生让“患者”变为“消费者”
医疗行业有个特点,核心服务由单个专业技术人员提供。到医院看病我们关心哪个医生出诊,会去比较这个医生的口碑如何,服务地点和所在机构在很大程度上也会影响我们的评价,医院的品牌会引导患者的就医决策。三甲医院的医生和二甲医院的医生你更倾向选谁做主治医生呢?
一旦拥有了自主的AI医生,AI不再像高科技的医疗设备作为医院宣传的噱头,以及提升医生效率的工具,而是进入独立诊断,成为一个“专业人员”。虽然核心服务依旧由单个专业技术人员提供,但服务地点和医疗机构似乎不那么重要了,创新者的话语权将会更大,引导患者就医方向的将会是产出这个AI医生的公司。如此,患者的身份会更贴近“消费者”。代入消费者后,医患关系也会变得冰冷。