1. “就是一坨屎”?
据美国媒体STAT爆料,IBM内部PPT显示,Watson其实存在严重的技术问题。IBM的医疗专家和客户都确认了多起不安全和不正确的治疗建议。
Watson的技术没有达到预期,引起了世界各地医生的抱怨。不少医生表示Watson并不适用于自己国家的患者。
有部分医生认为Watson其实并没有多大用处,医院购入Watson是处于营销的目的。甚至有一位医生直言不讳地告诉IBM,“这产品只是一坨屎,大多时间没法用。”
曾经有贵妇嘲讽法拉第他发明的“电磁感应装置”有什么用,法拉第回答“没过多久就能靠它收税了”,此后电力是何等程度改变了世界,相信每个人都明白。
诚然,现阶段的医疗AI算不上十分智能,更不能完全代替医生。但是我们要看到AI的优点,比如人类的大脑是脆弱的,而机器却能无休无止地进行高强度计算。
站在发展的角度去考量AI医疗,这项新生的事物能做的,也许会完全超出人们的想象。
2. 疑似过度宣传?
自从AlphaGo战胜人类棋手的新闻以来,AI的话题一直是媒体的宠儿。这个过热的话题也许赋予了大众对现阶段的人工智能过高的期待。
所以比如当Watson大幅裁员五成到六成的时候,比如中山大学眼科中心测试发现AI医生在真实临床门诊对白内障的诊断正确率只有87.4%,远低于试验阶段的98.87%的时候,大众会不禁质疑——医疗AI是不是宣告失败了?
其实这只是事物在螺旋上升过程中经常要碰见的状况,其问题在于媒体的过度宣传,让大众对事物无法产生一个客观的认知。大众对技术产生过高的想象,将技术神化、将困难简单化。
医疗AI有自己的螺旋上升周期,大众应该允许失败,媒体对该议题的关注也该回归理性。
03 遗留问题
新生事物的诞生总是伴随着阵痛。医疗AI需要克服自身存在的缺陷。
同时,新技术的诞生往往会遭受旧秩序的困扰,医疗AI还需要面临何如从旧秩序中突围的难题。
1. 法律责任
在试错代价动辄就是生命的医疗领域,AI首当其冲要面对的就是法律问题。
2011年,在美国麻省的一家医院,一位晕倒的老人被救护车送进了急救病房。他被立即安插上AI体征监控设备。如果他的生命体征出现危险,设备就会发出警告,召唤护士。
然而,第二天,这个老人却死在了病床上。
死之前监控设备的红灯闪了一夜,但是被值班护士一遍一遍按掉。
护士的疏于职守自然难辞其咎,但是从系统的角度来看,有一个问题大家都无法回避:许多医院的AI监控设备,很多时候都只是误报。
患者的死亡,责任到底该由谁承担,AI是否能为误诊负起责任,这是一个需要思考的问题。
2.数据孤岛
就像汽车需要汽油才能行驶,数据是AI能运行起来的基础。AI通过“吃进”海量的医疗数据,来增加自己的“经验”,从而让自己变得更“智能”。
然而在中国,医疗数据看似很丰富,而事实上可用性并不高。
比如医院之间的数据互通就做得不好,如果一个病人在不同医院就诊,那么取得该病人完整的历史数据就变得十分困难。
而且不同医院之间,由于使用的硬件仪器不同,导致数据格式各异,难以标准化。各个医院之间的数据,就像汪洋上的一个个孤岛,彼此独立,无法连成一片,无法互通有无。
许多业界专家呼吁,将各个医院数据的私有格式转化为标准格式,让医疗数据能够通用。但是响应者寥寥。
即使AI能获得高质量的医疗数据,它还有无法回避的棘手问题:患者的数据会被AI公司泄露吗?毕竟应该没有一个人会希望自己的隐私被泄露。
3. 落地艰难
除数据问题外,AI在医疗行业的落地还存在模式和制度的问题
比如美国特拉雅诺娃实验室开发了一套结合影像和AI的心脏造影方案,构建出整个3D全息心脏模型。它能够模拟心脏动态,利用它,医生可以准确地找出患者病灶。
然而这项技术真的要从实验室走向医院,前景并不乐观。
其最大的挑战来自于美国食品药监局(FDA)的监管和审查。任何一项技术想要投入临床应用,都免不了和FDA进行一场旷日持久的拉锯战。如果无法将研究成果转化为审批标准,那么无论产出再多研究成果都是无用功。
04总结
尽管医疗AI还没有大规模落地,从实验室到医院还有很长的一段路要走,而且在现阶段,医疗AI无法像人类医生那样做诊断,不能取代人类医生。
但是AI医疗是很好的工具,它的出现切实地提高了医生的诊断效率,提升了医疗质量,减少了误诊的可能性。
在科学急速发展的今天,我们需要更高水平、更科学的技术进入医疗领域,而AI或许是最好的、也是时代最合适的技术。未来,AI将在医疗领域有着举足轻重的作用。