AI医生来了,你能信任它吗?
2018-09-13林之森
林之森
人为的误诊率高得吓人
假设你到医院看病,医生问了你一堆问题,你都一一作了如实告知。医生给你写好诊断书和处方,打发你走。几分钟后,你取了药离开医院。可是,当你刚走出医院大门,脑门一拍,忽然想起还有一件重要的事情忘了告诉医生。这个时候你还会折回去,让他重新给你看一遍吗?估计很多人都会因碍于面子或嫌麻烦而放弃。
根据美国医学会统计,在美国每10个医学诊断中就有1个是误诊。在初诊中,每20个就存在1个误诊。单在美国,误诊造成的不必要死亡每年就多达8万人。
这些令人担忧的数字,源于诊断本身的复杂性,包括从患者那里得来的信息不够全面,转院治疗时信息对接不及时,医生因过度劳累、病人太多而造成的判断上的偏差等等。这些人为失误,如果换成机器,就能避免。这就是为什么许多人希望借助AI(人工智能)来实现更准确、更及时、更高效的诊断的原因。
这个梦想并不遥远。在国外,已经有很多AI诊断APP可用,并可能不久将在国家医疗保健体系中推广开来。但问题来了:健康是关乎人命的大事,我们能放心地交给机器来处理吗?
医疗AI值得我们信任吗?
几十年来,研究人员一直在增强AI的本领,包括让它拥有深度学习能力等:通过利用病历数据库中的海量数据来训练它,让它学习诊断各种疾病,之后你只要按一下键,差不多就能获得比人类医生更准确的诊断书。
这不是炒作。美国斯坦福大学的科学家用10万多张皮肤病(从皮肤癌到蚊虫叮咬)的图片训练了一个能深度学习的AI系统,之后用1.4万张新图片对它进行测试。测试结果是,它对皮肤上黑色素瘤的诊断正确率,比经验丰富的皮肤科医生还高。此外,目前能深度学习的AI,在诊断由糖尿病引起的视网膜病变、眼血管并发症等症状上,也比一般的医生高明。其他的AI工具在从电镜扫描中识别出癌症,或从一般的健康数据中预测患心脏病的概率等方面,也已经大显身手。
但是,它们取得的成功是否足够赢得我们的信任呢?或者可以问一句:它们除了能避免人类医生那些明显的低级错误之外,到底比人高明在哪里?
这可不是一个容易回答的问题。因为AI系统在深度学习中会形成自己的一套判断规则,而这些规则到底是什么,哪怕是对于开发人员,都是一个“黑箱子”,谁也不知道。这就有理由让人为此感到不安了。
当然,要是深究起来,这种情况人类医生也难避免。比如你去看病,老练的医生凭直觉,凭丰富的经验,就能下准确的诊断。但你要是问:“您是凭什么规则下这样的诊断的?”那他可能也回答不上来。他的“规则”对于外人也是个“黑箱子”,但我们并不会为此而不安。相反,我们会毫不犹豫地按他的吩咐去做。
“他毕竟是人嘛,而我们现在面对的是机器。”你大概会说。但也许只是一个习惯的问题。如果AI“醫生”的诊断正确率非常高,甚至要好于人类医生,这种不安感或许就会减轻,甚至消失。不妨比照一下自动驾驶汽车的情况。倘若未来自动驾驶汽车真能够让事故率极大地下降,那么即使你不懂得它那套AI是如何工作的,你也能一路放心地睡大觉。遇到危险,起初你可能会尖叫,但尖叫几次后,发现它都能应付裕如,那么下次遇到危险,你就不会再尖叫了。
医疗AI可以取代人类医生吗?
除了避免人为的失误,提高诊断的正确率,AI在医疗领域还有着更广阔的用途。
当前对于医生来说,“管理”疾病是一件很棘手的事情,比如对于糖尿病、关节炎、高血压、哮喘等慢性疾病,你得不停跟踪病人的病情,并为他们找出各个阶段的治疗办法。
而AI系统是管理疾病的好帮手,能帮助医生及时地了解病情进展,并合理安排治疗。这不仅极大地降低了国家和个人的医疗费用支出,还可以把医生从大量的文书工作中解放出来,把时间更多地集中在病人身上,花更多时间去倾听,投入更多时间去关注医学领域的最新动态,以保证知识的更新。
医学AI系统的出现,甚至可能重新定义“训练一名合格医生”的含义。未来的医学教育将包括让学生学习数据科学,把他们从死记硬背中解放出来,集中到学习如何解决问题、培养批判性思维上。
它还可以让家庭医生不出办公室,就能以专家级的精湛医术,为患者提供服务——只有万不得已时,才把病人交给医院和专家。这意味着,不必把一个病人的治疗和护理,轮番交给好多家医院的医生来完成。这对于医生和病人都是一件好事。
当然,在这种情况下,病人的隐私怎么保护?医疗事故谁来负责?这些问题还亟待立法去解决。
待到医疗AI成熟之后,皮肤科、放射科和病理科等主要涉及重复审查图像的医学部门,很多人工可能会被它取代。
那么,人类医生会不会最终被医疗AI完全取代呢?
应该说是不会的。AI可以增强临床医生的能力,但不可能做人所能做的一切。首先,人们常说,医生的职责是“有时去治疗,常常去帮助,总是去安慰”。医生对病人的人性化关怀是治疗和护理必不可少的一部分,这是不能用机器取代的。其次,当医疗变得复杂的时候,需要人做出决定,AI无论多么复杂,都不能代替人做决断。