浅析人工智能医生的发展瓶颈与解决对策
2020-04-10张沐欣杨震赵鹏申学同
张沐欣 杨震 赵鹏 申学同
摘要:随着人工智能技术不断发展,人工智能医生不断取得了新突破,但是人工智能辅助医疗行业仍存在着诸多问题。本文通过发现人工智能医生的发展瓶颈,分析问题根源,从而提出合理化建议,以期人工智能医生更好服务于医疗事业。
关键词:人工智能;医疗;问题分析
随着“互联网+”人工智能应用服务的推进,近年来人工智能技术在医学领域的应用越来越广泛。但人工智能技术是一门新兴技术,目前还处在不完善阶段,再加之医疗领域自身的独特特点,使人工智能医生的发展受到诸多因素的制约。现将人工智能医生的发展瓶颈与解决对策分析如下。
1 人工智能医生的发展瓶颈与根源分析
1.1 技术、人才方面存在缺口
核心技术原创和高端设备研发不成熟,成果转化周期长,难度大。近年国内医疗器械原创核心技术较少,高精尖设备的自主研发、自主设计能力有待提高;而医疗器械从研发设计阶段到投入市场使用,至少需要经历设计开发、注册检测、临床试验、注册申报、生产许可申请等无盈利过程。这些因素加大了人工智能诊疗系统构建的困难度,使人工智能医生难以在基层全面部署。
人工智能辅助医疗领域相关专业人才不足。人工智能的技术特点和医学的严谨性对相关从业人员提出了更高要求,人工智能医生的发展不仅需要计算机技术从业者和医学工作者,还需要各学科边界上的接口人才、组织管理人才等。多领域结合人才缺口巨大,加大了构建一体化人工智能医疗系统的难度。
1.2 数据库建立困难
疾病数据非结构化现状使可利用样本量增加较为困难。医疗数据的收集、汇总与分析是人工智能参与疾病诊断、治疗的重要环节,人工智能辅助医疗行业实现与推广的前提是建立相关数据库,其数据库来源是多元的、质量是不受控制的,这对人工智能辅助医疗事业准确性的提升有着极大作用。但现今各级各类医疗机构的数据虽较为庞大,但是其非结构化的特性导致难以形成系统有序的数据库应用于临床。
信息共享程度不足,数据未形成数据库。目前大部分医疗系统相对封闭,数据之间流通开放程度还未達到预期,造成了数据资源的极大浪费,加重了临床有效数据不足的问题。不同时期、不同地点数据的录入标准不同,各学科缺乏统一的数据分析录入标准,数据质量难以保证。数据的低质化和稀缺性让疾病诊疗数据库建立困难,阻碍人工智能辅助诊断医疗行业前进。
1.3 事故主体性界定未清
人工智能辅助医疗存在医疗安全性问题,当发生医疗事故时,其责任划分的依据不清晰。医疗健康行业具有合规要求高、社会影响广、风险系数大等特点。新兴的人工智能辅助医疗行业对医疗责任的辨识不足,可能在算法与处理实际病例中出现问题,从而引发医患纠纷。人工智能医生在投入临床使用前,运行程序需经大量模拟和完善,但医学领域发展迅速,大数据也未必能够面面俱到,难免遇到未经录入的情况,从而降低人工智能医生诊断的准确性,存在一定医疗安全问题。此外,医生与人工智能医生在疾病诊疗上各有优势,故而在医患关系中,谁在疾病诊疗中处于主导地位就成为一个现实问题,这是人工智能辅助医疗领域需要攻克的伦理关。
2 促进人工智能医生发展的对策
2.1 完善人才体系,促进技术创新
一方面培养熟悉人工智能辅助医疗领域相关理论知识与实际应用的人才。在地方层面,充分利用国家级开放平台,助力“人工智能+医疗”跨学科研究。在国家层面,建议建立由尖端人工智能辅助医疗领域人才或机构所构成的智库,推动人工智能医生的发展。另一方面培养熟悉“人工智能+”相关多领域的人才,能够贯通AI+社会学、法律学、数统学等领域。以医疗大数据为例,医疗大数据建设是人工智能辅助医疗发展的基础,但医疗大数据相关企业缺乏人工智能+数学、统计、数据处理的多能型人才。各高校可重视各学科边界接口人才、组织管理人才的培养。
人才的培养是为了带动技术创新,针对人工智能医生发展困境,要利用复合人才,发展具有人类水平的人工智能技术。由于患者数据分散,人工智能难以发挥其学习能力,因此急需加强人工智能深度自主学习能力,充分利用现有数据进行专项训练。还要不断开发人工智能沟通、逻辑推理、学习、决策等较为高层次的功能。
2.2 打破数据库壁垒,提高数据质量
构建开放共享的医疗大数据,打破医疗机构间数据壁垒。充分发挥相关管理部门的职能,不断完善线上病历、电子诊疗记录等数据的共建共享,使各级、各类医疗机构的数据整合不断加强、联系更加密切,从而实现传统的医疗卫生机构体系网向新型的医疗信息数据网升级转化,更好为人工智能辅助医疗提供数据基础。
将智能医疗设备的数据纳入医疗数据库。通过这种便携性、简易性的数据采集与记录,实现对个人健康数据的长期有效管理。不仅能够丰富人工智能医生的个体、群体双重数据库,还能根据个人实时健康信息做到疾病早期诊疗与预防,使数据更具针对性,推动智能医疗向因人制宜的个体化方向发展。
2.3 规范伦理问题,处理责任划分
要确保人工智能医生具有道德伦理,首先要确保其程序开发者有正确的道德伦理倾向,为人工智能医生的伦理安全保驾护航;其次要使人工智能医生有合理的学习程序,不断完善其道德性和伦理性。唯有解决上述问题,才能助推人工智能辅助医疗产品的走向市场得以大范围推广应用。(通讯作者:张硕)
参考文献:
[1] 周吉银,刘丹,曾圣雅.人工智能在医疗领域中应用的挑战与对策[J].中国医学伦理学,2019(03).
[2] 赵飞,兰蓝,曹战强,等.我国人工智能在健康医疗领域应用发展现状研究[J].中国卫生信息管理杂志,2018(03).
[3] 祁瑞娟,吕伟通.人工智能辅助诊断技术在医疗领域的作用与挑战[J].中国医疗器械信息,2018(16).
[4] 利用人工智能破解个性化医疗难题,思派辅助医生预测和处理不良反应[J].智慧健康,2018(12).
[5] 陈默.人工智能辅助医疗的医患关系伦理机制重构研究[J].医学与哲学(A),2019(09).
基金项目:本文系山东中医药大学2019年省级大学生创新训练项目(编号:S201910441011)调研成果。
(作者单位:山东中医药大学)