科技巨头与初创公司纷纷出手抢占AI医疗市场
2019年12月17日,美国国家医学院(NAM)发布《医疗人工智能:希望·炒作·虚夸承诺·危险》报告,该报告论述归纳了医学领域AI研究和实践,但也指出目前AI应用的挑战和局限。
近几年,“AI+医疗”的概念被炒得火热,无论是科技巨头还是初创企业都争相涌入。所谓的“AI+医疗”,其实是人工智能在医疗领域的运用与发展,其应用主要表现在智能诊断、智能影响识别(如CT影像病灶识别)、智能健康管理、智能医药研发和医疗机器人等方面。
在降本增效方面,业界普遍看好“AI+医疗”的前景,因为医疗行业发展到今天,全世界都面临着同样的问题,即医疗资源和社会需求及支出之间越来越突出的供需矛盾。美国医学联合委员会2016年4月发布的研究报告称,未来10年美国将面临61700到94700名医生缺口。
除了优秀医生的缺失,医疗成本也越来越高。以美国医疗保健支出为例,根据美国《健康事务》杂志的最新报道,美国的医疗保健支出在2018年增长了4.6%,达到3.6万亿美元,增速高于2017年的4.2%。
实际上,人口老龄化、慢性病增多、新药研发费用都是不断推高医疗成本的因素。如何在不降低医疗服务质量的前提下降低医疗成本,成为各国政府面临的难题。而以深度学习为基础的人工智能技术恰好契合医疗行业的需求。
抢占AI医疗市场 科技巨头与初创公司纷纷出手
20世纪70年代,人工智能专家系统开始参与参与到疾病的诊疗中,但尚不成熟。1997年,达芬奇机器人手术系统研发成功,2000年美国食品药品监督管理局(FDA)批准应用于临床。2011年,人工智能在医学影像识别和自然语言理解方面的辅助诊疗系统的进步引人注目。
近几年,IBM、谷歌、微软、亚马逊、脸书、苹果等科技巨头都在人工智能领域投入大量的资源,建立庞大的人工智能团队,抢占人工智能市场。这一战火也延续到了医疗健康领域,试图用人工智能改变甚至颠覆传统医疗健康行业。
以IBM公司为例,早在2013年,IBM就开始与全美综合医院排名前四的克利夫兰诊所进行全面合作,研究如何利用IBM的“沃森(Watson)”人工智能系统提高护理水平。沃森健康部门成立后,IBM收购了一些医疗健康大数据提供商和分析商,与传统医疗器械和药物生厂商、销售商,以及大型医院和医疗机构展开合作。在此基础上,IBM选择肿瘤精准治疗作为主攻领域。
AI医疗作为新兴领域,IBM、谷歌等巨头都仅仅是近几年才入门,还有大量市场空间留给中小公司。因此,智能医疗领域的初创公司如雨后春笋般大批出现,这些企业通常根据自己创业团队的特点和特长,专注于智能医疗的细分领域,如医疗影像与诊断、药物挖掘、急症室与医院管理等。
AI医疗被“高捧” 大肆宣传的背后被质疑“炒作”
美国大型咨询机构APCO Worldwide公司在今年八月发表了一篇题为“Artificial Intelligence in Healthcare: Hype or Hope?”文章,质疑AI医疗究竟是“炒作”还是“希望”。文章认为,AI确实有很大的潜力改变医疗保健领域,但是对AI的宣传可能过度,关于AI在医学实践中的应用仍存在争议。对于AI和机器学习是否可以更大规模的为患者提供价值,许多医疗行业的领袖都持怀疑态度。
虽然人们对人工智能及相关技术(如手术机器人)的潜在前景存在普遍共识,但也有人担心这些技术被过度推销和炒作,从而在临床中产生可信度问题。
中国陆军军医大学的研究人员,近期进行的一项“患者对人工智能医疗的认知及信任度”调查显示,对人工智能应用于临床医疗,患者接受度和信任度最高的是医疗后勤环节,其次为医患接触较少的医疗辅助环节,在做手术等医疗核心环节,人工智能介入的工作越多,占据角色越重,患者接受度和信任度越低。(参考自《中国医学伦理学》期刊:患者对人工智能医疗的认知及信任度调查)
早在2017年9月,美国STAT公司(从事生命科学与药品研制领域的深度报道)就刊文披露,IBM的“沃森”人工智能系统未兑现其承诺——超级计算机能够带来癌症领域的一场革命。STAT公司发现,该系统不会创造新的知识,只是人工智能最基本的概念。并指出,世界各地的主要癌症中心已经退出与IBM沃森的合作,因为他们没有发现超级计算机可以实现它的承诺。
同年5月,资深技术投资风险公司Social Captial的创始人Chamath Palihapitiya在CNBC上甚至直接炮轰:“沃森就是一个笑话”。他认为,IBM的专长其实只是通过他们强大的营销和市场能力,以及信息不对称,去让消费者为他们并不了解的服务买单。
医学上的任何重大进步都必须建立在科学证据和同行评议的基础上,有趣的是,IBM沃森以对商业知识产权的担忧为由,拒绝了对超级计算机的癌症应用进行同行评审的要求。
医疗数据共享与隐私保护 如何找到平衡点?
在真实的应用场景中,人工智能辅助医疗需要大量的数据积累,包括疾病诊断记录、病人用药效果、基因数据、家庭病史等。要实现这些数据的积累,就需要打破各个医院和社区的壁垒,实现数据交换共享。基于此考虑美国建设了一个电子健康记录系统(Electronic health records,EHRs),十年内积累了1000万名病人的记录。
在病人健康数据交换共享的同时,保护隐私问题也是重中之重。这一点上美国走在前列,1974年就通过《隐私权法》,后在2003年生效《健康保险携带与责任法》(HIPAA)。通过HIPAA规定了很多EHRs的隐私保护细则,对使用该系统也有明确的规定,是否可以对EHRs加以利用取决于信息是如何建立的、谁在维护以及当事人情况。
值得注意的是,美国政府在关注数据隐私性的同时,也帮助AI研究发展。2019年2月11日特朗普签署启动《美国人工智能倡议》行政令,提出将集中联邦政府资源发展人工智能,该计划的一个重要方向是面向学术界、医疗领域开放一些政府数据库,便于人工智能项目积累所需要的数据量。
目前,国内的挑战在于医疗保健行业的数据处于分散且非结构化状态,大量的历史数据是胶片状态。医院是医疗数据的最大产生机构,现实中,没有哪家医院愿意把医疗数据共享出来。一方面数据属于医院财产,科室主任在未授权的情况下,无法分享。另一方面,院方需要考虑患者隐私问题。
国内的AI医疗初创公司需要病人的数据进行机器学习训练时,需要挨家的和各家医院去谈,这样就产生了很多“灰色地带”。对此,中华医学会放射学分会主任刘士远曾建议,如果能以政府出面牵头在一个省范围内建一个大的数据中心,然后将该省所有医院数据汇总使用。公司与数据中心谈合作那可能更合法,对于推动AI医疗发展更加有效。
需要注意的是,在法律层面,国内法律暂未对个人健康隐私有进一步明确规范。2018年5月1日开始实施的《信息安全技术个人信息安全规范》,从个人信息的收集、保存、使用等角度提出保护个人信息安全应遵循的原则,但还是缺少针对医疗隐私保护的详细法律法规。一旦有了国家意义上的病人数据共享系统(类似美国的电子健康记录系统),隐私保护问题将更加急迫。
AI诊断失误谁负责?
AI诊断的主体是医疗器械还是医生?其在法律上是人还是物?这是探究医疗服务人工智能法律责任最基本也是最重要的问题。人工智能在法律上是否能被看作民事主体?
所谓的“民事主体”,就是能够参与民事法律关系,且享有民事权利和承担民事义务的主体。我国《民法总则》规定民事主体包括法人和自然人两种类型。因此传统观点,AI诊断主体并不具有民事主体资格。
随着AI诊断技术的迅猛发展,特别是在将来诊断水平可能超过人类医生的情况下,法律是否应赋予AI诊断民事主体的资格,是急需解决的问题。
2016年,欧盟委员会的法律事务委员会提交了一项动议,建议将最先进的人工智能机器人定位为“电子人”,由此也引发了经久不息的争论。“电子人”会获得特定权利和义务,并且其还需要像正常人一样进行登记、纳税,从而诊断主体真正获得民事法律主体的地位。
欧洲委员会投票通过了一份报告草案,该草案提议赋予机器人合法地位,并将它们归类为“电子人”。
当然,各国对人工智能在医疗服务中的法律地位规定存在差异,日本就采取了不同思路。据《日本经济新闻》2018年7月3日报道,日本政府将完善关于人工智能医疗设备的一系列规则,规定诊断的最终责任由医生承担。由于AI存在误诊的可能,因此日本厚生劳动省将把AI医疗设备定位为辅助医生进行诊断的设备,基于《医师法》规定“作出最终诊断和决定治疗方针的责任由医生承担”。
高质量、普适性训练数据 聚合整理存在挑战
确保高质量的数据是人工智能和机器学习被广泛采用的主要挑战之一,人工智能和机器学习的成功实现需要对大量的各种来源的数据进行聚合。但是,有些数据源并不可靠,数据的验证和不同数据集的连接可能是一个艰巨的过程,需要数据分析能力强、临床经验丰富的高技能和训练有素的专家。
今年早些时候,诺华的首席执行官Vas Narasimhan解释了人工智能在药物研发中应用的痛苦过程,“我们学到的第一件事是,拥有出色的数据来实际建立机器学习的重要性。在我们自己的工作室里,我们一直在做几个大项目,我们不得不花费大部分时间来整理数据集,然后才能运行这个算法。我们花了几年时间才整理完数据集”,Vas Narasimhan表示,人们低估了现有的高质量数据有多么少,整理和链接数据有多么困难。
除了保证数据高质量,用于模型训练的数据具有普遍性也非常重要。而在国内,目前医疗AI的数据研究限于某一家医院或几家医院的合作研究,数据输入相对单一,局限于某一特定区域,由此建立的模型在更广的范围进行使用时可能不完全适用。