人工智能在健康产业应用中的伦理问题分析*

2019-12-24 06:18潘若琳郑秋莹
中国医学伦理学 2019年12期
关键词:伦理医疗人工智能

潘若琳,郑秋莹

(1 北京中医药大学护理学院,北京 100029,kotomituanzi@163.com;2 北京中医药大学管理学院,北京 100029)

2017年,国务院发布《新一代人工智能发展规划》,表明中国将人工智能视为促进产业变革和经济转型的关键,人工智能革新了人们的生产生活方式,开始向各行各业赋能[1]。近年来,人工智能技术与健康领域不断加深融合,智能医疗应用场景愈发丰富,人工智能已经成为健康产业发展新的驱动力,在医疗、护理、健康、养老等方面得到了广泛应用。2017年,美国加州召开的“阿西洛马会议”上,多位人工智能领域的专家联合签署了《阿西洛马人工智能原则》,该原则倡导:在全世界范围,涉足人工智能领域的各方要共同遵守这些原则,保障人类的共同利益和安全[2]。人工智能技术日益成为医疗健康领域关注的核心,但由于缺乏统一伦理思想的指导,其可能存在的伦理风险也愈发凸显,2018年《未来基石——人工智能的社会角色与伦理》报告发布会上,微软公司总裁施博德指出,在给予计算机更强大力量的同时,也应当借助社会伦理对其进行合理引导[3]。

健康产业作为关系人类健康福祉的重要产业,更要认清人工智能的内在本质,分析其发展路径,关注并找出人工智能可能带来的伦理问题,并进行合理规避。2019年3月4日,第十三届全国人大二次会议上,大会发言人张业遂表示,人大常委会已将人工智能相关法律列入本届五年立法规划,努力为人工智能创新发展提供有力法治保障[4]。虽然现阶段的人工智能尚处于弱人工智能阶段,还不涉及强烈的伦理问题,但是面对飞速发展的科技,我们不得不防患于未然,健康产业是一个特殊的产业,在人工智能这项敏感的技术面前,伦理思考一定要走在技术发展的前面,才能更好地解放生产力,解放人类智能。

1 人工智能在健康领域的发展现状

1.1 发展现状

健康产业兼具产业属性与公益属性融合的特征,属于半公益性的经济活动,发展这一产业需要市场和政府协同作用,政策和技术在健康产业的发展现状中起着举足轻重的作用。

1.1.1 技术及应用场景现状

2016年被称为“人工智能元年”,科技的跃迁,资本的活跃,移动互联网的普及,物联网时代的到来,为大数据的快速积累,设备运算能力的提升,算法模型的演进创造了条件,使得人工智能相关技术迅猛发展。从最初仅仅局限于挂号服务、信息查询、轻问诊,到电子病历、医疗手术机器人、智能芯片,人工智能与健康产业的融合从边缘的探索阶段走进核心发展阶段。

根据对新华网及中国知网、万方数据等期刊平台相关信息的整理和比对,可以发现人工智能健康产业已经孕育出多种产品(详见表1)。目前,人工智能与健康产业结合方式丰富,技术方面包括语音识别、图像处理、机器人技术、大数据分析、文献搜集与分析推理;就诊流程方面包括诊前、诊中、诊后;适用对象方面包括医院、医生、患者、药企等。

表1 人工智能健康产业应用场景及应用

注:本表为作者根据 新华网.人工智能技术在医疗领域的应用[EB/OL].(2018-09-25)[2019-03-08].http://www.xinhuanet.com/info/2018-09/25/c_137491303.htm.整理而成

美国软件公司Nuance Communications研制的Dragon Medical人工智能助手可帮助医生使用语音完成健康档案编辑、患者病历评估及处方填写等任务,科大讯飞云医声利用其全球领先的智能语音和人工智能技术,收集患者资料以供医生随时查阅,还能将医生说出来的医嘱直接整理成电子文档;腾讯公司研发的腾讯觅影利用计算机视觉和深度学习技术,辅助医生诊断和完成重大疾病早期筛查等任务;IBM沃森机器人,定位是“肿瘤专家顾问”,可以通过询问患者的病征、病史,通过人工智能技术迅速给出诊断提示和治疗意见,达芬奇手术机器人能够帮助医生为患者进行微创手术;Epicenter芯片通过植入人体获取人的行为和健康信息,便利人们的生活;硅谷Atomwise利用其强悍的文献搜集与数据处理能力,大大提高了药物研发的效率。

1.1.2 政策现状

现今我国卫生健康服务需求提高、人口老龄化、疾病谱变化、医疗卫生资源配置不均等问题都对卫生体系和健康产业提出了新的要求。2016年6月,国务院公布《关于促进和规范健康医疗大数据应用发展的指导意见》,明确指出健康医疗大数据是国家重要的基础性战略资源[5]。2017年5月,科技部发布《“十三五”卫生与健康科技创新专项规划》,要求推进医学人工智能研究,支持智慧医疗发展[6]。2017年7月,国务院印发《新一代人工智能发展规划》,提出推广应用人工智能治疗新模式新手段,建立快速精准的智能医疗体系,探索智慧医院建设;加强群体智能健康管理,突破健康大数据分析、研发健康管理可穿戴设备,建设智能养老社区和机构[7]。《意见》《规划》的出台,表现出国家对人工智能发展的鲜明支持态度,明确了健康产业的发展路径和发展目标,政策红利的释放,使市场对人工智能健康产业更加充满了信心,随着大量资本的注入,健康产业蓬勃发展。

2 人工智能伦理问题研究现状

论文发表量是反映学者研究兴趣和学术热情的重要指标。据万方数据库统计显示,2017年后,有关人工智能的文章数量呈井喷趋势,仅2017年一年的文献量就达到了9495篇,2018年更是达到10050篇之多,为本研究提供了丰富的素材。以篇名、关键词、摘要、全文为检索项,“人工智能”and“健康”and“伦理”为检索词,于2019年3月,搜索中国知网、万方,共检出中文期刊文献139篇,通过浏览篇名和摘要,排除与本主题明显不符的文献,经过筛选,共纳入中文文献31篇。

现有的关于人工智能伦理问题的文章多从社会和技术两个层面出发来讨论分析,而技术层面又多从算法和数据入手,如周吉银等(2019)认为人工智能的伦理问题主要由算法的自主学习能力所衍生,目前人工智能是否会伤害人类取决于赋予其任务的人类是否有伤害人的目的;刘荣(2018)认为智能医学中存在的伦理问题主要包括“数据歧视”和医疗数据安全;董青岭(2018)认为人工智能存在算法逻辑中的道德困境,在没有或无法植入社会正义理念的情境下,有可能塑造社会新的阴暗面;而从社会角度出发审视人工智能伦理问题的则有伍敏敏(2018)认为人工智能引发的伦理问题主要包括道德主体地位问题,责任伦理问题,隐私保护问题;郭建伟等(2018)认为人工智能可能带来的伦理问题主要体现在人类是否应当给予其一定的“人权”及如何解决人工智能在生产、生活中造成的过错;陈默(2018)认为在人工智能辅助医疗的医患关系伦理机制建设中存在如何定义人工智能的身份、人工智能辅助医疗是否具有特殊性、为人工智能设计道德程序是否可行的问题;王银春(2018)认为对人工智能进行道德判断需要区分人工智能本身的道德评价问题及人工智能研发与应用后果的善恶评价问题;王军(2018)认为人工智能的发展可能引起道德决策风险,并在现实生活层面对环境、医疗、家庭产生影响,还可能导致人的异化;包桉冰等(2018)认为医疗人工智能会对人的道德主体地位、责任认定、隐私权保护带来伦理风险;罗诚等(2018)认为基于图像识别的人工智能主要存在数据质量、患者隐私、监管、政策法规方面的问题。

正如曾毅研究员所说,人工智能以往的发展是主要以技术驱动的,人工智能的研发者、管理者对于社会潜在的影响往往考虑不足。作为引领新一轮科技革命和产业变革的新技术,人工智能在技术发展,推动健康产业进步的同时,模糊了虚拟和现实、数字和个人的界限,并衍生出诸多复杂的伦理问题和法律问题。现在,我们所要应对不仅仅是弱人工智能,还有可能即将面对紧随科技飞速发展而至的强人工智能乃至超人工智能,因此未雨绸缪,及时采取有效的应对措施才能让人工智能更好地发挥正面影响。本文拟从人工智能健康产业的发展现状出发,以人工智能技术层面的数据和算法作为切入点,结合健康产业的特殊性以及一些国际上较有影响力的人工智能共识讨论健康产业人工智能伦理问题的产生原因以及应对措施。

3 健康产业人工智能技术现存伦理问题及其产生原因的分析

3.1 现存伦理问题

3.1.1 数据效率与数据正义:数据质量安全问题

人工智能技术发展主要依托于云计算和大数据技术,数据是其发展的主要动力来源,大规模医疗数据能够提高人工智能判断的准确性和拓宽其适用性,健康大数据的应用是远程医疗发展的基础,是以低成本改善医疗资源分配不均问题,减少社会医疗支出的伟大技术进步,国务院已在2016年6月将医疗大数据纳入了国家大数据战略的布局。

大数据能大幅提高人工智能技术的准确性和有效性,人工智能在健康大数据的基础上,通过“深度学习”,从海量病例中自动分析并获得规律,继而利用这些规律对未知数据进行预测,达到对疾病的“未病先防,既病防变”。从技术发展的角度出发,准确地采集健康大数据,加速医疗人工智能技术进步,造福更多人,是发展的必然。然而这就构成了一对矛盾,一方面,健康大数据对我们的健康状况、经济条件、人际关系甚至生物基因等信息都进行了详细的记录,允许大数据的无限采集和存储,无疑为隐私信息的泄露埋下隐患,需要予以一定程度的规范和限制;另一方面,“健康大数据”这个词本身就暗示着对诸多个人信息的无限采集和存储,并且还要是准确、没有错漏地进行存储,因为优质且海量的数据是医疗人工智能得以进行“深度学习”的根本。医疗数据在采集过程中将如何保证数据的质和量,在应用过程中将如何保护个人隐私以及数据安全,这些问题一环扣一环,已经构成了数据质量安全问题群。

可以想象,如果采集到的数据可信度不高,将会影响到整个医疗大数据库的建设,甚至造成人工智能健康产品在应用中出现误诊漏诊等问题,现在个人的健康信息大多由医生、护士或社区工作人员进行采集,这种采集方式是否能完全保证数据的输入没有错误尚且存疑,即便能保证采集过程中不出差错,数据的“质”能够得到保证;那么,数据采集的“量”有无边界,到达哪一个阈值将造成严重的隐私泄露又成了另外一大难题。健康大数据有其特殊性,它的失控所带来的风险是我们难以承受的,如招聘单位、学校、医院可能会通过个人健康状况作为是否聘用、录取、接诊的重要参考,加剧艾滋病患者就业、就学、就医的歧视;拥有大量用户数据积累的企业一家独大,造成垄断等。而针对健康大数据所进行的隐私保护也存在着种种问题,目前大多产品都带有“服务协议”和“注册协议”,然而它们大多只是取得了用户“形式上的授权”,数据采集行为是否是患者自愿接受的?患者的健康信息应该由谁来采集?患者医疗数据应用有没有合理的范围限制?如果发生患者隐私数据泄露事件,该由谁来承担责任?要解决这些问题任重而道远,我们应当明确的是:在追求数据效率的同时,不要越过数据正义的底线。

3.1.2 算法黑箱与算法的“法律”:工具理性与价值理性的平衡问题

基于大数据和人工智能的算法服务依靠精确描绘用户画像,精准把握用户需求,对其进行针对性服务,给人们带来了良好的服务体验,缓解了数字时代信息过载的压力,该技术还能尽可能地减少人为错误,充分发挥工具理性。但这并不意味着我们来到了理想的“算法乌托邦”。

医疗行为中,疗法的选择从来不是出于数字符号定量阐释下的统计学上的经验或智能算法的结果,在循证医学的理念中,临床决策的作出,就涉及最佳临床研究证据、医生个人经验和患者价值观及选择性偏好三个基本要素[8],定量的数字符号并没有办法将这些要素量化为一个个的算法单元,而患者的健康行为选择常常是以价值观至上而非以效率至上的价值理性行为,是人依据自己的信念和要求所作出的行为,患者完全有可能因为文化信仰而不接受某种药物或者疗法。这种决策在以目的至上的“算法”看来或许有些“不可思议”,但这提示我们,在享受算法带来的便利的同时,我们不能忽视那些蕴含于价值理性中的思想意识、义务、尊严、美、规训等信念,在健康产业中的人机交互中,我们应当注重工具理性与价值理性的平衡。

3.1.3 责任认定问题

2018年,Uber公司开发的无人驾驶车在美国的一次道路测试中撞死了一名骑自行车的人,这再次将人工智能肇事的责任认定问题摆到我们面前[9]。正如无人驾驶车不能永远游离在法律之外成为伤人的“利器”。医疗机器人也不能永远游离在制度与规则之外,成为害人的“法宝”。医疗机器人是人工智能技术的重大进展,但我们却不能忽视它潜在的伦理危机,就在2018年7月,美国媒体报道称IBM沃森机器人因为给出错误的用药建议而遭遇信任危机,此后沃森项目接连受挫,先是失去了重量级客户,大规模裁员,后是负责人黛博拉离职。

可以想见,如果手术机器人在手术过程中发生医疗事故,后果将不堪设想,而应该承担这次医疗事故责任的是开发者、医生,还是机器人本身?随着科技发展,当我们面临的或许未来已经不只是弱人工智能,我们不得不思考,如果将来某一天超人工智能做出了超出开发者设计意图的行为,其责任认定问题该如何归置?人工智能技术是否能无限开发?有无合理限制?因此有必要加强相关立法,明确开发者、医生、患者、人工智能各方的权利,并针对人工智能建立健全相应的伦理规范。

3.2 原因分析

3.2.1 主体的复杂性

2017年,沙特阿拉伯首都的“未来投资倡议”大会上,机器人索菲亚被授予沙特公民身份,成为历史上首个获得公民身份的机器人,这是在法律意义上首次承认机器人的公民身份,索菲亚的设计师汉森曾说:索菲亚的目标就是像人类一样生活,拥有同样的意识、创造性和其他能力[10]。由此,激起了关于“机器人是否会取代人”的争论。

从康德的“人是目的而非手段”这一观点出发,被设计出来用于种种用途的人工智能肯定是不能被认定为道德主体的。然而,随着医疗人工智能的发展,人工心脏、人工大脑、智能仿生眼球、智能假肢等智能生物辅助设备的出现,人们必将陷入“忒休斯之船”的迷思,试想:如果人的这些生理组成要素都被智能生物辅助设备所替换,那么那个被“置换”后的人是否还是原来的那个人?它是否仍然拥有原来的人所拥有的一切社会关系?仍然承担原来的人所承担的社会责任[11]?

3.2.2 数字化生存:技术的负面效应

目前,人工智能技术发展势头惊人,但其本身却并不成熟,从2016年的“人工智能元年”走来,仅仅经历3年时间,人们还沉浸在这项革命性技术带来的无限可能的畅想和喜悦之中,对其警惕略显不足。历史告诉我们,很多革命性技术的负面效应需要时间才能得到检验,人工智能技术能达到什么程度尚且处于未知,然而这种唯数据和算法生存的模式却可能会将人们的生活方式颠覆,正如尼葛洛庞帝所预言的:“人们的社会生存状态变成了一种数字化的生存”,医疗健康数据的特殊性决定了它是一种典型的高价值数据,因而比起普通的数据更容易形成垄断,而医疗服务又是一种兼具公共性与公益性的服务,是人们生存的必需品,如果由于技术和资源等方面的原因,这些重要的数据只集中在了少数组织或人手里,造成“数据独裁”“算法专权”,就会引发一系列的社会问题,对市场的公平性形成挑战,对健康产业的品牌形象形成打击。

3.2.3 社会规约的不足

目前越来越多重要的国际会议和论坛以及一些颇有影响力的人物都将人工智能作为重点关注议题,国内也对人工智能进行规范化建设作为工作重心,2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,主要强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八条原则,然而这些共识与健康产业结合的效果还有待时间的验证,目前健康产业社会资本非常活跃,市场潜力巨大,但尚未形成有效持久的商业模式;人工智能伦理问题治理成果落地少,研究和讨论多集中于美国和欧洲[12];各个国家研究热情旺盛,但尚未形成人工智能全球治理的态势;法律层面仅有一些与网络安全、隐私相关的法律,尚未有专门针对人工智能的法律出台;国内关于人工智能的研究丰富,但尚未形成产学研用政府共动的局面。

4 结论与建议

人工智能的技术特性,决定了其自身发展依赖于对数据的广泛精准搜集和对算法指令的反复打磨深耕。然而,在将人工智能技术应用于健康产业时,健康数据泄露带来的数据质量安全问题,算法代替传统诊断流程带来的工具理性与价值理性的平衡问题,弱人工智能、强人工智能与通用人工智能之间界限不清所带来的责任认定问题,成了悬在健康产业人工智能技术应用上的三柄“达摩克利斯之剑”,而社会规约的不足则加剧了健康产业人工智能技术应用的伦理风险。

目前诸多国际上较有影响力的人工智能共识,如《Open AI宪章》《道德准则设计》《人工智能联盟信条》都强调在人工智能的设计和使用中要把人类福祉放在首要地位,并且强调加强国际交流,促进科研文化建设。这也为我们思考人工智能在健康产业应用中如何规避伦理风险提供了参考,对于人工智能这样一门涉及多学科、多领域,并有可能颠覆人们传统生存方式的综合性技术,不仅需要国家、科研机构和企业的探索努力,也需要社会公众的积极参与,形成国家-社会-个人共动的态势,而不是我们过去的“科学家发明,企业家出钱,政府盖章,公众尝苦果,人文社科人员收拾残局”的糟糕局面[13]。

首先,人工智能作为国家战略的重要组成部分,应有清晰的发展规划,积极利用人工智能技术应对当下医疗资源分配不均、人口老龄化等问题,并提高伦理审查能力,对其应用进行严格监管,确保责任归属明确后再投放市场;其次,应提高健康产业利益相关者的伦理意识,推动严谨的多学科合作,加强国际交流,探索人工智能智慧医疗新场景,加强安全技术研发,保护患者隐私;最后,对于健康行业的传统从业者,如医生、护士等,要对自己有合理的定位,正如特鲁多医生所言:“有时去治愈,常常去帮助,总是去安慰”,我们不能忘记我们服务的对象是人,与患者之间的感情交流不能完全用人工智能来替代,而同时作为健康行业的专业从业者,“有勇气来改变可以改变的事情,有胸怀来接受不可改变的事情,有智慧来分辨两者的不同”是我们作为专业从业者的责任与担当。在新技术迅猛发展的当下,规范健康人工智能应用,保障患者权益,怀抱人文关怀的初心,与人工智能技术共促健康产业发展,是传统从业者所要承担的历史使命[14]。

猜你喜欢
伦理医疗人工智能
《心之死》的趣味与伦理焦虑
《现代仪器与医疗》2022年征订回执
《现代仪器与医疗》2022年征订回执
灵长类生物医学前沿探索中的伦理思考
新型医疗废弃物焚化舱
护生眼中的伦理修养
2019:人工智能
人工智能与就业
伦理批评与文学伦理学
数读人工智能