医疗人工智能前沿研究:特征、趋势以及规制*

2021-12-02 06:06周文康费艳颖
医学与哲学 2021年19期
关键词:伦理医疗机器人

周文康 费艳颖

由于医疗行为本身为社会所必需,人工智能(artificial intelligence,AI)作为引领世界科技前沿的战略性技术,将AI嵌入医疗领域,以AI技术创新驱动、AI高质量供给引领和创造医疗新需求,医疗AI将不断呈现创新发展及高速增长的态势,有利于从更高层次、更广范围保护患者的生命健康安全。进一步说,人体本身就是一座大数据库,AI要补足最后一里路,医疗AI已经推动了数字化健康革命,促使医学领域产生了巨大的改变。AI的介入使得深度学习、智能机器人、大数据等在医疗领域的应用成为可能,也使得精准医疗与AI深度整合,连接医患双方、医疗器械等医疗行动主体和介质,以技术创新为依托,结合制度转型,促进医疗AI创新研发。

新冠疫情的防控,更是彰显了医疗AI诞生的初衷:帮助医生从重复性劳动解救出来,促进解决优质医疗资源稀缺的问题。但是,医疗行为本身具有高度的复杂性、不确定性和风险性。据此,科技风险与医疗需求将推动AI规制的政策伦理在本体、价值、运行和实施等方面创新变革,尤其亟需在医疗大数据的规范、智能机器人的调适、算法伦理的治理以及准入机制的完善四个方面打好制度基础,形成一个向外AI临床运用、向内数据反馈与底层AI反向驱动的圈层式创新联盟。

1 医疗AI创新发展的现状特征

医疗AI通过深度学习、智能机器人、医疗大数据等应用,打通了“院前预防”“院内临床”与“康复路径”,打造了全新的智慧诊疗模式。以日本最新的JOIN模式为例,该架构能够提前获得患者信息,通过AI分析结果就能够预先制定急救计划,并同时告知手术室、急救室等数个医疗关系者,缩短抵达后伤检判断时间,以达到提升急救成功机率与减轻后遗症的目标,推动实现急救医疗模式的架构创新。

1.1 深度学习是医疗AI技术创新的基础领域

机器学习是指在数据模型与参数调校的协助下,通过分析数据从而达到预测目的。深度学习则是在机器学习的基础上,通过解释数据以获得内在的规律和理论。在深度学习中,“如果是A,就会演化为B”的单纯对应关系,逐渐发展到“A为前提,如果是B,可能会演化为C”的多层判断。此时便不再需要依赖人工来完成初步对比和信息输入,而是通过其不断的自我运算完成对医疗数据的自动识别。在医疗实践中,深度学习常见的两种模型架构主要为卷积类神经网络和递回类神经网络。前者较常用于与图像分类、语音辨识或特征萃取的相关研究,而后者属于一种有记忆性的类神经网络架构,可使用于与时间序列或易受时间影响的相关研究[1]。例如,从当前数据库中搜集青光眼的症状图像,将图像进行RGB通道及灰阶的图像进行特征萃取并用于卷积类神经网络进行训练,其结果能达到100%的辨识准确率。基于深度学习在图像辨识的成效显著,医疗AI可以大幅降低医生负担,并减少医疗错误,这也使得AI在医疗影像诊断领域被广泛使用。基于算法逻辑的软件程序和大数据分析技术提供创新支持,研究人员还可以系统建立全程全周期的观察网,从个性化功能需求出发,突出细分化领域应用,寻找基因、生长环境、生活形态等危险因子与疾病间的关系,并以医院为媒介利用基因、影像来定量计算危险因子以实现综合防控。另外,具有算法存储与集成特征的AI为数据集成式创新提供了可能性,增强了医疗AI前沿研究在更多条件集下的方案测试[2],完成了对疾病的重新分类,实现了诊疗模式的创新重构。

1.2 智能机器人是医疗AI创新应用的重要形式

基于AI可能会改变医务人员雇佣方式及配置方式,创新医护服务模式,加快医生的能力分流,并最终落脚在医疗任务、医疗技能和医务人员/AI劳动力成本的创新匹配上。因此,“AI+机器人”被视为医疗AI的下一个创新与投资风口,日渐成为整个社会关注的焦点。目前,医疗机器人大致可以分为四类:手术机器人、检查机器人、护理机器人以及导诊机器人。手术机器人可以监测手术环境、结合患者的术前信息和及时高解析的成像,建构更完整的智能微创手术系统以补足外科医生技能,例如,达芬奇机器人手术系统涵盖扩大15倍~30倍的空间三维视觉以及过滤手的微颤等诸多优势,适宜在狭窄的手术空间里开展精细的操作[3]。对于检查机器人来说,放射科的报告清单将不再只是依照检查时间先后排序,而是根据AI怀疑病灶的急性或重要程度来排序。护理机器人是将护理工作与机器人深度融合,以满足身体障碍人士的特定需求。导诊机器人主要通过人机交互以达到科室导航、就医流程引导等功能[4]。由此可见,智能机器人不仅为医院及患者提供了工具支持,更创造了一个有着全新参与方式、全新互动模式及全新相互关系的崭新的医疗生态[5]。近期,美国首度开发了全自动手术机器人——STAR(smart tissue autonomous robot), STAR自主手术机器人正在逐步向临床阶段迈进。由此,强AI状态下智能机器人对医疗过程和结果的影响大大加深,“AI”医生有望真正在临床得以实现。我国近年来也致力于普及AI辅助诊疗、机器人智能护理等新应用,全面提升医疗机器人的智能化水平。最新的例证是,上海中医药大学和复旦大学联合创新研发了中医机器人,不仅提高了面诊、舌诊和脉诊的精准度,还通过深度学习整合丰富的中医经验,被视为“中医+AI”领域创新的成功实践。

1.3 医疗大数据是医疗AI创新发展的关键要素

随着医疗数据库的不断壮大,医疗AI也逐渐从早期的“数据整合”阶段过渡到“数据共享+感知智能”阶段[6]。例如,IBM的Watson系统允许将患者与临床试验者的数据进行匹配,协助肿瘤科医生制定个性化治疗方案。医疗AI可以依据医疗数据对患者进行病况预测,包括并发症的发生率、致死率、回诊率等,以促进医疗资源公平分配。例如,谷歌于2008年便针对棘手的流感展开了建模趋势研究,基于内部搜索引擎中用户的浏览数据量化预测流感的发展轨迹[7]。目前已经进入认知智能+健康大数据阶段,极大创新了医疗服务提供方式,患者和公众可以更多参与并突破时空限制,例如,借由穿戴装置掌握病况和搜集数据,以获得健身建议与疾病警告。AI诊疗方式的精准化,促使医疗AI体系进行科学布局,为医疗体系协同创新构建奠定信息化基础。但是,高度不透明的数字化医疗设备却逐渐使得数据安全成为疑虑[8],长此以往无疑会降低公众对医疗AI的信任,对AI的创新研发极为不利。值得注意的是,就连医疗影像本身都有机会对患者进行再识别,如使用大脑影像将脸部构造进行重组后,便可以成功地再识别患者。

2 医疗AI的发展方向与风险识别

基于医疗AI创新发展的现状特征,对于医疗AI的趋势研判应当在整体观察的基础上辩证分析:一方面,医疗AI的技术创新正处于强力突破阶段并持续不断进行中,对医疗生态圈或者诊疗模式会产生颠覆性影响,未来会快速成长、变动性高、可能将于几年内到达极峰等趋势。另一方面,鉴于医疗AI的自主性、应急性与不确定性,其自身发展的各类风险尤其是伦理问题已经日益凸显,再加上现行的法律法规以及规则指南已无法涵盖涉及医学AI研究所提出的伦理和法律要求。因此,对于医疗AI的风险识别也是趋势研判的关键环节。

2.1 关于医疗AI创新的发展方向

2.1.1 建构深度学习的全新模式

一方面,深度学习架构与电脑辅助算法最大的差别在于如何定义“特征”。“病灶”的轮廓是由临床医生手动进行圈选标注,通过分析“病灶”与“正常组织”之间的差异进而制定出最合适的阈值。而深度学习在“特征”的决定上都是由深度卷积神经网络通过多次学习后才逐渐定型,有限的数据资源是限制深度学习发展上的主要原因。随着医疗AI与精准医疗的深度融合,精准医疗又为AI的发展提供了大量带标签的理想数据样本,医疗AI在诊疗过程中产生的医疗数据又成为新的大数据内容,并且持续不断地良性循环。研发人员据此可围绕实际应用场景对图像识别、传感器联结、深度学习、神经网络等领域继续深耕,提升诊疗的规范度和创新度。另一方面,医疗AI架构的形成,不仅是病灶外围轮廓的圈选,更重要的是合乎病灶特征的“语意描述”。现阶段的医疗AI都是仰赖电脑自动产生的“特征集”作为分类依据,其运算速度虽然快速却明显缺乏具有临床意义的描述信息,这在证据为主的传统医疗领域难以被真正接受[9]。对此,可以预见的是未来应当以深度学习为基础,以临床经验为补充,致力于将其转化为国际医疗影像标注标准(annotation and image markup,AIM)数据格式,并在训练样本充足的前提下作为深度学习模型的训练依据[10]。

2.1.2 创新人机协同的诊疗体系

未来,从问诊、配药、消毒、运输乃至手术等各个环节都存在真实的自动化需求。此次应对新冠疫情的成功经验表明,人类面对重大疾病和突发公共卫生事件的防控迫切需要发挥智能机器人的替代性作用。可以预见的是,一旦AI的技术应用获得突破,便可以依托科学培训体系迅速“量产”出一定数量的AI医生,以扩大医疗服务队伍。随着强AI的诞生,智能机器人完全有可能独立于医生而具有自行运作、推理、决策、行动与反思的能力,智能机器人作为“人造医生”是可以预见的必然趋势,其诊断结论基本等同于医生的诊断结论,也同医生一样会出现误诊,甚至赋予其主体资格使其承担责任也是医疗AI创新到特定阶段的现实需求。如此一来,势必会加快实现医生的能力分流,以后的情景可能是:医术高超的医生让AI做助理,而水准不济的医生则要做AI的助理[11],并适时调适医生和AI的综合水准作为注意义务的标准,以患者利益为导向,鼓励公平竞争。当医疗AI的创新度达到技术标准、普及度达到固定指标时,还可以对现有的分级诊疗模式进行创新优化,形成以患者为中心的智慧医疗分级诊疗新模式,实现机器人与医生的优势互补。此外,由于复数决策的创新机制可以在很大程度上避免错误,“AI决策—医生复查”可能成为医疗创新的常态[12]。

2.1.3 依托“认知智能+健康大数据”助力精准医疗

目前,医学数据的碎片化、数据利用的低效性及不连贯性等问题阻碍了医疗数据的开发与应用。未来在医疗AI的应用基础上,依托认知“智能+健康大数据”的模式,精准医疗和AI真正实现了交集整合、相生相进、系统生发。具体来说,医疗AI可以对医疗数据进行综合提取与交叉分析,通过高效计算和精准匹配使得个性化健康管理成为可能。由于个人肯定会受整个群体及地域的影响,现在更要将精准医疗自然延伸到公共卫生领域,整合基础研究与临床实践,打造以数据为基础的医疗模式,聚焦人体基因、环境因素与复杂疾病的相互关联,准确计算危险因子以及致病概率,对传统医疗领域进行了颠覆性地创新改造,见图1[13]。此次新冠病毒传播路径复杂,疫情防控多次出现技术瓶颈。也正因为如此,新药研发面临研发周期长、研发成功率低和研发费用高三大痛点问题。凭借算法和算力优势,医疗AI不仅可以压缩新药测试周期,降低防控成本[14],还可以通过深度学习等方法对疫情发展进行精准预测,以实现加速研究、设计及制造新药物、预测药物脱靶效应及毒性等。

图1 精准医疗与AI模式

2.2 关于医疗AI发展的风险识别

2.2.1 医疗AI的数据伦理问题

规范层面,2018年原国家卫生和计划生育委员会研究制定了《国家健康医疗大数据标准、安全和服务管理办法(试行)》,国家立法开始着重优化医疗大数据保护和利用的法治环境。但是,目前我国对医疗大数据“保护”与“发展”两方面的规则均缺位,医疗AI作为关键技术优势的特定应用领域更没有对应的专项制度设计。实践层面,医学AI通过用户提供、自动采集、间接获取等方式采集大量训练数据和应用数据,用于训练模型或推断预测,一旦存在数据造假、偏倚以及不完整等问题,将直接影响医疗AI的有效性和安全性,甚至可能通过数据鸿沟造成算法歧视/偏见,扰乱社会伦理秩序。具体而言,数据伦理问题主要表现在以下几个方面:(1)数据源头管理中的权属争议始终存在。从本质上讲,个人数据主体(如用户、消费者、数据生产者)和数据处理者(如商业实体、数据开发利用者、数据创新者)的利益冲突短时间内无法得到根本解决,严重阻碍了医疗大数据应用效益最大化。(2)由于数据控制权不在受试者或者患者方面,医院和研究者可以单方面对医疗健康数据进行处理,往往也没有向受试者履行知情同意。进一步说,采集数据时是否履行知情同意、如何保障知情同意顺利进行、在研究过程中谁来监督知情同意实施情况等都是亟待明确的议题。(3)数据采集和共享过程中要长期持续地收集有关遗传密码、性格特征等敏感数据。个人数据的易获取性导致隐私数据的潜在价值被深度挖掘且更难控制[15]。(4)AI的出现使得学术研究与临床使用的隐私界线产生了模糊地带,临床产生的医疗数据被AI统合分析应用于研究上,或者研究/临床的数据经过由医疗AI转换为研发数据,此种非商业与商业的目的转换值得警惕[16]。其中,人体基因组数据的泄露使潜在的生物危害和商业利益冲突更为突出。有数据表明,59.72%的公众顾虑个人隐私泄露问题[17]。

2.2.2 医疗AI的责任伦理问题

在不同的技术发展阶段,AI有着不同的功能定位,其伦理的供给需求也不一样。而且,人工智能伦理风险的产生取决于研发和应用主体的风险决策,而风险后果则与人工智能全生命周期内的多个利益主体相关,因此人工智能伦理风险分析需要着眼于多利益相关主体[18]。在弱AI阶段,AI在医疗活动中不能脱离人类,也不能做出独立诊断行为,医疗AI中责任主体仍是研发者、生产者以及使用者。一方面,AI时代医疗服务和产品的地位及医疗决策过程正发生微妙变化。虽然各国均强调在医疗领域应确保医生的最终决策权,但医疗的实际决策过程很可能转变为“人工智能决策-医生验证复查”的模式,这种“先入为主”的影响恐怕是巨大而难以阻挡的[19]。另一方面,自助型的看病体验可能会使医生的专业权威甚至职业受到威胁,诊疗过程中医生的主体功能明显被弱化,医患之间的情感交流可能产生根本性断裂,从而引发医患之间的信任危机。现实层面,医生对于医疗AI的全面接受需要明显的过渡期。甚至,智能机器人手术的自身缺陷与算法的伦理疑虑,传统的“医患问题”有可能发展出新的“信任危机”。

2.2.3 医疗AI的算法伦理问题

(1)算法的黑箱属性。通过机器学习过程形成的决策越来越难以解释AI内部的代码、算法存在的“黑箱”,再加上设计者通常以商业秘密为理由拒绝公开算法,导致其决策过程是不透明的且难以理解。(2)算法的歧视隐患。算法并非价值中立,也可能带有人为歧视。尽管这种歧视可能并非有意为之,不同人群的伦理判断标准可能不尽相同,可能出现超预期的道德成本。(3)算法的安全问题。诚前所述,深度学习神经网络算法多为动态学习算法。如果数据不全或本身偏见都将会导致综合分析的结果偏离预期,部分干扰数据可能会被无限放大,一旦相关干扰数据流入预测模型,将会使系统产生偏差。

2.2.4 医疗AI的法律监管问题

目前,医疗AI应属最高等级的“物”,属于医疗器械。但是,传统监管方式已经明显滞后,显然不能因应医疗AI的创新发展,其主要表现在以下几个方面:(1)传统的监管方式要求大多数医疗AI执行严格的、耗时的资料审查、临床试验等过程。但是,医疗大数据可能会随时更新,再加上审查时长过长,这些都将会在一定程度上扼杀医疗创新。(2)传统的监管方式还容易导致过度监管或监管不足双重疑虑。过度监管包含将所有黑箱属性的医疗AI全部归类为风险最高的第三级医疗器械,这无疑在一定程度上扼杀医疗创新。监管不足的问题则是当监管单位未经严格监督时,制造商有更多的空间来生产低质量的AI产品,这些AI产品供应可能导致消费者受损并降低消费者对AI的信任度。(3)2018年新修订的《创新医疗器械特别审批程序》明确规定了对创新医疗器械实行优先审评程序。由于我国之前便存在审批队伍能力差异较大且基层审批人员专业性缺乏的困境,该条文的出台必然会导致医疗AI申报增多,加重了审批队伍人员的工作负担[20]。

3 医疗AI创新发展的优化路径

3.1 构建开放安全的健康医疗信息环境

3.1.1 建构数据开放的诱因机制

我国应当建立数据流通的激励机制,其运行逻辑大致可借鉴日本的医疗AI数据管理系统[21],见图2。在实施方面,第一,建立国家级的健康医疗大数据云平台。建立面向医疗AI的公共资源数据库、标准测试数据集和对抗数据集,健全共享共通的数据标准规范,促进信息化平台协同运作。第二,加强匿名化数据供给以加快科研机构医疗研究,建构厂商配合且授权第三方的价值再利用机制,将开放数据提供给潜力厂商进行强化信息的创新应用加值,并确立数据库的锁定、备份与恢复等应急预案机制。第三,鼓励公众提供去识别化数据,通过一定程序的加工处理使个人数据不再具有私人属性。其中,去识别化的方式包含以编码、加密、去连结或其他无法辨识当事人等方式,不以去连结作为去识别化的唯一方法。此外,特定机构管控去识别化程度时不宜单一因素检验,全面衡量数据类型、敏感程度、数据提供方式等指标进行综合判断。在符合数据标准化与安全规范的基础下,建构数据开放授权的诱因机制,提高健康医疗数据的市场化程度。

图2 医疗AI数据管理系统

3.1.2 多维协同保护医疗大数据

(1)加强医疗大数据保护的顶层设计:其一,坚持“最少必要”原则与“必须知道”原则,前者为达到目的而使用最少且必要的数据,后者为获取医疗数据的范围仅以业务相关为限。必要时可借鉴英国设立专门的医疗AI控管中心以维护患者利益。开创以患者为中心的信息系统以促进患者的信息赋权。其二,完善知情同意的制度设计,尤其是对于弱势群体商业使用的立法选择或者临床试验阶段受试者的知情同意权都必须更为谨慎。需要注意的是,医疗大数据的伦理审查在借鉴发达国家成功经验的同时,还应当根植于我国的现实国情,注重中西方数据保护观的层级差异性。而且,医疗大数据背景下的知情同意原则与实现方式发生着重大改变,往往无法像传统方式一样在完成必要告知后才签署知情同意书。假设健康医疗大数据信息采集前过度寻求患者的知情同意,不仅成本过大反而会增加患者额外的心理压力,损害了患者的最佳利益甚至是公众利益。因此,医疗大数据知情同意授权应从公民的基本权利与义务切入,始终秉承“鼓励创新,包容审慎”的原则,规范医疗数据公益与私益的重叠使用。相关的例证是,传染病防控视域下个人权利应当让渡给公众健康等公共利益,具体可考虑在事先进行授权,通过伦理审查后向社会公众公开[22]。(2)企业、高校以及科研机构应当加大隐私保护的技术开发,保证数据使用“适度”。一方面,平衡好精准医疗训练样本的拟合度,有效遏制过拟合现象对预测结果的负面干扰;另一方面,把控训练样本的拟合精度,只提取与预报量相关度高且它们之间相关为零、没有复共线性关系的主分量[23]。最终,通过数据收集、数据清洗、伦理批件确认、脱敏确认等操作形成标准作业程序有效缓解抽样偏倚问题[24]。

3.2 调适智能机器人的责任伦理

3.2.1 尽快构建明确的伦理规范和归责制度

基于智能机器人的自身特点,一方面,智能机器人的拟人性。尤其是在强AI状态下,智能机器人已经完全具备了因应不同医疗情景的“思考力”和“决策力”;另一方面,所有智能机器人演算的基础资料、演算方法、价值判断都是由人类预设立场提供的[25]。事实上,医疗AI在本质上并没有摆脱其作为一种技术的本质属性,它的自主性实质上最终转换为技术自主性问题。对技术伦理问题的讨论归根到底是对人的问题的探讨,机器只能被设计成遵守规则,却不能理解规则,应站在“人”的立场上对现实存在的责任伦理进行理性审度[26]。在规制智能机器人所衍生的风险责任时,既要塑造优质的创新环境,又要防止严苛标准对积极性的负面打击。考虑到医疗AI在不断地学习和进化,严格的产品责任显然不利于技术的创新和发展。因此,应遵循最小化原则和程序化原则,制造缺陷与设计缺陷应统一适用无过错责任原则。同时,现阶段的医疗AI产品责任应当适当软化,以合理替代设计原则代替消费者合理期待原则。此外,为覆盖强制责任保险无法控制的侵权风险,还应当组建补偿医疗基金进行管理与执行赔偿,并以此作为强制责任险的补充。

3.2.2 全面提高医生的医疗水准和道德标准

(1)医疗AI的选择是首要前提。基于医疗实践进行反向思考,对于医疗AI的不当选择主要包括作为和不作为两种情形。作为情形主要是指使用前医生需要充分了解医疗风险或者按照安全说明运作设备,否则推定为过失。不作为情形主要是指医疗AI的使用符合“医疗常规”的标准,并达到诊疗规范的要求却未使用。例如,使用医疗AI的手术并发症发生率为0.5%,但医疗文献上记载某传统医生的手术并发率为5%,在术后并发症患者中有90%系因没有使用医疗AI所致,患者能以高达90%的盖然性证明对方存在过失[26]。需要注意的是,医疗AI的选择需要结合患者病情、治疗风险、应使用而未使用医疗AI所生损害的大小、损害发生的机率、可能的治疗成本以及患者的经济负担等予以综合判断。(2)医疗水准的提升是关键要素。医生熟练掌握机器人的执行技术并且能够及时对手术导致的并发症进行妥善处理。以手术阶段为例,医生的注意义务主要包括:严格遵循操作规范的义务、按照事前预案合理应对突发情况的义务、需改变手术方案时告知患者及其家属的义务等。(3)道德伦理的培育是重要条件。在人机协同的新型诊疗体系中,医生是唯一的道德主体。必须坚定以医生为主导,AI为辅助,从而更好地服务患者。医学侧重于对以人为主体的情感关怀,患者需要的也是有真实情感和知觉的“人”[27]。医生应当秉持保密性、中立性、不偏性等价值追求,促进“情感培育”式创新,由单向诊疗思维向关怀互动模式转变,注重沟通方法的多样性,把握沟通技巧的有效性,疏导不良情绪,规避不利因素[28],以有效预防和修补医患双方的内在情绪与外在关系。

3.3 构建协同管控的算法伦理风险防范路径

3.3.1 建立健全伦理审查委员会以嵌入价值导向

伦理审查委员会的职能在于制定医疗AI的伦理标准并对伦理问题进行专门审查,将医学伦理学原则和法律准则嵌入到算法中,发挥AI专家、医学专家、伦理专家、法律专家的协同作用,并在尊重民族文化差异、宗教信仰不同的基础上探讨和建构一个多层次多角度的伦理风险应对系统。具体而言,伦理审查内容主要包括两个方面:一方面,对研发人员进行伦理审察。审查研发人员的道德伦理也成为防范AI道德伦理风险中至关重要的前置环节。算法决策程序渗透着研发者的道德素养,因此,规范伦理教育、增进算法设计者和开发者的伦理自觉,并在自主和智能系统的设计和开发中优先考虑伦理问题[29]。另一方面,对医疗AI本身进行伦理审查。尤其是在强AI时代,AI的自主选择甚或超出研发人员的预制,对医疗AI本身的道德伦理约束就显得尤为必要。在审查过程中以患者的需求为出发点,运用伦理规范捍卫个体尊严,充分尊重患者的各项权利和意愿。尤其是,缺乏伦理上可接受的代价产生时必须坚守某些特定、绝对的基本权利,如尊重患者、服务社会的伦理意识应贯彻始终,患者利益至上的安全原则不容撼动。

3.3.2 创新监管模式以保证算法决策科学可信

(1)规范道德伦理技术预制。所谓技术预制,主要是对医疗AI预先设置具有道德和伦理倾向性的处置机制,使医疗AI具备危险鉴别能力和道德倾向性,力求通过对医疗AI所包含的程序进行事先审查与前置管理,以最大程度地避免算法歧视。(2)完善多方共治的良性机制,企业、研发机构、政府和社会公众等主体应当相互配合、联防联控,确保利益与成本之间的平等分配、个体和群体不被歧视或受偏见。为保证信息公开透明,研发机构要定期向公众和监管机构报告其研发的进程。针对算法本身过多强调数据相关性而暴露出的分析偏差缺陷,引入因果推理概念补偿这些偏差[30],避免出现因算法缺陷而产生产品缺陷。(3)建构事前与事后双重监管机制,上市前要求持有人负起举证责任以确保医疗AI的有效性及安全性,尤其是算法设计者首先应该对训练数据的来源及可靠性加以说明;上市后则持续追踪关于医疗AI的市面使用,监控算法的运行状态和运行结果,防止数据库或算法模型被篡改以保障算法安全。此外,可考虑建立专门的算法监管机构,对算法进行风险评估、调查算法系统涉嫌侵权等情况、为其他监管机构提供关于算法系统的建议[29]。

3.4 完善AI在医疗领域的准入管理

3.4.1 制定注册技术指导原则并科学调整监管范围

我国应当加快制定医疗AI注册技术指导原则的步伐,细化相关产品申报审批的具体程序与实体要求。美国食品药品监督管理局(Food and Drug Administration,FDA)对于医疗AI的监管抱持开放且积极的态度,尤其对于低中度风险的AI器械逐渐采取放宽审查,促进技术创新与医疗进行更密切的互动。具体来讲,第一,只有涉及核心医疗领域的医疗AI才有必要纳入监管框架。第二,医疗AI生命周期短暂,不像生命周期长的药品可以历经漫长的临床试验。因此,即使属于核心医疗领域的医疗AI,在确保安全性和有效性的同时也应当强化审批流程弹性以提升审查能力,简化医疗AI的应用认证机制。第三,借鉴美国的“突破性医疗器械计划”,对于可以有效诊断或治疗危及生命或不可逆转的使人衰弱的疾病,FDA可以在AI器械开发期间以及上市审核过程中与企业进行密集互动与实时沟通指导,加快医疗AI的实质创新速度。

3.4.2 创新注册审批队伍建设的支持机制和培训体系

我国应当尽快完善注册审批队伍建设机制,增加监管机构的资金投入。在物理设施上,加大对医疗AI有关的大型科研设施和图书馆的建设,为科学研究提供基础研发设施。在信息化设施上,拓展更新医疗AI信息数据库,开放共享的医疗技术创新平台。具体而言,第一,完善AI领域医疗平台模式。推动创新系统、专家体系、用户群体在AI平台中实现多元互动,以开放式协作模式建立“每个人都使用的AI判读系统”,鼓励公众理解和参与医疗AI研究。第二,加大人才引进力度。建立医疗AI审批人才精准引进机制,通过产学研医生态环境整合的诱因机制,加快科研成果转化行业应用,建构完善的跨域应用人才培育环境,保障审批队伍的专业化程度。第三,建立医疗AI审批培训体系。明确医疗AI审批的业务流程、管理标准与产品规范,逐渐完善技术审评制度,统一审批标准尺度,以提高审批人员积极性和执行力。

猜你喜欢
伦理医疗机器人
《心之死》的趣味与伦理焦虑
《现代仪器与医疗》2022年征订回执
《现代仪器与医疗》2022年征订回执
新型医疗废弃物焚化舱
《白噪音》中后现代声景的死亡伦理思考
伦理批评与文学伦理学
遇到疾病,如何医疗
华语科幻电影中的“伦理性”想象
机器人来帮你
认识机器人