论智能医疗机器人的法律主体人格

2021-11-03 14:28李沁张诗睿卜诗雨李晓晓孟琳
西部学刊 2021年19期

李沁 张诗睿 卜诗雨 李晓晓 孟琳

摘要:在人工智能医疗快速发展背景及我国现有相关法律规范规定下,讨论智能医疗机器人的法律主体人格有其必要性。近年来,国内外学者对是否赋予智能机器人法律主体人格主要分为“主体说”和“客体说”两大类。鉴于我国现有法律对于智能医疗机器人法律主体人格定位的缺失,暂时可以通过扩张解释使其获得法律主体人格。但未来使其成为新的法律主体确为必要,应从设立条件、取得资格、终止要求和主体人格限制等方面进行合理设想,探求智能医疗机器人发展在法律层面的规定与保护。

关键词:智能医疗机器人;法律主体人格;立法进路

中图分类号:D922.16文献标识码:A文章编号:2095-6916(2021)19-0036-03

智能医疗机器人是指应用于医疗的机器人或机器人化的设备,大致分为手术机器人、康复机器人、医用服务机器人和智能设备。智能医疗机器人具有可操作性与智能性。为解决智能医疗机器人深入发展过程中所面临的责任承担问题,需通过界定其法律主体人格来确定它的责任承担原则,明确承担责任的划分界定。法律主体人格,即在法律上作为一个能够维护和行使权利,履行法律义务,承担法律责任的主体的法律资格,具有平等性、独立性等特点。通过探讨智能医疗机器人的法律主体人格,不仅有益于辨析清楚人工智能医疗机器人与公民人格权之间的差别,积极鼓励医疗机构的合法合理行为,保护医方与病人的合法权利,而且有助于司法审判过程中的公平、公正、合理、合法,也有利于构建和谐社会。

一、智能医疗机器人的应用现状

在传统医疗行业资源配备不平衡、人均医疗资源较为匮乏的痛点下,看病困难且昂贵成为社会各界广泛关注的重要问题。随着人工智能的发展,在大数据与云计算等信息技术的支撑下,智能医疗呈现飞速发展的趋势。在2020年新型冠状病毒肺炎疫情的冲击下,社会公共健康安全问题再一次引起了人民的广泛关注。与此同时,人工智能医疗产品如手持式测温仪、红外成像监控仪等的广泛应用对防疫、治疗工作的顺利高效展开起到了重要作用。

近年来,我国公布了关于人工智能发展的有关政策规划,其中智能医疗机器人随着人工智能技术的发展也已进入人们生活的视野之中,“达芬奇”机器人已逐渐应用到临床系统中。中国最早的“达芬奇”机器人是由解放军总医院于2006年引入的,目前全国大约有60多台[1]。因其本身的技术特性,智能医疗机器人在实际临床应用中存在术后缝合不当、术后感染甚至手术失败的风险,从而引发医疗事故纠纷案件。此时,法官如何应用现有法律知识及法律逻辑分析判定医疗事故纠纷案件的因果关系;如何应用现有法律规制与法律规范平衡审判医疗机构与患者及其家属之间的责任承担等问题就显得尤为重要。在人工智能医疗快速发展及我国现有相关法律规范规定下,要想解决因智能医疗机器人而引发的责任如何承担划分问题,关于其法律主体人格问题的讨论与研究是前提。

二、智能医疗机器人法律主体人格的学说梳理

近年来,智能医疗机器人在医疗中扮演着愈来愈重要的角色,国内外学者对是否赋予智能机器人法律主体人格展开过激烈的讨论,观点主要分为“主体说”和“客体说”两大类。

(一)智能医疗机器人法律人格“主体说”

“主体说”认为,鉴于智能机器人人类化的行为,可以给予其法律人格,使其作为民事主体享有法律主体地位。依据所持具体理由不同,“主体说”内部又存在着如下的观点:

1.电子人格说

该学说认为可以给予人工智能医疗机器人一种不同于传统法律主体的人格,即电子人格。但是电子人格法律内涵是什么?谁来申请电子人格?电子人格何时开始,何时终止?设立电子人格又该采取哪种设立准则?诸如此类问题还需该学说解答。

2.电子代理人说

“代理说”认为,智能医疗机器人的行为由人类控制,其行为后果应被代理人承担[2]。在“代理说”中,人工智能医疗机器人与其用户、操作者之间的关系被认为是法律代理关系中代理人与被代理人的关系。“代理说”也存在一些问题,如:电子代理人属于哪种类型的代理,委托代理、法定代理还是指定代理?被代理人如何向电子代理人主张赔偿,等等。

3.有限人格说

该学说认为:“人工智能有自主行为能力,能够享有法律权利,承担法律责任。”[3]所以,智能医疗机器人在此学说下是享有法律主体资格的,但是此种法律人格是有限的,不能拥有完全的民事法律权利和民事法律义务。但该学说仍存在一些局限性:法律人格意味着权利能力,所以能否将其受限制的具体权利等同于其权利能力也受到了限制呢[4]?这些值得我们进一步分析探讨。

(二)智能医疗机器人法律人格客体说

“客体说”的观点主要认为,不能将智能医疗机器人等同于具有自然生命以及复杂思维和情感的自然人,并且也不同于法人。客体说包括以下几种观点:

1.“工具说”

该学说认为,人工智能机器人终究是为满足人类生产生活需要而创作的,应当始终归属于法律关系中的客体。该学说在学界是主流观點,契合了当下正处于弱人工智能社会发展的需要,在司法实践中更具有操作性,但其弊端也有所显现:一是当下部分人工智能技术已经逐步向强人工智能阶段过渡,该层次的人工智能体具备愈加深度的自我学习能力和自主能动性,不再是纯粹地在人类预先的程序设计内发挥其作用,而是会依据其所具备的具有高度的智慧性和独立的决策能力来做出一定的行为[5]。显然,将所有的人工智能医疗机器人囊括在“工具”的范畴与部分高端人工智能医疗机器人实际发挥的作用相矛盾。二是定位为“工具”的人工智能技术在侵权责任归责中虽然能够最大程度地保护受害者利益,但同时也加重了相对方的负担,挫伤了生产制造商创新和变革智能技术的积极性[6],影响着技术的突破和社会的发展。

2.“电子奴隶说”

“电子奴隶说”认为,将人工智能机器人的法律地位与奴隶制时代的奴隶相等同类比,其所做出的行为均由其“主人”,即智能机器人的所有人负责。“奴隶说”虽然在一定程度上认可了部分人工智能医疗机器人具有自我意志的现实,但其本质上属于“工具说”的延伸,况且“奴隶”一词与我国社会价值观中的“平等”观念相悖,“奴隶说”显然在我国社会主流价值观的背景下不具有适用性。