智能社会中人工智能法律主体资格探析

2021-12-04 03:42白玉杰
关键词:主体资格主体法律

白玉杰 张 昱

( 1. 华东理工大学社会与公共管理学院, 上海 200237; 2. 青海大学财经学院, 青海西宁 810016)

一、研究背景

科技的进步与发展带来时代的快速更迭,与农业社会转型为工业社会不同,工业社会向智能社会的转变,其速度、广度和深度都已超出人类的想象。[1]人工智能技术的快速发展已然证明人类进入了万物互联的智能社会。2016年3月,人工智能系统AlphaGo以4∶1战胜世界围棋冠军李世石;2017年7月,AlphaGo与柯洁在围棋人机对战中连胜3局;同年10月,AlphaGoZero通过三天围棋学习,以100∶0战胜AlphaGo;此后,DeepStack程序战胜世界顶级职业扑克玩家,人工智能机器战胜人类的事件频频出现。人工智能几乎成为所有领域谈论的热点,哪个领域若不能与人工智能相联系,彷佛就要被社会所淘汰,智能金融、智能教育、智能医疗、智能交通、智能经济、智能健康、智能能源、智能家具、智能养老、智能公共服务、智能监管等等,涉及人类社会的方方面面。只要有一部智能手机与互联网相连,人工智能就在身边,我们的生活质量瞬间提升,工作和学习效率也大大提高。我们在享受科技进步带来福祉的同时,也会遇到人工智能惹出的麻烦。因为智能社会的发展太迅速、给人类准备迎接的时间又太短,所以当我们面对人工智能惹出的麻烦时,我们既需要冷静客观地思考解决方法,又要以包容的心态对待新技术在应用中出现的问题,只有这样才不会阻碍科技的发展,被破坏的社会关系也能及时得到修复。

智能社会因为科技的迅速发展对原有的社会结构、社会生活方式、经济发展都产生了巨大的影响,许多国家纷纷着眼于人工智能技术的发展,希望无论在技术方面还是相关制度设计方面都能引领世界,因此人工智能技术成为促进社会发展、提升综合国力的重要科技力量。随着人工智能应用的领域越来越广泛,其出现的问题也逐渐引起人们的思考。人工智能技术的发展带给人类社会的负面影响或风险并未因技术的不断革新而消失,相反,人类可能需要不断面对新的甚至更严峻的风险。科学技术的高度发展便是风险社会的特征之一,技术风险是造成社会风险的重要根源。[2]例如,2015年英国首列达芬奇手术机器人给患者进行心瓣修复手术时,缝错了患者心脏的位置、戳穿了大动脉,机器人的“暴走”行为导致患者手术后一周去世,原本是一场最尖端医疗技术的展示,没想到却成为一桩惨案。[3]无人驾驶汽车因交通事故导致车内人员伤亡。人类阅读人工智能在文学创作领域的生成物时,竟无法辨别出该文学创作是出自一个不具有情感的机器人之手,使得人类的尊严有受到威胁的紧迫感。人工智能的发展依赖于大数据,而大数据环境下人类的隐私泄露又成为人工智能领域所面对的一个重大风险。上述种种问题已经引发各国政府考虑如何让人工智能在符合伦理道德和法律的范围内健康有序发展。

我国在2017年7月颁布《新一代人工智能发展规划》,将人工智能的发展作为国家战略。《新一代人工智能发展规划》明确提出“以加快人工智能与经济、社会、国防深度融合为主线,以提升新一代人工智能科技创新能力为主攻方向,发展智能经济,建设智能社会”的要求。习近平总书记在2018年10月的中共中央政治局第九次集体学习会议上明确指出:“想要抓住新一轮科技革命和产业变革机遇要依靠人工智能技术的发展。”[4]但我们也应当看到,人工智能技术的飞速发展,给人们生活带来极大的便利,同时因法律制度的滞后性无法跟上人工智能技术迅速发展的脚步,致使无力解决伴随人工智能出现的一系列社会问题。民法领域关于人工智能致人损害可能因不具备法定条件而无法认定责任主体,受害人权益无法得到保障;人工智能小冰创作的令人难以区分是人还是机器所作的诗歌问世后,在知识产权领域掀起不小的涟漪,人们讨论小冰应否成为作者、她所创作的诗歌应否受著作权法的保护?刑法领域讨论最多的是应否重构法律结构赋予人工智能法律主体资格以及创设适用于人工智能的新刑罚种类等等。由于人工智能技术风险的形成与技术方法本身、经济利益、技术的社会组织和管理活动中的人为因素等都可能有关,所以在确定人工智能损害责任主体时面临一个庞大且复杂的关系网,在既有法律制度框架下,想要合理认定责任主体显得非常困难。随着长沙、北京、上海等地自动驾驶出租车服务的开放[5],自动驾驶汽车离大众的生活越来越近。在人们为新鲜科技产品跃跃一试的时候,无论是在无人驾驶车里的人还是行走在路上的行人,一旦因无人驾驶汽车的失灵遭受损害,应该由谁负责?这样的问题如果不能很好地解决,将会严重阻碍人工智能技术的发展,只有研发没有应用市场的科学技术是走不远的。可以说,人工智能已经向传统的法律制度发起了挑战,考验人类如何做到既要保障人工智能技术快速稳健地发展,也要保护因人工智能受到侵害的法益。因此人工智能造成损害后如何确定责任主体以及如何弥补和恢复受害人损失,是当下研究的热点问题,也是维护智能社会稳定,保障科技持续发展的必然要求。

二、对应否赋予人工智能法律主体资格的讨论

理论界将导致人工智能引发损害的原因力大致分为两种:“内在原因力”和“外在原因力”。“内在原因力”是指人工智能基于一定的算法对大数据的深度学习,能够具有自主性和认知特征,不受人类控制拥有独立自主地作出判断的能力。“外在原因力”多指不良用心的人利用人工智能技术威胁他人的生命和财产安全,甚或是利用人工智能机器对某一国家发动战争等等。无论是“内在原因力”还是“外在原因力”,学界对属于人类编程控制之下人工智能致损的责任认定的认识及态度是统一的,即由人工智能机器的研发者、设计者或使用者、销售者等相关主体承担责任。但对未来可能出现的超出人类编程控制的具有自主决策意识的人工智能的侵害行为的认定,以及著作权领域人工智能应否具有法律主体资格而获得相应著作权利,学界有着完全不同的看法和态度。有学者认为责任应以谁决策谁承担为原则,故而,人工智能的损害责任也应以此为原则,即对于超出人类设计程序范围之外独立决策并实施决策行为的人工智能赋予法律主体资格并让其独立承担特殊的法律惩罚。有学者则极力反驳,认为人工智能机器无法具备人的生物性特征,机器的行为均是在人的程序编制输入的框架内实施,不应打破以人为中心的法律框架,急于将人工智能纳入法律主体结构中予以规制,要求其承担义务和责任甚至接受刑罚惩罚并不现实。

人工智能应否具有法律主体资格,是人工智能可否享有权利、承担义务的前提。所以是否赋予人工智能法律主体资格,是讨论人工智能规范治理的逻辑起点,因而也成为学界讨论的焦点。目前,法学界存在两种观点,即不应赋予法律主体的否定说和应当赋予法律主体的肯定说,此外,在不断争论过程中还出现了第三种声音——“伪问题论”。

(一)否定说

持否定说观点的学者坚持法律主体“二元论”,认为现有的法律体系之下,法律主体为自然人和法人,人工智能不具备像人类一样的思维和独立自由的意识,是完全依赖于人类的程序设计和编制,体现的是设计者或使用者的意志,应由人工智能的设计者、制造者或使用者对人工智能造成的损害承担法律责任,而人工智能不应该也无法获得法律上的主体资格。朱建华和甄航认为人工智能在神经、心理、语言、思维、文化方面都无法达到人类的水平,其只是在人类程序和指令设计范围内对人智能形式上的简单模拟,即使在可预见的未来,具有自主意识的强人工智能仍然处在朴素的科学设想阶段,若将人工智能提升到人的高度,有损人之所以为人的尊严。[6]魏东认为人工智能犯罪在生成过程和内在逻辑上只能是“算法安全犯罪”,而算法是否安全取决于自然人或法人这样的社会关系主体。[7]叶良芳和马路瑶认为人工智能在善恶观和伦理观上不可能具备像人类一样的认知水平,将人工智能作为犯罪主体不具有正当的科学立法的依据。时方通过细致的法理分析,指出人工智能无法具有刑法上的主观要素即自主性, 也就不能具有人的意识理性所支配的承担责任的基础, 因而人工智能欠缺作为刑事责任主体的本质要素。[8]齐延平在其论文中提出对科学技术的研究发展领域中具有极大不确定的预测性问题,法学研究与法律建构应对其保持适当的距离,以免对法律的稳定性造成不必要的冲击和紧张关系。[9]针对当前刑法学者热衷将“人工智能纳入刑事责任主体”为代表的文献在2018年出现井喷式增长,冀洋在其论文中表露出自己的疑惑,不知此种现象到底是属于法学研究的“最前沿”还是法学面对科技迅速发展表现出的“急不可耐”?或是学者在参与流行话题讨论时为了“抢占高端话语权”?其在疑惑之余也表达了自己的看法,认为刑法作为最后的保障法,应在其他部门法之后慎重表态。[10]总而言之,人工智能虽作为一项重要科学技术,每个国家都在支持人工智能技术的研发,主要目的是展现一个国家的科技力量与水平,绝非是想以未来强人工智能代替人类或对人类构成威胁,因而人工智能技术的发展依然能够被人类所控制,无论何时,人工智能所实施的行为都会是某一个(或一类)特定人的意思表现,故无需改变传统的“二元主体结构”。此外,由于人工智能无法具备人一样的善恶观和伦理观,无法具备自主意识,因此无论是现有刑罚制度还是针对人工智能创设新的刑罚种类,都不具有可行性。

(二)肯定说

肯定说的论者认为应该重构法律责任主体,在自然人和法人之外将人工智能设立为新的法律主体,即“三元主体论”。持该观点的认为在强人工智能时代,人工智能可能因为强大的深度学习能力,能够脱离人的控制,自主决策并实施决策行为,因此产生的危害结果应由人工智能自身承担,这样就需要给人工智能赋予法律主体资格。[11]学术界将人工智能拟制为新的法律主体的观点不在少数。皮勇笼统地承认强人工智能机器人应具有犯罪主体性。[12]刘宪权教授在其文章中提出,当强人工智能在人类的程序设计之外自主实施危害社会的行为时,该强人工智能便具有行为的辨认和控制能力,即具有刑法意义上的刑事责任能力,其应独立承担刑事责任[13],然而承担刑事责任的前提则是人工智能首先要被赋予法律主体资格。王肃之建议参考法人主体的设计思路,构建以法律拟制模式为主的人工智能刑事主体资格,使人工智能被纳入刑法主体范围。[14]徐慧丽提出以法人制度为参考,以限定性、工具性为特征赋予人工智能以电子人格。[15]不少持肯定说的学者认为,以人工智能的发展速度和深度学习技术来看,可能在不久的将来,出现的强人工智能便能够拥有自主意识和意志支配下的辨认能力和控制能力,为此,传统的法律制度无法调整或规范强人工智能在自主决策下的机器行为,因而需要改变传统的法律主体结构,以便在法律适用上体现行为主体需对自己实施的侵害行为担责的归责理论,避免法律制度成为人工智能快速发展的障碍,导致人工智能技术的萎缩。持肯定观点的论者相信将来的强人工智能机器可以拥有像人一样的思维,可以超出人的程序设计范围自主实施违反设计者或使用者本来目的的行为。根据刑法上定罪与处罚需以实施的行为为判定基础,因此,如果人工智能超出设计程序范围自主决定实施的危害行为,在设计者和使用者能够证明自己对危害结果的发生没有过错的情形下,如果再追究设计者和使用者的刑事责任就违背了罪责刑相一致的原则,此种情形下,就需要由人工智能本身作为主体来承担相应的责任。

(三)伪问题论

除了上述否定说与肯定说完全对立的两种观点以外,还有人认为,未来人工智能具有类人的思考、像人一样独立自主决策并脱离人的控制实施侵害人类的行为,并将人工智能作为可归责主体属于无稽之谈的“伪问题”,实无讨论之必要。[16]持该种观点的学者完全独立于否定说与肯定说,认为当下人们不值得花费时间和精力去探讨一个未来尚不知能否研发出具有独立思维的人工智能该不该获得法律主体资格以及归责问题。笔者询问身边不同职业的人对强人工智能将来是否会拥有独立思维及自主决策能力的看法,大多数认为这是不可能实现的。但笔者认为,这种对人工智能不可能拥有独立思维和自主决策能力的看法是普通民众的朴素认知观,而法学研究者,应具有一定的风险意识及更高的认知程度,对法律在人工智能的规范上应该具有前瞻性,应设想未来强人工智能的出现可能引发的风险,而不能因为强人工智能是否会真实发生尚未可知作为回避讨论这一难题的借口,因为不同观点的争鸣与探索可以引起人们的重视,况且,需要对人工智能的发展作出具有前瞻性的立法布局,是世界各国面临的法律难题。

人工智能应否被赋予法律主体资格的不同观点,在某些方面各有其合理性,但结合人工智能特征进行分析,便会发现上述观点都有不能解决的问题。首先,人工智能机器无法具有生理学上的人的构成要素,不是细胞而是电路、元件和编码的构成,这是机器与人的根本区别。李建伟教授认为人工智能所表现出的行为与人类有目的有意识的行为是完全不同的,人工智能虽在一定程度上能够模拟出和扩展人的智能,但因其不具有人的心性和灵性,因此人工智能无法获得法律上的主体资格。[17]该种观点在对待人工智能超出人的程序设计之外所实施的侵害行为(此种情形下设计者或使用者无过错)的责任承担上,因人工智能不具备人的本质特征不能赋予法律主体资格问题上,显得心有余而力不足。其次,有论者建议参考法人制度的设计,通过法律规定将人工智能视为具有拟制人格的法律主体,以便符合一定的法律精神和法律归责理论,笔者认为此举亦不可行,因为法人本是人合或财合的组织,这些组织也都是由人组成,最终所体现的也是人的意志,虽然法律规定法人以其全部财产承担责任,但法人的财产来源于出资人的财产出资,让法人承担责任的后果直接会影响到出资人的财产利益,因而以法人名义实施的行为基本都是经过出资人的审慎考虑。而强人工智能是根据自己的独立意志作出决定并非是人类意志的体现,所以人工智能同样不具备可赋予拟制法律主体的法理依据。再次,在“三元主体论”的观点中,有学者提倡突破传统法律主体结构,为人工智能设定新的法律主体地位,成为独立于自然人和法人之外的第三种法律主体。笔者认为,法律制度自随着国家的出现而产生,它始终是以人为中心,法律调整的终究都是因人的意志和行为而发生的法律关系,强人工智能虽然在未来可能有自己的意识和独立决策行为,但它始终无法具备人类的本质特征,且笔者认为人工智能的发展始终会且必须受控于人类,我们没必要在当下迫切地去改变伴随人类几千年的法律价值和法律理念,况且滞后性是法律的特征之一,法律也无法规制未来不确定是否能发生的事情。

三、人工智能无需拥有法律主体资格的论断

法律在对人工智能的规范上要有一定的前瞻性,应该设想未来强人工智能的出现所引发的风险,但就目前对人工智能有计划地在一些特定领域发展及未来发展方向仍以人类为主导的原则来看,人工智能不会取代人类,只要人们对人工智能的研发设计始终遵从全人类认同的发展规则即可。物理学家斯蒂芬·霍金曾多次表示人工智能可能会毁灭人类,弗里曼·戴森认为“技术只会给我们提供工具,人类的欲望和制度决定了我们如何利用它们”[18]。故而如果全人类建立起对人工智能在研发设计和适用方面的统一规范标准,限制人类恶意研发和使用人工智能,那么,人工智能必然会为人类创造福祉。对于因人工智能的独立自主决策行为致人损害,其损害的社会关系完全可以通过其他途径获得恢复和补偿。我们不应该以人工智能可能会实施损害行为而倒推必须通过赋予人工智能法律主体资格来要求人工智能对自己行为造成的损害承担法律责任。人工智能是人类创造出的为满足人的生活和工作需求,提升人的生活水平和工作效率的一种为人类谋福祉的工具。可以从以下角度分析具有工具属性的人工智能是无需拥有法律主体资格的:

1. 人类对人工智能具有可控性,其无需获得法律主体资格。人工智能属人类科技创造物,无论其未来自主能力怎样,终究是以人类编制的程序内容为基础、以人提供的信息数据内容为学习对象,故人类对其具有可控性。《人工智能标准化白皮书2018》中对人工智能进行定义,人工智能是利用数字计算机或者数字计算机控制的机器模拟、 延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。故人工智能是科学技术的发展结果,作为科学技术,始终都要以服务人类、服务社会为终极目标,都必须以尊重个人或某种情况下尊重有关群体的人权、基本自由和人的尊严为前提。[19]人工智能作为一种工具,只因这种工具在为人提供服务的过程中,超出人类的控制对人或财产造成伤害,就要为其赋予法律主体资格并让其对自己造成的损害承担责任,与人一样成为并列的法律主体资格?人之所以成为法律主体,是因为这个世界本身是由人组成的,社会的发展是由一代一代的人在推动,社会的文明也是由人类在创造,人与人之间的交往互动组成了社会,人们创造法律就是为了规范所有的人能够在这个社会中按规则行事,维护自己的权益也保护他人权益不受侵犯。笔者认为,无论人工智能怎样发展,它都不可能成为主导社会发展的主要成员,也不可能成为延续社会存续和创造社会文明的力量(只有人才能实现社会的存续及文明的创造)。因人工智能对人造成的伤害,按现有法律制度就可以解决,没有适当规则解决的情况下,还可以创设其他规则来实现对损害的弥补,以及由其他主体来承担相应的法律责任。从这个层面来看,人工智能是无需具有法律主体资格的。

2. 人工智能不同于法人组织,无需通过法律赋予其拟制的法律主体资格。法人是法律上拟制的人格,目的是便于其他人或其他组织与法人进行交易,或某个法人组织便于以自己的名义独立开展活动,推动和保证社会及市场经济的发展。法人是人的集合,法人的意志是由其成员共同决定,法人的权利和义务也是由其成员享有和履行,法人基于其成员的出资拥有独立于出资人的财产,享有一定的财产权,法人的责任既有法人承担也有其成员承担的责任,即使法人承担了财产责任,最终还是由其成员体验被惩罚的痛苦感。人工智能是人的创造物,并非由人组成,人工智能是人们满足生活和工作需要的工具,设计者、研发者、使用者、所有者并非是其成员,每一个主体对人工智能在设计阶段、研发阶段、使用阶段应负有不同的责任,人类按照事先设计的程序为人工智能输入指令让其工作,即使人工智能通过自主决策实施某行为,都不应认为是以它自己的名义实施。由于人工智能并非人的集合,其没有独立财产,无财产权也无承担法律责任的基础,若是由人工智能承担法律责任,无论是人工智能还是人都体会不到被惩罚的痛苦,故而人工智能也无需获得拟制的法律主体资格。

3. 法律主体作为法学上的一个源于人的尊严、人格而形成的重要理论范畴,是对人的本质的一种法律抽象。人作为法律主体,享有生而为人的生命健康、尊严与其他权利,并在一切社会交往过程中体现自我意志。即使是作为法律拟制主体的法人,按照法律规定享有法人权利、承担法人义务,其法人意志是其组成人员共同意志的体现,并由其代表人执行法人的意思决定。对人工智能而言,即使将来强人工智能能够脱离人类编制的程序进行自主决策并独立实施某种行为,这终究不是体现人的意志也不是借助人的行为来实现人工智能机器的意志,其始终不会脱离物或者工具的范畴。故而对法律主体范围的界定始终不应离开以人为中心才能实施活动的情景。法律发展至今,法律主体的认定问题上只有是或不是的两分法,没有中间状态,如准人格的概念。我们不能因为未来的强人工智能有自主决策自主行为的能力,而赋予人工智能类似却又不同于人的主体资格,让人工智能基于获得的准人格享有某类权利承担某类义务或责任。这势必会打破人与人、人与社会的互动规则,破坏社会的公平正义规则。如果人工智能拥有法律主体资格,由于其科学技术性、高度专业性,加之现有法律制度下的谁主张谁举证的举证责任,普通公众受人工智能的侵害后,几乎没有能力举证证明侵害行为是由人工智能自主决策行为造成的,只要受害人无法证明是人工智能自主决策行为致害,那么受害人就要承担举证不利的后果。即使在人工智能侵害案件中,适用举证责任倒置,聪明的比人类反应还快的人工智能怎么可能老老实实自证有错或有罪呢。所以赋予人工智能法律主体资格,将会大大增加受害人举证难度。设想这样一个场景:法庭上,原告席坐着人,被告席上坐着一个人工智能机器(人),法官席上坐着一位或几位人类法官,大家就被告人工智能机器(人)的侵害行为展开法庭审理。人类与一台人工智能机器(人)对簿公堂,且该机器(人)在主观上并不能产生像人类那样的我做错了的认知,恐怕不是人类所能接受的。

4. 现有法律制度并非完全失去对人工智能的规范效力,且法律制度可以随着社会与科技发展而做出调整。人工智能研发和使用过程中的相关人员在法律理论上都有成为承担责任的可能性,即使没有责任主体,我们的法律制度及法律原则都有能力修复被人工智能破坏的社会关系,无需由一个智能机器(人)来承担法律责任。未来的人工智能可能拥有脱离人的控制自主做出决策的时候,但其做出决策所依赖的程序及数据仍然由设计者或使用者操作和决定,人工智能的行为离不开人,其在工作过程中产生的侵害行为可以由设计人、研发人、使用人或管理人在不同阶段因未尽到谨慎注意义务或上述人员行为不符合相应技术规范、法律伦理规范等,由个体或是多个责任主体共同承担损害责任。即使人工智能的设计人、研发人、使用人或管理人因不存在主观过错而不涉罪或侵权,且受害人自身也无过错的,对于受害人的补救可以根据人工智能的使用范围及影响力,按照民事法律制度中的公平补偿原则,可对受害人予以一定的补救。并非由人工智能以主体身份承担责任才是恢复受损社会关系的唯一有效途径。如果人工智能需要以赋予法律主体资格的方式承担责任接受惩罚,那么是否也应赋予动物法律主体资格以便于承担致人伤害的责任?至少动物相对于人工智能这样的机器或者应用系统而言,被法律处以生命刑的时候,动物会感觉到疼痛,而人工智能被删除数据、销毁时不会有丝毫的疼痛感。如:狗作为人类喜爱的动物,是可以在其意识范围内决定自己是走是跑还是卧着不动,能决定往哪个方向走,决定吃或不吃,但狗一旦伤了人,除受害人自身有过错外,即使饲养人主观上没有过错,都要承担责任。此种情形下,狗伤害他人的行为,纯属饲养人意志之外,法律并不会要求狗来承担责任而会让饲养人承担相应的责任。如果饲养人故意唆使狗实施伤害他人的行为或在看管狗的过程中因过失对他人造成严重的危害后果,饲养人的行为可能就构成犯罪,仍然要对狗伤害他人的行为承担法律责任。同理,人工智能机器应用到社会生活中,也能找到对他负责的法律主体。根据导致人工智能侵害行为发生时的原因,可以确定承担责任的主体,如果无法确定谁存在过错,受害人也无过错的情形下,根据民法公平补偿原则由人工智能机器的受益者或设计者、研发者、使用者、管理者和所有者按比例或平均的方式共同承担法律责任,如果受害人也有过错的,按照过错程度承担相应的损失。这种做法一方面可以促使人工智能的设计者、研发者、使用者或所有者时刻谨记审慎注意义务,严格让其行为符合人类制定的技术伦理规范和法律制度,以防利用人工智能侵害他人权益;另一方面通过普遍认可和接受的技术伦理和配套制度规范的约束和保障,可以促使人工智能在有序良好的社会环境中快速而稳健地发展。

人工智能在未来的发展中,即使具有自主决策能力,那也是基于人类编程和提供的信息数据内容使然,并非是具有意识能力。我们与其激烈地讨论未来强人工智能应不应该被赋予法律主体资格的问题,还不如静下心来,与人工智能相关的其他学科领域的专家、技术人员进行配合,探讨如何制定出保障人工智能健康发展的法律伦理规范以及相应的责任承担分配措施,将人工智能可能带来的风险控制在技术规制的范围内,即使符合技术伦理规范而研发的人工智能对他人造成侵害,我们也可以通过其他途径来保护受害人的合法权益。正如国务院颁布的《新一代人工智能发展规划》中提出设立追溯和问责制度及法律伦理规范,目的是为了通过法律制度保障人工智能技术的顺利发展,并对因人工智能可能引发的社会风险进行法律规制,这应是我们目前探讨和寻求解决的方向。

四、择取他法,维护并修复社会关系

人机协同是智能社会发展的必然过程,所以人工智能在某些情形下可能对人类造成伤害,致使智能社会的社会关系遭到撕裂,我们需要探寻合适的方法,以修复被撕裂的社会关系。

1. 加快完善人工智能的技术法律伦理规范,探究人工智能技术活动中利益与风险的分配问题。技术风险的承担者与技术成果的受益者往往并不一致。随着人工智能技术后果影响的累积性、长远性和危险性的加大,对单个技术的技术后果进行评价也会越发困难。这就要求我们从体制上为人工智能技术的发展规划一个合理的符合正义要求的框架,以保证技术活动中利益与风险的分配正义。我们必须通过不同学科的交叉研究,既不能脱离人工智能相关的技术理论去谈法律规制,也不能脱离法律思维去谈人工智能技术活动中利益与风险的分配及法律责任问题。国家应鼓励有条件有能力的高等院校培养兼具人工智能相关专业知识与法学知识的综合性研究人才,以解决人工智能技术法律伦理规范研究领域的人才不足、综合性专业水平不够的问题。这样我们才能更深入了解人工智能的技术研发以及应用等领域出现的问题,进而根据实际需要制定相应的风险管理和控制制度,科学且合理地规范人工智能技术活动中利益与风险的分配及法律责任相关的制度。

2. 参照《民法典》侵权责任编关于动物致人损害或物件致人损害的规定,将人工智能视为“物”或“特殊产品”,在《民法典》的侵权责任编增加关于人工智能致人损害的责任分配规定。(1)受害人无过错的情况下,人工智能致人损害的,可根据无过错原则,由人工智能的设计者、研发者、使用者、管理者和所有者对人工智能的致人损害结果承担责任,无法证明人工智能的设计者、研发者、使用者、管理者和所有者谁有过错的,就由设计者、研发者、使用者、管理者和所有者共同承担连带责任;如果人工智能的设计者、研发者、使用者、管理者和所有者有证据足以证明自己与人工智能致人损害无关,则无须承担责任。(2)人工智能致人损害,受害人有过错但该过错并不是导致损害的主要原因,且人工智能的设计者、研发者、使用者、管理者和所有者没有证据证明自己无过错的,可根据人工智能致人损害行为产生的背景或可能引发的诱因,由受害人、人工智能的设计者、研发者、使用者、管理者和所有者共同承担责任,能确定责任比例的按比例承担。(3)人工智能的设计者、研发者、使用者、管理者和所有者因故意或重大过失的行为导致人工智能在设计程序之外自主决策致人损害的,对上述人员可根据《刑法》规定的相关罪名定罪处罚,受害人同时可依据《民法典》规定主张相关主体承担赔偿责任。(4)由于人工智能技术是高深且极其专业的技术,因此举证责任分配上应采用举证责任倒置制度,由相应的人员证明自己负责或掌控的阶段或领域内不存在问题,以证明自己不承担法律责任。

3. 借鉴对机动车辆的管理模式,通过设定保险的方式分散或降低人工智能致人损害的法律责任:(1)赋予每一个人工智能机器独立且唯一的编号,设置相关的行政管理部门,对人工智能机器进行备案登记以便统一管理。(2)制定用于不同领域的人工智能的研发设计制造的技术标准(例如为提供养老看护服务的人工智能机器制定相应的研发设计制造的技术标准),参照汽车年检制度,规定人工智能需进行定期的安全及性能的检查,以保证人工智能机器在深度学习过程中始终符合自身及对外界的安全性的要求。(3)参照车辆强制保险和商业保险制度,对可能存在不确定风险的人工智能要求其研发者、设计者、使用者、管理者和所有者根据自己所处的位置购买相应的强制责任保险或其他商业保险,不仅可以减轻人工智能的设计者、研发者、使用者和所有者因人工智能致人损害而无法避开的风险,同时也保障受害人在保险人的责任限额内获得相应赔偿。通过借鉴机动车管理模式及制度,不仅能有效保障受害人的合法权益,更能促进人工智能技术的持续发展,保证人工智能技术活动中利益与风险的分配正义。

五、小结

根据人工智能技术导致的风险在法律责任承担方面具有多元性、复杂性等特征,在不改变现有法律结构的基础上,通过完善相应法律规范、法律伦理和技术伦理规范,通过研发技术规范、使用规范、安全检查标准等方式规范技术研发行为、应用行为,监督管理对人工智能的设计、研发与安全检查,明确不同情景中人工智能损害的责任分配规则,从源头控制好人工智能的研发目的和方向、使用目的和行为。总之,对人工智能的发展,法律应为其保驾护航,而不是通过规范的形式束缚人工智能的发展步伐,也不是以牺牲法律的稳定性及法律价值为代价,应兼顾法律规范的执行效果以及人工智能领域技术风险防控能力的建设,立足于全球发展,以全人类命运共同体为着眼点,要为人工智能的发展提供强有力的制度保障,同时也要保障智能社会的社会秩序的稳定及和平,正如克隆技术一样,各国政府和整个学术共同体在克隆技术领域制定了严格的准则和公约,保证了克隆技术在全世界范围的有序发展,唯有如此,才能实现科技为人类服务的终极目标。

注释:

[1] 杨述明:《新时代国家治理现代化的智能社会背景》,《江汉论坛》2018年第3期。

[2] 王 前:《技术伦理通论》,北京:中国人民大学出版社,2011年,第165页。

[3] 《英国首列机器人心瓣修复手术以失败告终》,2018年11月10日,http://www.elecfance.com/d811794.html,2021年1月3日。

[4] 胡 喆:《抓住新一代人工智能发展的重大机遇》,2018年11月1日,http//www.xinhuanet.com//2018-11/01/c_1123649864.htm,2021年1月3日。

[5] 2020年10月,百度自动驾驶出租车服务在北京全面开放,设置了数十个自动驾驶出租车站点;2019年9月26日,百度阿波罗自动开放道路智能驾驶长沙示范区正式启用,数据显示,截至2019年12月底,长沙已累计实现了一万次以上的安全载客。2020年6月27日,滴滴出行在上海首次面向公众开放自动驾驶预约服务。

[6] 朱建华、甄 航:《人工智能刑法“主体性”否定:缘起、解构、反思——以认知科学的五个层级为基础》, 2020年4月27日,http://kns.cnki.net/kcms/detail/50.1023.C.20191225.0926.002.html,2021年1月3日。

[7] 魏 东:《人工智能犯罪的可归责主体探究》,《理论探索》2019年第5期。

[8] 时 方:《人工智能刑事主体地位之否定》,《法律科学》(西北政法大学学报)2018年第6期。

[9] 齐延平:《论人工智能时代法律场景的变迁》,《法律科学》(西北政法大学学报)2018年第4期。

[10] 冀 洋:《人工智能时代的刑事责任体系不必重构》,《比较法研究》2019年第4期。

[11] 王耀彬:《类人型人工智能实体的刑事责任主体资格审视》,《西安交通大学学报》(社会科学版)2019年第1期。

[12] 皮 勇:《人工智能刑事法治的基本问题》,《比较法研究》2018年第5期。

[13] 刘宪权:《人工智能时代刑事责任与刑罚体系的重构》,《政治与法律》2018年第3期。

[14] 王肃之:《人工智能犯罪的理论与立法问题初探》,《大连理工大学学报》(社会科学版)2018年第4期。

[15] 徐慧丽:《人工智能法律人格分析》,《西北大学学报》(哲学社会科学版)2020年第1期。

[16] 魏 东:《人工智能犯罪的可归责主体探究》,《理论探索》2019年第5期。

[17] 杨立新:《论智能机器人的民法地位及其致人损害的民事责任》,《人工智能法学研究》2018年第2期。

[18] TSCHIDER C A.,“Regulating the Internet of Things: Discrimination, Privacy, and Cybersecurity in the Artificial Intelligence Age”,DenverLawReview,vol.96,no.1(2018),pp:87-144.

[19] 参见《人类基因宣言》,1997年11月11日,经联合国教科文组织第二十九届会议通过,1998年11月27日,又经联合国大会批准,成为国际文件。《人类基因组宣言》有四条基本原则:人类的尊严与平等,科学家的研究自由,人类和谐,国际合作。

猜你喜欢
主体资格主体法律
强化述职评议 落实主体责任
法律的两种不确定性
论碳审计主体
文明养成需要法律护航
何谓“主体间性”
法律讲堂之——管住自己的馋嘴巴
略论意象间的主体构架
环境污染侵权案件实务中的问题研究
环境公益诉讼主体存在问题及对策
政治法律