论人工智能的刑事责任能力与追究

2019-10-08 07:33曹嘉蓝
克拉玛依学刊 2019年3期
关键词:控制者人工智能

曹嘉蓝

摘要: 人工智能的“行为”能否被认定为刑法意义上的“犯罪行为”以及人工智能的自主行为能否构成足够大的干预以阻断因果关系链条,都是刑法必须回应的问题。文章认为我国应当区分情况讨论不同人工智能的刑事责任能力以及刑事责任分配;强(超)人工智能可以跟人类一样,独立思考与行为,当它们实施犯罪行为时,应当追究它们的刑事责任。

关键词: 人工智能;刑事责任能力;控制者

在过去几十年里,人工智能似乎是科幻作品中的东西。但近年来,人工智能的应用越来越广泛,从计算机科学到金融到医学、从无人机到自动驾驶汽车,人工智能显得越来越智能化,在某些特定领域甚至超越人类智能,如智能机器人AlphaGo在围棋挑战赛中屡胜国际高手。国外一些保险和金融公司以及律师事务所开始用具有认知能力的人工智能系统置换人类雇员。[1]2017年10月,沙特政府更是授予机器人索菲亚以公民身份,开创了历史先河。我们有理由相信在不远的未来,人工智能将变得高度自主,能够不依赖人类而独立思考并作出决定与行为。当这种人工智能造成他人人身和财产损失时,刑法应当如何分配法律责任是当前我国司法领域亟须解决的问题。

一、人工智能刑事责任能力问题的提出

当我们从刑法角度思考人工智能时,首先想到的是刑法最根本的“犯罪行为”的概念。有犯罪,才有刑罚。无论是英美法系还是大陆法系都认为刑法的主要原则是只有犯罪行为才能产生刑事责任,而不是思想、信仰或者是动机。在目前的发展状况下,人工智能的行为基本不符合行为定义。根据现行的关于行为的定义,行为仅仅指人类的行为,不适用于机器。另外,德国刑法学者认为犯罪行为必须由行为者控制和“社会相关”。一般而言,犯罪者使用物体或工具实现期望的结果,犯罪仍然被认为是犯罪者的行为。当犯罪者利用没有能力推理或完全掌握形势和相关的法律含义的不知情的他人时,刑法将操纵他人的人视为行动者。人工智能的行为是否都是刑法意义上的行为,人工智能的行为后果应当由谁承担?其实这是一个问题的两个侧面。人工智能“犯下”的罪行, 例如一辆自动驾驶汽车致人死亡,是否可以归咎于人工智能本身,还是将其归咎于幕后的人——未能重获控制权的司机?还是自动驾驶汽车的设计者?解决这些问题远非易事。人工智能是否具有刑事责任能力是回答上述问题的根本点。只有当人工智能具有刑事责任能力,其行为才有可能被认定为刑法意义上的“犯罪行为”;只有人工智能具有刑事责任能力,方可谈及人工智能刑事责任的承担。人工智能将对刑法理论和司法实践提出新的挑战不仅因为它可能构成刑法意义上新的行为主体,也因为它的行为可以左右相关人的刑事责任分配。人工智能被设计、生产或者是学习和适应社会环境,都取决于它的设计和编程,这必然包括相关的人类活动,如其设计者、生产者或者使用者;当发生人工智能的致害事件时,所有这些人都将被讯问,刑法必须确定刑事责任分配。

二、人工智能刑事责任能力与追究的一般理论

对于何为人工智能,学界仍未达成一个相对一致的概念。人工智能是一个比较笼统的概念,其范围包含但不限于智能机器人、无人驾驶汽车以及其他智能科技产品。人工智能现正处于快速发展阶段,具有一定的不稳定性、复杂性和专业性。在法学界,学者们主要研究人工智能的一般特征。一般而言,人工智能的发展主要分为三个阶段,弱人工智能到强人工智能再到超人工智能。弱人工智能是指仍受人类控制、在特定领域具有专长的人工智能;强人工智能是具有独立判断、选择能力的,可以不受人类控制而独立行为的人工智能;超人工智能则是指不仅能够脱离人类而独立行为,并在各个方面都拥有优于人类的能力。现代社会的人工智能仍处于弱人工智能阶段,如智能清洁机器人。在人工智能发展之初,弱人工智能在社会中发挥着各式各样的作用,但是由于弱人工智能始终受人类智能掌控,其仅作为工具帮助人类完成各类事务,人类并未将人工智能当作一个“人”来考虑,而是将其视为“客体”。但是当人类认识到人工智能在特定领域可以超越人类智能并能感知人类,可以像人类一般思考和行為时,人类开始考虑是否应当赋予人工智能作为“人”的资格和权利。

围绕人工智能的刑事责任能力,主要有“工具论”“法人论”和“电子人论”三种理论。现在大多数学者仍持工具论的观点,认为人工智能仅为人类使用的工具,不具有法律主体资格,进而不具有刑事责任能力;“法人论”与“电子人论”都认为人工智能具有刑事责任能力,但“法人论”认为应当由人工智能的操作者承担刑事责任,“电子人论”则认为应当视人工智能是否具备承担刑事责任的能力而决定其是否应当承担刑事责任。这三个理论都有一定理论依据和道理,但是笔者认为它们判断人工智能是否具有刑事责任能力以及如何分配刑事责任的方式过于简单和直接。既然已经根据人工智能的智能程度把人工智能分为弱人工智能以及强人工智能、超人工智能,就应当区分情况讨论不同人工智能的刑事责任能力以及刑事责任分配,而不能一概而论。

三、重新审视人工智能的刑事责任能力

人工智能的应用程序不断扩展,甚至有人认为人工智能将真正独立于人类并开始自己的生活。因此,它促使我们重新审视其刑事责任能力。

(一)弱人工智能不具有刑事责任能力

就刑法而言,归责原则与独立意识相关,当一个人做出了刑法所责备的选择时,他就会受到刑法的惩罚。刑法预先假定一个人有能力理解他所拥有的自由选择的能力以及他所做每一项选择会带来什么结果。任何对某项行为负有刑事责任的人都应该意识到或者有义务知道并小心避免关于他们行动的结果。如还没有完全理解后果的儿童和有精神健康问题不能完全理解行为后果的人,在刑法中受到了不同的对待。 最终,刑事责任是留给那些有能力理解的人的一种回应,即他们可以选择不这样做。类似的,当我们考虑人工智能是否具备刑事责任能力时,首先需要考虑人工智能是否具有独立意识。弱人工智能并不具备独立的选择和自我意识,因为它仅仅是一种程序,其行为模式不会超越人类设定的程序条件,不能做出独立的判断和选择,只能按照人类设计者或者操作者的指令做事,因此,弱人工智能不具有刑事责任能力。“工具论”的观点能够很好地解释这一结论,弱人工智能在何种条件下做出何种行为,说到底是使用人预先设定好的;弱人工智能只是人类的工具,弱人工智能不具有刑事责任能力,应当由弱人工智能的设计者或者操作者承担刑事责任。

(二)强(超)人工智能具有刑事责任能力

随着社会和科技的不断发展,强人工智能的出现指日可待。强人工智能能够独立判断和选择,其行为可以不受人类控制且无法预测,仍然认为强人工智能仅仅是人类的工具就不再合理,因为强人工智能的自主性和独立性无异于自然人。首先,强(超)人工智能具备主观归责性。强(超)人工智能可以和人类一样独立思考、行为,当它们实施犯罪行为时,应当追究它们的刑事责任。刑事责任主体的基本内涵是辨认、控制能力,将强人工智能机器人作为刑事责任主体有利于维护刑事责任主体基本内涵的统一性,也符合罪责自负原则。[2]智能机器人通过深度学习能够产生自主意识和意志,应当将其定位为不具有生命体的“人工人”[3],应当独自承担刑事责任。另外,强人工智能机器人具有感知刑罚痛苦的能力,将其纳入刑罚处罚范围能够实现刑罚目的,也符合主体拟制的刑事立法规律。[4]如果具有独立思考和自控能力的强(超)人工智能不受刑法的约束将会造成巨大的社会恐慌,因为强(超)人工智能的能力与人类相当甚至超越人类,如果放纵它们犯罪而不加以惩罚,社会上将人人自危。强(超)人工智能是模仿了人类并能逐渐适应环境的物种,根据收到的反馈来解决问题和解决超出预先设定的情况。本质上,人工智能反映了人类处理信息和学习的能力。因此,它可以“决定”如何应对前所未有的情况,并“选择”如何行为。

四、 追究人工智能刑事责任的潜在选择

(一)人工智能的操作者承担责任

1.故意。如果一个人操纵一具人工智能,让它按照他的意愿行事从而犯下特定的罪行,在这种情况下,显而易见的解决办法是坚持操纵人工智能的人对此负责。在这种情况下人工智能与行为者的工具或者动物相类比,工具的移动将被理解为行为者的行为。

2.疏忽大意的过失和过于自信的过失。疏忽大意的过失最适用的场景是将人工智能实施的“意外”行为归咎于人工智能的通常编程者或使用者。人工智能在通常性能范围内可能发生的结果是程序员或使用者应该预见到的,一个简单的例子是一个清洁机器人因为误把人类当作需要清洁的家具进行清洁而造成损害。在这种情况下,设计者或使用者可以预见到这种发展,他们能够采取行动防止这种情况发生。而过于自信的过失则是设计者或使用者实际上已经预见到了相应的危害后果,而因为过于自信,没有采取相应的防范措施导致未知危害结果的发生。一种情况就是设计者或者使用者明知清洁机器人的某件设备出现了损坏,可能导致清洁机器人误伤他人而过于自信地认为这种情况不会发生,最后清洁机器人不受控制并导致他人受伤的情形。

(二)人工智能与控制者成立共犯

当人工智能具有独立意识并能做出独立选择,那么刑事责任的分配将会不同。举例来说,如一个机器人被设计者要求去杀害另一个人,机器人能够独立作出不这样做的选择,但是机器人听从了设计者的指令,杀害了受害者。此时如果认为机器人具备法律主体资格,那么设计者与机器人应当被认定为共犯,承担相应的刑事责任。设计者的刑事责任承担无须多言,根据现行刑法即可做出合适的处理,需要谈及的是机器人的刑事责任承担形式。在强人工智能时代,应通过删除数据、修改程序和永久销毁等契合强人工智能机器人特征的刑罚处罚方式实现刑罚报应和预防的双重目的。[5]如果认为机器人不具备法律主体资格而仅仅是设计者实施犯罪的工具,那么如前所述,仅需要处罚设计者,机器人不会受到任何处罚。但是细思下来这样处理似有不妥。若仅处罚设计者,那么具有独立意识、能够被指令去杀人的机器人则没有得到适当的处置。从这个角度看,具有独立意识的机器人应当被赋予法律主体资格,在它触犯了刑法相关条文时给予适当处罚。

除此之外,还可能发生这种情况:即机器人听从了设计者的指令,但仅造成了受害人伤害的犯罪结果。依照现行刑法,设计者构成故意杀人未遂不存在争议,需要讨论的是机器人的处理。如果认为机器人具有法律主体资格,构成故意伤害罪还是故意杀人罪未遂存在争议,主要看机器人的主观,如果机器人追求的是死亡的结果,那就是故意杀人罪未遂;相反,如果其追求的仅仅是受伤的结果,那就是故意伤害罪。如果认为机器人不具有法律主体资格,如上所述,仅处罚设计者,但此种处理方式有失妥当。另外,如果机器人实施了盗窃等未对受害人的人身造成威胁的犯罪,那么设计者和机器人的刑事责任都有待探究:设计者教唆机器人去杀害受害人,主观上是故意杀人,但是机器人客观上并未实施杀人,故设计者的行为不构成故意杀人罪;但是这里需要说明的是,如果机器人实施的是抢劫罪,其行为导致了受害人受伤,则设计者也应当构成故意杀人罪未遂,因为机器人的客观行为既侵害了受害人的人身权又侵害了其财产权。在机器人实施了盗窃的情况下,人工智能是否构罪以及构成何罪需要考虑,这也是主要取决于机器人的主观。如认为机器人的主观是故意杀人,则机器人不构成盗窃犯罪。如认为机器人的主观是盗窃的故意,那么机器人构成盗窃犯罪。另外,如果设计者指令机器人伤害受害人,但是机器人的行为导致被害人死亡,结论也会不一样。在机器人杀死了受害人的情况下,设计者构成故意伤害致人死亡,机器人构成故意杀人罪还是故意伤害致人死亡还是主要看机器人的主观状态是故意伤害还是故意杀人。

(三)人工智能独自承担责任

法律责任是国家施加給违法者的一种强制性负担,是补救受到侵害的合法权益的一种手段。法律责任是通过法律制裁而实现的,任何法律责任的实现以责任主体的存在和确定为前提。[6]强(超)人工智能产品具有辨认能力和控制能力,既可能在设计和编制的程序范围内进行独立判断并自主作出决策,实现设计者或使用者的意志;也可能超出设计和编制的程序范围,进行自主决策并实施相应行为,实现其自身的意志。[7]虽然人工智能不能像人类一样具有情感认知,但是他们的辨认、控制能力已经与自然人无异,因此,应当赋予强(超)人工智能法律主体资格,将因强(超)人工智能自主决定的行为所造成的危害结果归责于强(超)人工智能。当强(超)人工智能实施了犯罪行为时,应当承担刑事责任。另外,即使强(超)人工智能系受人类教唆、煽动而行为,但是却实施了其他行为的,教唆者不构成共犯,强(超)人工智能也应独立承担刑事责任。如人工智能受人类教唆故意杀人,但却实施了盗窃的情况下,教唆者不构成犯罪,人工智能应当独自承担责任。这时人工智能的行为成为足够大的干预,阻断了原因果关系的链条。

(四)意外

如果人工智能的设计者或者使用者没有任何过错,人工智能发生故障致人损害,在这种情况下,如何处理刑事责任的问题仍然悬而未决。有学者主张替代责任。替代责任的概念主要来自侵权法。在侵权法中,控制他人的人对他们代理人的行为承担替代责任,如雇主对雇员。从这个角度出发,人工智能实际上是“代理或者代表”设计者或者使用者从事行为或者进行决策,可以比照雇主对雇员的责任,让设计者或者使用者承担替代责任,比如,一个公司利用自动驾驶汽车接送客人。但需要注意的是雇主的替代责任仅限于雇员的职务范围,雇主不对雇员职务范围以外的或者非职务的侵权行为承担责任,那么确定设计者或者使用者对人工智能的责任限度和范围将是法律必须回答的一个问题。更进一步说,把这个概念直接适用于刑事案件中是激进的。刑法相比侵权责任法而言必须具有更高的适用标准,因为刑法有可能剥夺自然人的生命或者自由,而侵权责任法更多的是损害赔偿。另外,设计者或者使用者的责任还受很多因素的影响,如人工智能的智能程度以及设计者或使用者对人工智能的控制程度,还有犯罪的类型。严重罪行的门槛应该更高,如故意杀人。引入替代责任可能缓解社会对人工智能造成损害的担忧,更多人会接受人工智能从而使人工智能应用得更广泛;但另一方面,它可能会破坏人工智能进一步发展的潜力,因为设计者或使用者会考虑他们无意的行为可能会使他们负有刑事责任。就这个方面而言,替代责任必须与过失相结合才能成为追究设计者或者使用者刑事责任的方式。如人工智能的设计或者操作失误,否则,这种模式应当完全被抛弃作为追究刑事责任的模式。并不是所有事情都可以或应该受到刑法规制。

五、结语

人工智能未来的发展无疑将给刑法带来了巨大挑战,然而,刑法感受到的第一波震动就是刑事责任的问题。在此背景下,法律研究者以及实务人员都需要重新审视甚至改变刑法的基本理念和适用。关于人工智能刑事责任能力与追究的相关理论仍比较浅显,应当区分不同情况对人工智能的刑事责任能力与追究进行具体、深入的讨论,而不能停留在表面。弱人工智能不具有刑事责任能力,而强(超)人工智能应当具备刑事责任能力,相应地,当弱人工智能触犯刑法,应当由弱人工智能的设计者或者操作者承担刑事责任;当强(超)人工智能触犯刑法,则视情况判断应当由强(超)人工智能独立承担刑事责任还是其与人类构成共犯,共同承担刑事责任;当损害无法归责于人工智能以及任何其他个人时,应视为意外而不追究任何人的刑事责任。

参考文献:

[1]司晓,曹建峰.论人工智能的民事责任:以自動驾驶汽车和智能机器人为切入点[J].法律科学(西北政法大学学报),2017(5).

[2]刘宪权,林雨佳.人工智能时代刑事责任主体的重新解构[J].人民检察,2018(3).

[3]刘宪权,胡荷佳.人工智能时代智能机器人的刑事责任能力[J].法学,2018(1).

[4]刘宪权.人工智能时代我国刑法体系重构的法理基础[J].法律科学(西北政法大学学报),2018(4).

[5]卢勤忠,何鑫.强人工智能时代的刑事责任与刑罚理论[J].华南师范大学学报(社会科学版),2018(6).

[6]公丕祥.法理学[M].上海:复旦大学出版社,2002.

[7]刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018 (1 ).

猜你喜欢
控制者人工智能
个人信息控制权的界定困境与应对之策
我校新增“人工智能”本科专业
个人数据处理行为人的概念界定与划分问题
——基于欧盟范式对我国立法的启示
从“控制者”变身“隐形人”
浅谈中小学财务人员角色转换的紧迫性
欧盟数据控制者的义务:源起、变迁及其缘由*
数据控制者的权利与限制
2019:人工智能
人工智能与就业
数读人工智能