哈利维的人工智能犯罪观及其启示

2019-02-19 08:56彭文华
上海政法学院学报 2019年4期
关键词:利维法人刑法

彭文华

2016年,随着AlphaGo Lee以4:1击败围棋世界冠军韩国棋手李世石,人工智能引起人们的广泛关注。2017年以来,人工智能及其法律问题成为学界研究的热点,与之相关的各种学术会议可谓接二连三。人工智能引发关注,与其近年来的飞速发展密切相关。2017年10月,谷歌旗下DeepMind公司研发的AlphaGo Zero能够在空白状态下无监督自主学习,并在围棋对弈中取得辉煌战绩。①2017年10月19日凌晨,在国际顶级学术期刊《自然》(Nature)上发表的一篇研究论文中,谷歌下属公司Deepmind报告新版程序AlphaGo Zero横空出世。AlphaGo Zero从空白状态起,在不需要任何人类输入的条件下迅速自学围棋。在自学围棋72小时后,AlphaGo Zero就以100:0的成绩击败AlphaGo Lee;自学40天后,AlphaGo Zero以89∶11击败AlphaGo Lee的升级版AlphaGo Master。与AlphaGo Lee和AlphaGo Master不同的是,AlphaGo Zero是无监督学习的产物,而前两者均使用了监督学习的方法。以前,人工智能在认知智能上面临的最大挑战之一是从零开始,以超人类的水平学习复杂概念的算法。AlphaGo Zero则跨越了这个阶段,在人工智能发展史上具有里程碑式的意义。这表明AlphaGo Zero的神经网络“大脑”可以进行精准复杂的处理,可以实现编程自动化,并可能产生与人类相似的自主意识和思维,在人工智能发展史上具有里程碑式的意义。而智能机器人索菲亚则能识别人类面部、理解语言,与人类的互动和眼神交流,还会开玩笑。②2017年10月26日,由美国汉森机器人公司设计制造的“女性”机器人索菲亚(Sophia)被授予沙特公民身份,她也因此成为史上首个获得公民身份的机器人。索菲亚拥有橡胶皮肤,其“大脑”采用了相对高级的人工智能技术和谷歌语音识别技术,因而能识别人类面部、理解语言、记住与人类的互动,和人进行眼神交流,甚至还会开玩笑。参见黎史翔、陈薇茜:《首位机器人公民原型为赫本》,《法制晚报》2017年11月3日。

人工智能给人们工作、生活等带来巨大便利的同时,也会造成危害,这自然会引起人们对人工智能之法律规制的关注。其中,对人工智能犯罪及其法律规制的研究将不可避免地成为人们关注的重点,这不仅在于刑法保护的法益重大,而且在于刑法规制人工智能会面临许多复杂难题。事实上,早在1983年,华盛顿州立大学教授奥古斯特就提出过机器人犯罪概念。“刑法目前还不能处理机器人犯罪,即机器人独立于人类指令所犯之罪。犯罪的形式可以想象和人类所犯之罪一样众多:从乱穿马路到谋杀。”①Raymond S.August,Turning the Computer into aCriminal,10 Barrister 12,53(1983).不过,奥古斯特只是提出过机器人犯罪概念,并没有对机器人等人工智能犯罪展开研究。此后,人工智能犯罪也没有引起更大的关注。截至目前,学界对人工智能犯罪的研究尚处于起步阶段。

以色列小野学院法学院教授哈利维是真正对人工智能犯罪有过系统研究的学者,他的很多观点都具有开拓性与创建性。自2010年以来,哈利维先后在《阿克伦知识产权杂志》等刊物上公开发表《人工智能实体的刑事责任——从科幻小说到法律社会的控制》等数篇与人工智能犯罪直接相关的论文。2013年,哈利维所著《当机器人杀人时:刑法中的人工智能》在美国东北大学出版社出版,该书对人工智能犯罪进行了全面、深入的研究。通过这些研究成果,哈利维对人工智能的犯罪主体资格、刑事责任、刑事责任模式、严格责任、刑罚目的与刑罚方式等诸多问题,进行了具体、详细的探讨。由于所涉及的内容较多,本文不作一一介绍,仅就哈利维有关人工智能的犯罪主体资格、刑事责任模式以及刑罚目的和刑罚方式等核心问题加以具体论述,期待借此能在人工智能犯罪问题研究上抛砖引玉。

一、人工智能的犯罪主体资格

启蒙运动以后,在刑法的规制对象上,逐渐形成了刑法人类中心主义的犯罪观,这意味着只有人类才能构成犯罪,动物以及其他实体被排除在刑法制裁之外。例如,费尔巴哈就认为,“只有个人才能成为犯罪的可能主体”②[德]安塞尔姆·里特尔·冯·费尔巴哈:《德国刑法教科书》,徐久生译,中国方正出版社2010年版,第37页。。后来,尽管作为社会有机体的法人获得犯罪主体资格,但由于法人的行为和意志是依托于人类的,因而法人犯罪仍然被认为是人类实施的犯罪。

人工智能则不然,作为科技有机体,它在形式物体特征上与机器等机械实体并无本质区别。因此,人工智能往往被看作是人类的工具,是人类信息系统的延伸。“电脑是最新的和最外层的一套符号表征系统。……对待人与机器之间关系的更有效的方法是把机器看作是人类信息系统的延伸,而不是把计算机和人类视为两种不同的智能系统来相互交流。”③J.C.Smith,Machine Intelligence and Legal Reasoning,73 Chi.-Kent L.Rev.277,345(1998).据此,排除人工智能的犯罪主体资格就顺理成章了。这样,因人工智能造成损害或危险而构成犯罪的,只能由其他相关的自然人主体承担刑事责任。当然,刑事责任最终需要根据具体责任人的归责可能性来确定。“假设机器人的制造商和程序员被要求制造它们时遵循一定的规则,那么机器人被卷入的最有可能的情况,是因不正确的制造或者编程而起诉制造商或程序员,或起诉辅助犯罪的机器人的所有人或经营者。”④See note①,54(1983).

哈利维则认为,犯罪主体不应局限于人类,人工智能也可以成为犯罪主体。“只要满足刑法的所有相关要求,除人类个体和法人外,一种新型主体就可以加入到刑法中现有主体的大家庭中。”①Gabriel Hallevy,When robots kill:artificial intelligence under criminal law21(Northeastern University Press 2013).在哈利维看来,人工智能是现代科技的产物,他会给人类带来巨大的收益,同时也会产生“副产品”——犯罪。“机器人罪犯是人类创造机器人的不可避免的副产品。对机器人无止境的技术追求导致人工智能技术的高度发展,使得模仿人类思想及相关技能较之以前做得更好成为可能。”②Gabriel Hallevy,When robots kill:artificial intelligence under criminal law19(Northeastern University Press 2013).刑法虽非完美,却是最有效的社会手段,因而有必要利用刑法来应对人工智能。“刑法被认为是指导任何一个社会个体行为的最有效的社会手段。它远非完美,但在现代环境下,这是最有效的措施。因为它对于人类个体来说是有效的,那么有必要检查它是否对非人类实体,尤其是人工智能实体有效。”③Ibid.

在哈利维看来,现代科技的飞速发展,赋予了人工智能拥有类似于人类那样的心理,而人类正是因其独特的心理成为刑法规制的对象,故人工智能也可以成为刑法规制的对象。“如果技术能极大地促进机器智人的创造,这将使现行刑法与人工智能技术密切相关,因为这种技术模仿人类的心理,而人类的心理已经受制于现行刑法。因此,人工智能技术方法对人的心理的完全模仿越接近,现行刑法与之就越相关。”④Gabriel Hallevy,When robots kill:artificial intelligence under criminal law21-22(Northeastern University Press 2013).人工智能受刑法规制,至少有以下两个方面的积极意义:一是有利于消除人类对机器的恐惧。“将人工智能机器人置于刑法中可能会减轻我们对人类与机器人共存的恐惧。刑法对人们的自信心有着重要的作用,每个人都知道社会上所有其他人都必须遵守法律,尤其是刑法。……任何个人或团体不受刑法约束,其他人的个人信心受到严重损害,因为不服从刑法的人没有动机服从法律。”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law22(Northeastern University Press 2013).二是有利于维护其他实体以及社会的信心。“如果其中任一实体不受刑法拘束,其他实体的信心就会受到损害,更广泛地说,整个社会的信任感会受到损害。因此,社会必须做出一切努力,使所有能动实体服从刑法。”⑥Ibid.

不过,要想成为犯罪主体,首先面临的是智能代理能否成为道德代理的问题。根据传统刑法理论中的道义责任论,人类之所以成为犯罪主体,是由其自由意志决定的。而人的自由意志是与人特有的道德情感密切相关的,因而道德在决定犯罪主体的去留上具有重要作用。哈利维指出,“刑法以及作为刑法的执行者的国家,也必须接受道德的批判。国家伦理性的问题,在考虑责任论以及刑罚界限的时候,具有特别重要的意义”⑦[日]曾根威彦:《刑法学基础》,黎宏译,法律出版社2005年版,第32页。。由于人工智能不是人,因而不具有人类的意识和道德情感,因而难以像人那样成为犯罪主体。“智能代理缺乏作为人的至关重要的因素:尽管它能够学习并且做出其他人无法预知的决策,但它对于它自身的自由并无意识,更遑论将自己视为社会权利义务的承担者。”⑧[瑞士]萨比娜·格雷斯、[德]托马斯·魏根特:《智能代理与刑法》,载陈泽宪主编:《刑事法前沿》(第10卷),社会科学文献出版社2017年版,第222页。

但是,对所谓的道德代理,哈利维有不同看法。哈利维认为,“道德责任确实是一个非常复杂的问题,不仅对机器,而且对人类也是如此。一般来说,道德没有一个共同的、所有社会均可接受的定义”⑨Gabriel Hallevy,When robots kill:artificial intelligence under criminal law18(Northeastern University Press 2013).。由于不同的社会主体具有不同的道德,这使得道德极为复杂甚至难以评价,因而所谓的道德归责并非最恰当的方法。“纳粹认为自己具有道义上的道德,虽然大多数社群和个人不同意。如果道德如此难以评估,那么在我们刚刚审查过的案件中,道德归则可能不是最恰当、最有效的评估责任的方法。”①Gabriel Hallevy,When robots kill:artificial intelligence under criminal law18(Northeastern University Press 2013).据此,哈利维并不赞成所谓的道德归责。“由于刑法并不依赖于道德归责,因而有关机器的道德责任的争论与现在的问题无关,虽然有时在刑事责任、某些类型的道德责任与某些类型的道德规范之间存在重叠,但这样的巧合对于承担刑事责任是没有必要的。”②Gabriel Hallevy,When robots kill:artificial intelligence under criminal law19(Northeastern University Press 2013).同时,哈利维认为智能代理也可以成为道德代理。在他看来,道德有道义论道德与目的论道德之别。“道义论的道德(集中在意志和行为)和目的论的道德(集中在结果)是最可接受的类型,在许多情况下它们发挥着相反的作用。”③See note①.人工智能虽然不具备人类那样的意志和行为,不能进行道义上的归责。但是,人工智能完全能够给社会或个人造成损害和危险,因而从目的论道德上来看与人类并无本质不同。因此,立足于目的论道德,智能代理是可以成为道德代理的。

哈利维还以动物及人工智能与人类的关系为例,对人工智能可以而动物不能成为犯罪主体加以进一步论证。对于动物为什么不能成为犯罪主体,哈利维通过对古代和现代有关动物的法律进行考察,从两个方面进行了阐述:一是动物作为人类财产的法律关系;二是对动物宽恕的义务。关于第一个方面,哈利维认为“涉及人类对动物的所有权、占有权和其他财产权利。例如,如果损害是由动物造成的,对该动物拥有财产权的人对该损害负有法律责任。如果一个人受到狗的攻击,它的主人对任何伤害负有法律责任”④Gabriel Hallevy,When robots kill:artificial intelligence under criminal law22-23(Northeastern University Press 2013).。哈利维指出,当动物造成侵害时,主要涉及的是侵权法的问题,即使与刑法有关,也只能归责于人,任何法律不可能将责任归于动物。“在大多数国家,这些都是侵权法的问题,虽然在一些国家,它们也与刑法有关,但在任何情况下,法律责任都是人的责任,而不是动物的责任。……任何法律制度都不会考虑动物直接受制于法律,特别是不受制于刑法,不管动物智力如何。”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law23(Northeastern University Press 2013).

关于第二个方面,哈利维认为主要是针对人类而言的。由于人类的智慧较之动物要优越,因而面对人类的侵害动物往往孤立无助。基于同情、怜悯等情感,应禁止人类肆意对动物施虐。当动物受侵害时,实际受害的是社会而不是动物。“人类因智慧而被认为比动物优越,动物被认为是无助的。因此,法律禁止人类滥用权力虐待动物。这些法律条文的主体是人,不是动物,被人类虐待的动物即使遭受损害也不会站在法庭上。在这些情况下,合法的‘受害者’是社会而不是动物,因此在大多数情况下,这些法律条款是刑法的一部分。”⑥See note②.既然针对动物的侵害是因为社会受到损害,这种对动物的保护方式显然与财产的保护方式有很大不同。“大多数刑法禁止破坏他人的财产,以保护占有人或所有者的财产权利。但在虐待动物的情况下,这种保护与产权无关。一只狗的合法主人可能因虐待狗而被起诉,而不管狗身上的财产权。这些法律规定自古以来就存在,形成了动物的法律模式。”⑦See note②.

问题在于,为什么动物的法律模式不能适用于人工智能实体呢?这就需要证明人工智能有别于动物,并且较之动物更接近于人类。否则,人工智能与动物就没有实质差异,适用动物法律模式完全可以解决人工智能犯罪问题。哈利维认为,人工智能更接近于人类,主要理由有二:一是人工智能具有类似于人类的逻辑推理能力,动物则不具备,因而人工智能更接近于人类。“人类编程使人工智能实体遵循有条理的人类逻辑推理。这形成了人工智能实体赖以行动的核心推理,因而其计算是由有条理的人类逻辑推理来负责的。大多数情况下,大多数动物缺乏这种推理。不是动物不合理,而是它们的合理性不一定建立在有条理的人类逻辑基础上。”①See Gabriel Hallevy,When robots kill:artificial intelligence under criminal law24(Northeastern University Press 2013).二是人工智能在理性上更接近于人类,动物在情感上更接近于人类,法律适用更需要理性而不是情感。“如果以感情作为衡量,较之人类和机器,人类和动物更接近彼此。但是,如果以纯粹理性作为衡量,较之动物机器更接近人类。虽然情感和理性互相影响,但它们在法律上的区别在于它们的适用性。”②Ibid.对于法律尤其是刑法来说,所考虑的主要因素是理性,情感很少被考虑。“鉴于评价法律责任时法律更倾向于理性而非情感,因为人工智能技术的合理性是建立在有条理的人类逻辑推理基础上,因而从法律的角度来看,人工智能技术较之动物更接近于人类物,对于所有的法律方面亦如此。”③Gabriel Hallevy,When robots kill:artificial intelligence under criminal law25(Northeastern University Press 2013).因此,动物法律模式不适于评价人工智能实体的法律责任。不过,由于人工智能没有情感,因而不存在人类对人工智能的宽恕,这也是对人工智能为什么不能适用动物法律模式的原因之一。“由于缺乏情感的基本特质,人工智能实体不能以任何情感形式表达悲痛、遭受痛苦、失望或折磨,动物法律模式的这些因素对于人工智能实体没有意义。”④Gabriel Hallevy,When robots kill:artificial intelligence under criminal law24-25(Northeastern University Press 2013).

哈利维还以法人犯罪主体为例,来论证人工智能为什么能够成为犯罪主体。众所周知,英美法系国家早就接受了法人刑事责任的理念,而20世纪之后许多国家都将法人置于刑法的规制之下。那么,法人犯罪模式是如何产生的呢?哈利维指出,与人类相比,法人既没有物理意义上的身体存在,也没有思维等精神要素。“刑事责任需要事实要素,而法人没有物理身体。刑事责任也需要心理要素,而法人则没有思维、头脑、精神或灵魂。”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law35(Northeastern University Press 2013).但是,将法人排除在犯罪主体之外并不合适,因为这样会为犯罪提供庇护。“一些欧洲国家拒绝对非人类生物施加刑事责任,并恢复罗马规则,法人不承担刑事责任(合伙社团非热点)。但这种做法很有问题,因为它为罪犯提供了法律庇护。例如,一个不纳税的人有刑事责任,但当其是法人时却是免责的。这为个人通过公司运作及逃税提供了动力。”⑥Ibid.哈利维指出,法人犯罪的“新模式是建立在认同理论基础上的。在某些情况下,法人的刑事责任来源于其机关,而在其他案件中,其刑事责任是独立的。当犯罪要求不作为(例如不纳税、不履行法律要求或不维护工人权益)的时候,作为义务就是法人的,法人独立承担刑事责任,与其他实体的刑事责任以及是否是人无关。当犯罪需要作为时,其机关作为就与法人有关,只要其代表实施了犯罪,无论有无许可”⑦Gabriel Hallevy,When robots kill:artificial intelligence under criminal law36(Northeastern University Press 2013).。因此,法人犯罪与其他主体犯罪是有严格界限的,应该分开处置。“如果法人符合犯罪的所有要求,它就会被起诉,与事实上针对一般主体的人的任何诉讼无关。如果被定罪,该法人将受到惩罚,与任何个人实体分开。”⑧Ibid.

自17世纪以来,非人类的法人最终成为犯罪主体,是顺应时代发展自然而然形成的,这说明刑事责任并非只能适用于人类。如果说刑法人类中心主义犯罪观因法人成为犯罪主体而被突破,那么人工智能成为犯罪主体为什么不可以突破呢?“鉴于第一道障碍在17世纪被突破,在针对人工智能实体施加刑事责任之前,通往下一道障碍的道路会继续敞开。”①Gabriel Hallevy,When robots kill:artificial intelligence under criminal law36-37(Northeastern University Press 2013).当然,哈利维也清醒地认识到,“当人工智能实体通过软件能够计算需要如何行动时,法律责任难题中的一些问题仍然会令人困惑”。②Gabriel Hallevy,When robots kill:artificial intelligence under criminal law24(Northeastern University Press 2013).对此,哈利维认为,一方面,由于具备人类那样的逻辑推理,因而“人工智能实体比动物更容易沟通复杂思想”③See note②.,这在一定程度上可以弱化人工智能成为犯罪主体所存在的问题。另一方面,就算存在问题,但承担刑事责任并非需要完全具备人类那样的能力。“刑事责任并不一定要求具备所有的人类技能。要成为一个罪犯,不需要使用所有的人类技能,不管他是否拥有这样的技能。”④Gabriel Hallevy,When robots kill:artificial intelligence under criminal law20(Northeastern University Press 2013).正如法人成为犯罪主体,不需要考虑“对法人的惩罚被认为没有对人类那么有效”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law36(Northeastern University Press 2013).的问题一样。总之,“在刑法语境中,只要满足这些要求,就没有什么可以防止刑事责任的产生,无论刑法主体是否是人。这就是(刑法)适用于人类和非人类罪犯如法人的逻辑”⑥Gabriel Hallevy,When robots kill:artificial intelligence under criminal law21(Northeastern University Press 2013).。人工智能同样如此,故成为犯罪主体并无不可。

二、人工智能犯罪的归责模式

作为犯罪构成要件的犯罪心理态度,往往被认为人类才具有,也是检验其他实体能否成为犯罪主体的关键要素之一。动物之所以不能成为犯罪主体,就是因为其不具备人类那样的犯罪心理态度,无所谓犯罪过意与过失,因而难以对其行为承担刑事责任。既然人工智能可以成为犯罪主体,那么如何理解和认定其犯罪心理态度呢?对此,哈利维没有直接就人工智能的犯罪故意和犯罪过失加以具体分析。他认为,构成犯罪需要具备犯罪行为和罪过。为了对任何实体施加刑事责任,必须证明犯罪行为和罪过两个因素存在。如果证明某人明知或基于某种犯罪意图而犯罪时,他对该罪行就需要承担刑事责任。那么,与某种实体的刑事责任相关的问题是:这些实体是如何实现刑事责任的上述两项要求的呢?⑦See Gabriel Hallevy,Virtual Criminal Responsibility,6Original L.Rev.6,10(2010).由此,哈利维将人工智能犯罪的归责模式分为3种:间接正犯模式、自然可能的结果责任模式和直接责任模式。通过对3种不同归责模式进行分析,他就人工智能犯罪如何追究刑事责任提出了自己独特的认识与见解。

(一)间接正犯模式

在刑法理论上,通常认为“构成要件行为,不一定只限于行为人自身的直接的身体动作,和利用动物、工具一样,将他人作为媒介实行犯罪,既有可能,也不罕见。这种通过利用他人实现犯罪的情况,就是间接正犯”⑧张明楷:《刑法学》,法律出版社2016年版,第401页。。这意味着,对于人工智能而言,如果它被他人利用,只是充当他人实施犯罪的媒介,或者只是作为无辜的代理而实施犯罪,那么利用者便是间接正犯。哈利维认为,“虽然无辜的介质是一件复杂的工具,仍被认为是一种纯粹的工具,而作为首犯并策划犯罪的当事人(另一犯罪人)才是真正的罪犯,需要对无辜的介质的行为负责。其他人犯罪的刑事责任,也是以无辜的介质的行为和该犯罪人自己的心理态度为依据确定的”①Gabriel Hallevy,Unmanned Vehicles:Subordination to Criminal Law under the Modern Concept of Criminal Liability,21 J.L.Inf.& Sci.200,202(2011).。在这里,哈利维认为无辜的介质,即充当代理的人工智能不承担刑事责任,只有策划犯罪的人以及其他参与犯罪的人承担刑事责任,这便是所谓的间接正犯模式。

在哈利维看来,间接犯罪者承担刑事责任的依据是人工智能的“工具”行为和行为人的精神状态。②Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,179(2010).问题在于,谁是间接正犯呢?对此,哈利维认为“有两个候选者:第一个是人工智能软件的程序员,第二个是用户,或者是最终用户”③See note②,p.171,179(2010).。在他看来,“人工智能软件的程序员可能设计一个程序,以便通过人工智能实体实施犯罪”④See note②,pp.171,179-180(2010).。他还以无人驾驶交通工具为例进行了说明,“例如,一个程序员为运营中的无人驾驶人工智能交通工具设计软件。无人驾驶人工智能交通工具行驶在路上时被有目的地操控,其程序设置指令无人驾驶人工智能交通工具通过碾压无辜的人们来杀死他们。无人驾驶人工智能交通工具可能犯杀人罪,但程序员被认为是犯罪人”⑤See note②,p.171,202(2010).。与程序员不同的是,用户虽然没有对软件进行编程,但为了自身利益会使用人工智能实体及其软件实施犯罪。例如,“一个用户购买一辆无人驾驶人工智能交通工具,其目的是执行主人给它的指令。特定用户就会被无人驾驶人工智能交通工具认为是其主人,主人命令无人驾驶人工智能交通工具碾压任何闯入他或她的农场的入侵者。无人驾驶人工智能交通工具精确执行作为指令的命令。这与一个人命令他的狗攻击入侵者没有什么不同,无人驾驶人工智能交通工具实施的侵犯人身的犯罪,用户被认为是犯罪人”⑥Ibid.p.171,202(2010).。

哈利维认为,间接正犯模式可能适用于两种情形:一是在不使用其高级功能的情况下使用人工智能实体进行犯罪;二是使用一个非常旧的人工智能实体版本,它缺乏现代人工智能实体所具有的现代化的高级功能。⑦Ibid.p.171,181(2010).不难看出,在这两种情况下人工智能实体充当的是工具角色。根据该观点,机器只能是机器,从来不会也不可能成为人。但是,哈利维并没有将人工智能看作工具。哈利维认为,不能忽视人工智能实体所具备的实际能力。虽然其能力不足以认定人工智能实体为犯罪行为人,但这些能力与智力有限的人的对应的能力相似,例如儿童、智力不健全的人或缺乏犯罪心理状态的人等。⑧Ibid.p.171,179(2010).在哈利维看来,人工智能与纯粹的工具有所不同,“因为它有能力执行犯罪的指令,螺丝刀不能执行这样的指令;狗可以,但狗不能执行复杂的命令”⑨Ibid.p.171,181(2010).。

间接正犯责任模式表明,当程序员或用户对人工智能实体加以工具化使用时,程序设计者和用户对人工智能所犯特定罪行承担刑事责任,而人工智能实体则不承担任何刑事责任。不过,当人工智能实体决定通过自身积累的经验或知识进行犯罪时,或者当人工智能实体软件不是为了犯特定罪行而设计的,而是人工智能实体自己犯下的,或者当特定的人工智能实体功能不是作为一个无辜的代理人,而是作为一个半无辜的代理人时,间接正犯责任模式就不能适用。

(二)自然可能的后果责任模式

所谓自然可能的后果责任模式,“是指程序员或用户对人工智能实体的日常活动深入参与,但无意通过人工智能实体进行任何攻击”①Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,181(2010).,乃至于因人工智能犯罪而产生的刑事责任模式。这里所说的“无意”,并非是指意外,而是指程序员或者用户并没有参与实施犯罪的明确意图。根据该模式,如果一个人的行为是该行为的自然和可能后果的话,则行为人可能对犯罪承担刑事责任。该模式与间接正犯模式最大的不同在于:间接正犯模式假定了犯罪意图,即程序员或用户通过对某些人工智能实体的功能加以工具化使用进行犯罪的犯罪意图。而在自然可能的后果责任模式中,程序员或用户并没有犯罪的明知,没有计划也没有打算使用人工智能实体犯罪,而是基于程序员或用户预见潜在的犯罪行为的能力。②Ibid.p.171,182(2010).

在哈利维看来,自然可能的后果责任模式最初被用来对共犯归责。当一个人犯了罪,这些罪行并不是所有人都计划了的,也不是共谋的一部分。法院确立的规则是,行为人的行为能够鼓励共犯或协助犯罪计划,乃至于促成“自然可能的后果”,因而共犯责任延伸到犯罪人的行为。③Ibid.p.171,183(2010).显然,这种情况下行为人承担的责任类似于大陆法系国家刑法理论中的监督过失责任,或者说至少存在监督过失的责任情形。“就监督过失的事例而言,由于存在着直接引起了结果的行为人,且是由该行为人的过失行为导致了结果的发生,所以对于处在监督直接行为人立场的监督者来说,为了肯定其对于结果的预见可能性,就必须要求其可能预见到直接行为人的过失行为。”④[日]山口厚:《刑法总论》,付立庆译,中国人民大学出版社2018年版,第256-257页。

自然可能的后果责任模式要求程序员或用户存在疏忽所需的心理状态,程序员或用户不需要知道,任何即将到来的、人工智能实施的犯罪行为是他们行为的结果,但必须知道这种行为是他们行为的自然的、可能的结果。换句话说,程序员不知道人工智能会实施何种犯罪,却知道人工智能有可能会实施某种犯罪,并造成相应的结果。“一位无人驾驶人工智能交通工具的程序员或用户,应该预见到触犯即将到来的某种具体犯罪的罪行的可能性,并对该具体犯罪承担刑事责任,即使他们事实上并没有预见它,这是过失犯罪承担刑事责任的根本法律依据。”⑤Gabriel Hallevy,Unmanned Vehicles:Subordination to Criminal Law under the Modern Concept of Criminal Liability,21 J.L.Inf.& Sci.200,206(2011).自然可能的后果责任模式的典型例子是,“一个人工智能机器人或者软件被设计成一位自动驾驶员,作为飞行任务的一部分,人工智能实体计划执行护航任务。在飞行过程中,人工飞行员激活自动驾驶员(即人工智能实体),程序初始化。在自动驾驶仪激活后的某个时刻,人类飞行员看到即将来临的风暴,试图中止任务返回基地。人工智能实体认为人类飞行员的行动是对其使命的威胁,并采取行动以消除这种威胁。它可能切断飞行员的空气供应,或激活弹射座椅等。结果,飞行员被人工智能实体的行动杀死”⑥Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,182(2010).。

哈利维认为,对于程序员或用户来说,自然可能的后果责任模式在法律后果上存在两种不同类型:一是程序员或用户在编程或使用人工智能实体时疏忽大意,但没有犯罪意图;二是当编程人员或用户蓄意或希望通过编程或使用人工智能实体犯某种罪行时,人工智能实体偏离计划而实施其他罪行,并没有实施所计划的犯罪。①See Gabriel Hallevy,Virtual Criminal Responsibility,6Original L.Rev.6,15(2010).在第一种情况下,程序员或者用户是基于纯粹的疏忽,如果法律规定了他们具有相关义务,他们就需要承担监督过失责任。与第一种情形不同的是,第二种情形属于共犯的责任类型。由于行为人期待人工智能合作、共谋以及实施犯罪以达到犯罪目的,因而其主观上对人工智能犯罪是持故意的心理态度,只是由于人工智能没有实施其所期待的犯罪而已。但是,毕竟在行为人的意图下人工智能实施了其他犯罪,因其社会危害较之第一种情形显然要严重。这种情形类似于我国《刑法》第29条第2款规定,即被教唆的人(人工智能)没有犯所教唆的罪(程序员或者用户期待的罪行),而是犯了其他罪行。

需要进一步澄清的是,在这种责任模式下,人工智能自身的责任如何确定呢?对此,哈利维认为有两种可能的结果。首先,如果人工智能实体充当一个无辜的代理人,不知道任何关于刑事禁止的事情,它就不会对它犯下的罪行负刑事责任。其次,如果人工智能实体不只是作为一个无辜的代理人,那么,除了程序员或用户根据第二种责任模式承担刑事责任外,人工智能实体本身也应直接对具体罪行承担刑事责任。②See Gabriel Hallevy,Virtual Criminal Responsibility,6Original L.Rev.6,16(2010).第一种情况与第一种责任模式不同的是,人工智能并非扮演工具角色,而是由于程序员或者用户的疏忽,乃至于对法律禁止的内容一无所知,即使其对行为及其结果有认识,也不能承担刑事责任。同时,程序员或者用户并非故意利用人工智能犯罪,而是因为疏忽导致人工智能因不知道刑法禁止的内容而犯罪。这种情形有点类似于德国刑法中规定的不可避免的违法性认识错误,属于免责的事由。

(三)直接责任模式

如果人工智能实体对某个特定程序员或用户没有任何依赖,而是由于自身原因实施犯罪,则属于直接责任模式。哈利维认为,成立犯罪需要具备犯罪的客观要件(外部要素)和主观要件(内部要素),“如果一个人工智能实体能够满足外部要素和内部要素的要求,并且事实上它满足了这些要求,那么就没有什么可以阻止对该人工智能实体施加刑事责任”③Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,187(2010).。在他看来,满足犯罪的外部要素要求并不难,也很容易归因于人工智能实体。“只要一个人工智能实体控制一个机械或其他机构来移动它的运动部件,任何行为都可以被认为是人工智能实体实施的。因此,当人工智能机器人激活其供电或液压臂并移动它时,这可能被认为是一种行为,如果特定的犯罪涉及这样的行为。”④See note③,p.171,187(2010).

哈利维指出,真正对人工智能犯罪形成挑战的,是将犯罪的心理因素归因于人工智能实体。“对人工智能心理要素的归因不同于其他,现代人工智能技术发展起来的绝大多数认知能力,如创造力,对刑事责任追究问题无关紧要。追究刑事责任所需的唯一认知能力体现在心理要素要求(犯罪意图)中。创造力是人的特点,某些动物也具有,但创造性不是追究刑事责任的要素。即使是最没创意的人也可能会被追究刑事责任。”⑤Gabriel Hallevy,Unmanned Vehicles:Subordination to Criminal Law under the Modern Concept of Criminal Liability,21 J.L.Inf.& Sci.200,208(2011).不过,哈利维还是认为人工智能具备犯罪心理要素。这是因为,刑事责任所需的唯一心理要求是具体犯罪和刑法一般理论所要求的知识、故意、过失等,诸如无人驾驶交通工具等人工智能实体对具体犯罪承担刑事责任,并不需产生犯具体犯罪的想法,只要对该罪的事实要素有认知便可。①See Gabriel Hallevy,Unmanned Vehicles:Subordination to Criminal Law under the Modern Concept of Criminal Liability,21 J.L.Inf.& Sci.200,208(2011).哈利维认为,具备认知能力对人工智能实体而言并不是问题。“大多数人工智能系统都有良好的接收能力,视觉、声音、身体接触、触觉等感官接收器,在大多数人工智能系统中都很常见。这些受体将接收到的实际数据传送给分析数据的中央处理单元,人工智能系统的分析过程与人类的理解相类似。人脑通过分析数据理解眼睛、耳朵、手等所接收到的数据。先进的人工智能运算程序正试图模仿人类的认知过程,这些过程没有什么不同。”②Ibid.pp.200,208-209(2011).当然,对人工智能的犯罪心理要素最具挑战的,是特定意图和情绪或情感等。

哈利维认为,具备特定意图并非人类所独有的,无人驾驶交通工具等人工智能同样具备特定意图。“一些无人驾驶人工智能交通工具可以编程找出自己的目的或目标,并采取行动以达到了目的,一些先进的无人驾驶人工智能交通工具可以确定自己的目的并采取相关行动以达到目的。在这两种情况下,这可能被视为特定的意图,因为无人驾驶人工智能交通工具确定了自己的目的,并且想办法通过相关行动以达到目的。”③Ibid.p.200,209(2011).至于强烈的情绪或者情感,人们普遍认为人工智能软件是无法模仿的,哪怕是最先进的人工智能软件也是如此。对此,哈利维表示认可。不过,他认为强烈的情绪或情感,如爱、情感、仇恨、嫉妒等,与特定意图一样,只是在少数犯罪中有要求,大多数具体罪行只要满足对外在因素存在的认知就可以了。“除了认知之外,很少的犯罪需要特定意图。几乎所有的其他罪行只需满足那些要求少得多的因素(疏忽、鲁莽、严格责任)。也许在极少数特定犯罪中,需要一定的感情(如种族主义犯罪、仇恨),刑事责任不能强加给一辆没有这种情感的无人驾驶人工智能交通工具,但在任何其他特定的犯罪中,某些感情缺失并非刑事责任的障碍。”④Ibid.p.200,209(2011).

总而言之,哈利维主张,“当一个人工智能实体确立了包括外部和内部要素在内的某一特定罪行的所有要素,就没有理由免除对该罪行承担刑事责任。如果通过任何其他合法路径对程序员或用户施加刑事责任,人工智能实体的刑事责任不能取代程序员或用户的刑事责任。刑事责任不是分开的,而是结合在一起的。除了人类程序员或用户的刑事责任外,人工智能实体的刑事责任也需要追究”⑤Ibid.p.171,191(2010).。当然,他也承认,“根据直接责任模式,人工智能实体的刑事责任与人类相关的刑事责任有所不同。在某些情况下,一些调整是必要的,但实质上,建立在相同的要素和相同的方式评价基础上的刑事责任还是非常相似的”⑥Ibid.p.171,193(2010).。

三、人工智能犯罪的处罚

既然人工智能可以成为犯罪主体,也存在着承担刑事责任的不同模式,那么一旦人工智能犯罪,可否以及怎样对之给予刑罚处罚呢?对此,哈利维认为,处罚人工智能应当考虑以下3个问题:一是对人的具体处罚的根本意义是什么?二是惩罚对人工智能实体有何影响?三是在对人工智能实体施加实际惩罚时,什么样的实际惩罚可以达到同样的意义?如果需要调整惩罚方式,那么在对人和人工智能实体施加惩罚时,其具体惩罚意义应该相同。①See Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to Legal Social Control,4 Akron Intell.Prop.J.171,195(2010).基于这样的理念,哈利维从刑罚的目的入手,分析了处罚人工智能可能达到的刑罚目的,并就人工智能承担刑事责任的方式进行了深入探讨。

(一)制裁人工智能犯罪的刑罚目的

哈利维认为,量刑一般有4个共同目的,它们是量刑时通常需要考虑的:报应、威慑、康复和剥夺犯罪能力。②See Gabriel Hallevy,When robots kill:artificial intelligence under criminal law157(Northeastern University Press 2013).那么,制裁人工智能能否实现这4个目的呢?哈利维对此进行了具体分析。在他看来,惩罚人工智能难以达到报应的目的。这是因为,“报应主要是为了满足社会需要,给罪犯造成痛苦本身就没有预期的价值,苦难可以阻止犯罪者,但这是威慑的目的之一,而不是报应。报应可能通过使罪犯遭受痛苦而让社会和受害者产生宣泄作用,然而,在这种情况下基于报应去惩罚机器将毫无意义且不切实际”③Gabriel Hallevy,When robots kill:artificial intelligence under criminal law158(Northeastern University Press 2013).。而且,“如果报应作为一种预防复仇的量刑宽大模式,其与人工智能量刑的不相关更为明显。复仇被认为对犯罪者造成的痛苦比官方惩罚更大,但是因为机器不经历痛苦,报复和惩罚之间的区别对他们来说毫无意义”④See note③,p.。同时,哈利维认为威慑主要是针对自然人才有效,机器人等人工智能由于缺乏痛苦的体验,因而规劝、恐吓、威慑等对之均没有效果。“威慑旨在通过恐吓来阻止下一次犯罪的发生,在当前技术中,恐吓是一种机器无法体验的感觉。恐吓是基于对未来犯罪的恐惧,因为机器没有痛苦体验,正如我们已经提到的,当对机器人考虑适当惩罚时,恐吓和规劝都是无效的,同时,惩罚和威慑可能是人工智能实体犯罪中与惩罚人类参与者(例如用户和程序员)相关的目的。”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law159(Northeastern University Press 2013).

哈利维认为,惩罚人工智能能够实现康复目的,“有时,人工智能系统可能需要外部指导,以细化其决策过程,这可能是机器学习过程的一部分。对于人工智能实体来说,康复功能与人类完全一样,能够使它们在日常生活中从社会的角度做出更好的决定”⑥Gabriel Hallevy,When robots kill:artificial intelligence under criminal law160(Northeastern University Press 2013).。哈利维指出,人工智能程序是可以被改良的,并且人工智能本身也能够通过深度学习进行自我修复,这为其康复准备了充分的条件,康复本身对于人工智能而言就是学习的一部分。“被修复后,通过对其自我决策施加更多限制,并通过机器学习来改进程序,人工智能系统能够作出各种更精准的决策。因此,如果惩罚被确切地应用到单独的人工智能系统,将成为机器学习过程的一部分。”⑦Ibid.哈利维甚至认为,康复目的在很多情形下对于人的制裁而言是次要的,但对于人工智能的制裁而言可能是主要的,“康复可以成为对人工智能系统惩罚的相关目的,因为它不是基于恐吓或痛苦,而是致力于改善人工智能系统的性能。对于人类而言,这种考虑在许多情况下可能是次要的,但是对于人工智能系统来说,这可能是惩罚的主要目的”⑧Gabriel Hallevy,When robots kill:artificial intelligence under criminal law160-161(Northeastern University Press 2013).。

至于剥夺犯罪能力,哈利维指出这是为了消除犯罪者的物理能力,以阻止其再下一次犯罪。“无论罪犯是否理解或同意社会要求,由于犯罪的物理能力被消除,下一次犯罪得以被阻止。”⑨Gabriel Hallevy,When robots kill:artificial intelligence under criminal law161(Northeastern University Press 2013).适应预防犯罪的需要,剥夺犯罪能力理当为刑罚的目的之一。相对而言,只不过剥夺犯罪能力较之康复要严厉些。“如果在大多数情况下康复被认为是对惩罚的普遍考虑,那么剥夺犯罪能力则被认为是严厉的。”①Gabriel Hallevy,When robots kill:artificial intelligence under criminal law161(Northeastern University Press 2013).哈利维认为,防止人工智能再犯罪是必要的。“不管人工智能系统是否理解其行为意义,也不管人工智能系统是否配备了合适的工具来完成内部改变,防止犯罪仍然是必须的。在这样的情形下,社会必须剥夺人工智能系统犯其他罪行的物理能力,尽管它拥有其他技能。”②Ibid.如果人工智能不能通过机器学习改变其行为方式,那么剥夺犯罪能力就更有必要。“如果人工智能系统犯罪,并且通过机器学习不能改变其行为方式,只有剥夺犯罪能力才能提供恰当的答案。”③Ibid.因此,剥夺犯罪能力完全能够作为惩罚人工智能的目的。

总之,哈利维认为,康复和剥夺犯罪能力是实现对非人类犯罪的刑罚目的服务的。“惩罚人工智能系统需要考虑的两个相关因素是康复和剥夺犯罪能力,两者反映了量刑的两极,都是为非人类罪犯的刑法目的服务。”④Gabriel Hallevy,When robots kill:artificial intelligence under criminal law161-162(Northeastern University Press 2013).如果人工智能能通过机器学习改变其行为方式,康复较之剥夺犯罪能力更可取,否则就需要剥夺犯罪能力。“当人工智能系统能够进行影响其活动的内部变化时,康复似乎比剥夺犯罪能力更可取,但当它不具备这种能力时,剥夺犯罪能力是可取的。”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law162(Northeastern University Press 2013).这样看来,惩罚人工智能的刑罚目的需要根据具体需要,这一点与惩罚人类并没什么不同。“处罚应根据罪犯的相关个人特征,如同人类犯罪的情形那样。”⑥Ibid.

(二)人工智能犯罪的刑罚种类

哈利维对人工智能所适用的刑罚类型进行了较为详细的阐述,这些处罚方式涉及死刑、监禁、缓刑、社区服务以及罚金等。在他看来,绝大多数普通刑罚都可适用于人工智能实体。

哈利维认为,对人工智能完全可以适用死刑。通常,死刑对人类的意义是剥夺生命;对人工智能而言,死刑也意味着剥夺“生命”。在他看来,人工智能实体的生命虽然不具有人类那样的生物属性,但也是客观存在的,其“生命”便是它作为实体的独立存在。有时,它具有物理外观(例如,作为机器人),有时它只有抽象的存在(例如,安装在计算机系统或网络服务器上的软件)。⑦See Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,196(2010).至于执行死刑的方式,哈利维认为主要有两种:一是删除人工智能软件。“鉴于死刑具有剥夺罪犯犯罪能力的功效,当对人工智能删除控制其的人工智能软件时,死刑在实际上也可能会达到相同的效果。一旦删除的处罚得到执行,犯罪的人工智能实体就不能再犯罪了。删除(人工智能软件)根除了人工智能实体的独立存在,无异于死刑。”⑧Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,196(2010).二是永久关闭人工智能系统。“对人工智能系统判处死刑意味着它被永久关闭,这样对系统而言不会再实施犯罪或其他任何活动……永久丧失能力意味着根据法院命令绝对关闭,再无激活系统的选择。”⑨Gabriel Hallevy,When robots kill:artificial intelligence under criminal law166-167(Northeastern University Press 2013).

至于监禁,对人类的意义是剥夺了人的自由,即对人类的行为自由、行动自由和个人生活自由等施加严格限制。哈利维认为,人工智能具有自由,也能够自主,因而可以适用监禁刑。“人工智能实体的‘自由’或‘自主’包括在相关领域的行为自由。例如,从事医疗服务的一个人工智能实体有参与外科手术的自由;一个工厂的一个人工智能实体有生产的自由等。”①Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,196-197(2010).“考虑到监禁刑的性质,当对人工智能实体施加处罚是使人工智能实体在某一确定的期限内不再被使用,这样的处遇之效果与判处监禁刑是相同的。”②See Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,197(2010).哈利维指出,对人工智能系统也可以实行监禁,即在规定时间剥夺它们的行动自由并加以严格监督,当人工智能系统被羁押、受限制和监督时,它的攻击能力是丧失的。③See Gabriel Hallevy,When robots kill:artificial intelligence under criminal law168(Northeastern University Press 2013).在此期间,任何与人工智能实体自由有关的行动都不被允许,因此其自主或自由受到限制。④See note②,p.171,197(2010).

在西方法律体系中,缓刑是一种非常受欢迎的过渡性惩罚方式,它虽然并非对行为人的自由或者行动等实行限制,却增加了对罪犯的威慑作用。这种威慑作用,源自罪犯如果触犯具体罪行或某种类型的具体犯罪,那么对其而言就有撤销缓刑而适用监禁的危险。如果罪犯触犯某种具体罪行,那么第二次犯罪与第一次犯罪的刑罚都要执行,这就促使罪犯不敢冒巨大风险而再次触犯其他罪名。哈利维认为,“适用缓刑仅仅只是法律记录,缓期执行时并没有对身体采取任何实际行动。因此,当判处缓刑时,人类和人工智能实体之间的效果没有差别”⑤See note①,p.171,197(2010).。关于对人工智能如何执行缓刑以及采取何种执行方式,哈利维指出,“对人工智能系统判处缓刑是对重新考虑其行为过程的警告。这个过程可以由程序员、用户或制造商发起,其方式与人类犯罪由其亲属或专业人员(如心理学家或社会工作者)辅助或法人犯罪由官员或专业人员辅助相同”⑥Gabriel Hallevy,When robots kill:artificial intelligence under criminal law169(Northeastern University Press 2013).。在具体执行时,“州的法定犯罪记录在对人、法人或者人工智能实体处以缓刑之间并不作区分,只要有关实体能够被具体而准确地确定”⑦See note①,p.171,197(2010).。

公共服务也是西方法律体系中极受欢迎的过渡性制裁措施,它不是真正意义上的监禁。在许多法律制度中,公共服务可以代替实际监禁的短期刑罚。实行公共服务并附加考验期,可以使犯罪人为犯特定罪行所造成的损害而“付出代价”。哈利维认为,“法人和人工智能系统都与社区有很强的互动关系。公共服务可以授权和加强这些互动,并使之成为必要的内在变化的基础”⑧Gabriel Hallevy,When robots kill:artificial intelligence under criminal law172-173(Northeastern University Press 2013).。因此,对人工智能实体是可以适用公共服务的,人工智能系统的公共服务在本质上类似于人类的公共服务。一方面,公共服务对人类的意义是通过劳动对社会作出强制性贡献,而一个人工智能实体可以作为一个工人在许多领域从事工作。当一个人工智能实体在工厂工作时,它的工作是为了工厂所有者的利益或其他工人的利益而进行的,以减缓和帮助他们的职业任务。⑨See note②,p.171,197-198(2010).另一方面,“一个人工智能实体为了个人利益而工作,也可能为公共的利益而工作。当为公共利益而进行的工作被强加给一个人工智能实体,作为对社会作出强制性贡献时,它可以被认为是公共服务”①Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,198(2010).。据此,哈利维认为,无论是强加给人类还是人工智能实体,公共服务的意义是相同的。②See Gabriel Hallevy,The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to LegalSocial Control,4 Akron Intell.Prop.J.171,198(2010).

在西方法律体系中,罚金判决无疑是最受欢迎的过渡性制裁。判处罚金的意义,对于人类而言意味着剥夺他们的一些财产。通常,如果一个人不缴纳罚金,或没有足够的财产支付罚金,则可以对罪犯处以替代刑,如监禁等。哈利维认为,“对法人处以罚金等同于对某人处以罚款,因为无论是人还是法人都有财产和银行账户,因此罚金的支付方式是相同的,无论支付实体是人还是法人实体”③See note①,p.171,198(2010).。但是,人工智能实体的情况与人类和法人可能有所不同。“如果某个人工智能实体拥有自己的财产或金钱,对其处以罚款将等同于对人或法人处以罚款。”④See note①,p.171,199(2010).问题在于,大多数人工智能实体并没有自己的现金、财产或银行账户,如何对人工智能适用罚金呢?对此,哈利维认为可以考虑调整处罚方式。“人工智能系统的确没有财产,但它工作能力是很有价值的,可以赋予其货币价值。……人工智能系统可以使用它拥有的唯一货币:工作时间。工作时间对社会有贡献,就像公益服务的贡献一样。”⑤Gabriel Hallevy,When robots kill:artificial intelligence under criminal law174(Northeastern University Press 2013).在哈利维看来,对大多数人和法人来说,财产是通过劳动获得的,缴纳罚金意味着因劳动所得的财产发生转移,这表明除了通过财产的方式外,罚金也可以直接以劳动的方式支付或缴纳。因此,对一个人工智能实体施加的罚金,可能被转化为金钱或财产以及作为社会福利的劳动。当罚金是以劳动的形式为社会利益而募集的,与上面所述的社区服务没有什么不同。⑥See note②,p.171,199(2010).

四、哈利维的人工智能犯罪观之述评与启示

(一)对哈利维的人工智能犯罪观之述评

对于哈利维有关人工智能犯罪的各种观点,加拿大多伦多大学法学博士蕾切尔·查尼进行了简要评述。查尼指出,现有法律基础是以人类为核心确立的,由于“现行人工智能系统的能力并没有达到刑法所要求的意识和意志的法律标准”⑦Rachel Charney,Can Androids Plead Automatism – AReview of When Robots Kill:Artificial Intelligenceunder the Criminal Law by Gabriel Hallevy,73 U.Toronto Fac.L.Rev.69,71(2015).,因而哈利维有关人工智能犯罪的理论并非建立在现有法律基础上的。“最终,《当机器人杀人时》一书包含原始和有趣的理论思想,但哈利维的论点仍然更多地停留在科幻小说领域而不是实际的法律分析。”⑧See note⑦,p.69,72(2015).对哈利维有关人工智能犯罪的某些见解,查尼给予充分肯定,“他确实看到了剥夺犯罪能力和康复的价值,剥夺犯罪能力,如关闭人工智能或对人工智能重新编程,有助于防止人工智能犯下更多的罪行,康复则涉及改变人工智能的行为,通过机器学习可以让人工智能在未来作出更好的决策。”⑨See note⑦,p.69,71(2015).同时,查尼对哈利维许多观点又表示疑虑。

例如,对于哈利维所谓的公共服务惩罚,查尼认为并不可信,且这样做会纵容机器人给社区带来伤害。“在公共服务量刑问题上,哈利维给出了一个医疗诊断机器人的例子。他解释说,社会可以惩罚机器人在私人诊所的疏忽诊断,迫使它做一个有监督的社区服务安置诊断公立医院的病人。哈利维忽略了,在机器人被修复之前,机器人的诊断是不可信的,通过公共服务,机器人可能给社区带来伤害。”①Rachel Charney,Can Androids Plead Automatism – AReview of When Robots Kill:Artificial Intelligenceunder the Criminal Law by Gabriel Hallevy,73 U.Toronto Fac.L.Rev.69,71-72(2015).同时,尽管哈利维认为可以对人工智能从事社区服务加以监督,但查尼认为如何监督是个问题。“虽然他明确表示机器人在公共服务期间将受到监督,以防止进一步的违法行为,但尚不清楚监督将如何进行,因此仍有可能在伤害已经发生之前再发现进一步的疏忽。”②See note①,p.69,72(2015).总之,对人工智能实施公共服务处罚极为微妙和复杂,“在某些情况下,有可能找到一种替代人工智能系统有益于社区的方法,但是不同于那些在超速行驶后被判捡垃圾的人,一个能够驾驶和超速的人工智能系统不太可能有能力捡起垃圾。因此,公共服务处罚是否适用于人工智能是一个比哈利维指出的更微妙和更复杂的问题”③See note①,p.69,72(2015).。

又如,查尼认为对人工智能判处罚金也是不现实的。人工智能本来就被认为是所有者的财产,对人工智能判处罚金无异于对无辜的所有者加以处罚,“现代法律认为人工智能系统仅仅是财产。因此,人工智能系统的所有生产手段,包括其工作时间,都不是由人工智能系统本身,而是由它的所有者拥有。因此,如果一个人工智能系统通过公共服务被罚款,那么其潜在的无辜所有者将因没收财产而受到不适当的惩罚”④See note①,p.69,72(2015).。而且,试图通过调整处罚方式,如处以社区服务来替代罚金也是缺乏证据或逻辑支持的。“哈利维进一步辩称,通过工作时间对人工智能系统加以罚金的目的不是康复而是剥夺犯罪能力,因为额外的工作时间将使得机器人拥有‘更少的自由时间犯罪’。这是假定机器人在他们的‘自由时间’中优先犯罪,这是一个没有证据或逻辑支持的命题。”⑤See note①,p.69,72(2015).

从查尼博士的相关论述来看,她并没有完全否认人工智能成为犯罪主体及其可以接受不同类型处罚,而是基于现实的不可行性、缺乏法律基础以及处罚的不可信、缺乏具体操作等来看待问题的。客观地说,基于人工智能发展上处于弱人工智能阶段,哈利维的人工智能犯罪观无疑是超前且缺乏法律基础的。这并不意味着未来发展到强人工智能阶段或者超人工智能阶段,人工智能仍然不可以成为犯罪主体并接受处罚。至于处罚人工智能在效果上不可信以及缺乏具体操作性,则主要因为人类目前尚缺乏这方面的具体实践,因而无论是对之充满期待还是质疑,都是情有可原的。

的确,哈利维有关人工智能的罪与罚的许多观点需要进一步探究。例如,以侧重于结果的目的论道德作为人工智能的归责依据,是存在问题的。因为,人类之外的其他实体也会造成一定的危害结果,但显然不能仅以此作为追究刑事责任的依据。哈利维认为道德具有复杂性与多元化特征,因而根据道义论道德归责是不可靠的。然而,自古典刑法理论产生以来,以自由意志论、道德理性论为核心的唯心主义哲学就成为刑事归责的哲理基础,直到今天依然占据主导地位。哈利维在没有就自由意志论、道德理性论与人工智能的道德与理性加以深入分析的前提下,就断然否定道义责任论,显然难以令人信服,这也使得其有关人工智能可以成为犯罪主体的观点缺乏哲理基础,这不得不说是一大遗憾。又如,他认为与人工智能犯罪相关的人类犯罪主体是程序员与用户等,就显得过于狭隘。事实上,凡是与人工智能犯罪相关的主体,如人工智能的制造商、销售商、服务商、程序员、所有者、使用者,以及别有用心的黑客等,均有可能因人工智能犯罪而被追究刑事责任。“有关危险的有故障自动驾驶车辆的一种显著可能性是,法人制造商或相关实体,自我驱动的硬件和软件的提供商和服务商,可能会被视为‘操作车辆的人’而构成犯罪。”①Kieran Tranter,The Challenges of Autonomous MotorVehicles for Queensland Road and Criminal Laws,16 QUTL.Rev.59,78(2016).

就人工智能的处罚而言,哈利维的有些观点还是具有可行性的。例如,对人工智能适用“死刑”,就较之对法人判处“死刑”(如注销)更具有可行性,因为注销法人会“株连”法人中的大多数无辜成员,判处人工智能“死刑”则不会产生“株连”效果。又如,公益服务不失为针对人工智能的有效制裁措施。人工智能的许多技能人类无法企及,公益服务能发挥其技能和作用。至于查尼博士所担心的人工智能在提供公益服务时可能会危害社会的问题,倒是没有必要太在意。因为,即使是人也存在同样的问题,谁又能保证犯罪的人不会再犯罪呢?但是,他认为适用于人类的刑罚大多数可以适用于人工智能,这种按部就班地套用模式是否可行值得进一步探讨,毕竟作为机械实体的人工智能不同于作为有机生命体的人类。这使得其有关人工智能处罚的一些观点遭至质疑在所难免。例如,对人工智能处以监禁刑和缓刑,恐怕难以达到像处罚人类那样的效果,至少对弱人工智能而言如此。因为,人工智能若不具备人类那样的意识、思维和理性,通过对计算机程序等酌情加以改写、改良等,显然比判处监禁刑和缓刑更直接并且有利于实现处罚目的。至于哈勒维所主张通过调整处罚方式来对人工智能适用罚金,也是难以自圆其说的。因为公益服务在性质上不同于罚金,与其以公益服务替代罚金,不如直接处以公益服务。

无论哈利维有关人工智能犯罪的理论观点如何,都应当肯定其在人工智能犯罪上的开拓性研究。迄今为止,哈利维对人工智能的罪与罚的研究,可以说是最为全面的。“虽然目前的技术还不够先进,以适应哈利维的理论框架,但新兴技术将使得其在未来得以实施是完全有可能的。虽然他的书后半部分的一些论据和类比可以更加精炼,但哈利维的分析是全面的……”②Rachel Charney,Can Androids Plead Automatism – AReview of When Robots Kill:Artificial Intelligenceunder the Criminal Law by Gabriel Hallevy,73 U.Toronto Fac.L.Rev.69,72(2015).,尽管哈利维对人工智能犯罪的分析缺乏现行法律基础,但其理论研究无疑极具探索性、建设性与开创性,这对尚处于启蒙阶段之际的人工智能刑法研究可谓意义深远。

(二)哈利维的人工智能犯罪观之启示

哈利维有关人工智能犯罪的理论观点本身如何已经不重要,重要的是哈利维开启了人工智能刑法研究的先河,为人们认识和理解人工智能犯罪提供了一面镜子。正如查尼博士在评价《当机器人杀人时:刑法中的人工智能》一书所指出的,“在这本书中,哈利维为我国现行刑法框架中刑事责任能否适用于人工智能提供了一个很好的切入点”③Ibid.p.69,72(2015).。哈利维的相关理论显然大大突破了传统刑法理论的框架,给人们重新审视犯罪提供了新的视角与启示。

近年来人工智能发展极为迅猛,远超人们的想象。现今的人工智能已经不是孤立的,其背后是云计算和大数据。新一代互联网在全球范围的推广应用,将让以人与人链接为特征的互联网,转变为人与人、人与物、物与物链接三位一体的物联网,大数据将井喷式涌现。而量子计算机的横空出世,使得人类拥有的计算能力,正处在指数级增长的前夜。凡此种种,使得人工智能不断取得颠覆性发展和进步。①人脑因其复杂性以及未知性,而被许多人认为是限制人工智能成为犯罪主体的关键因素。问题在于,制造出类人机器人并不需要对人类大脑的功能完全掌握和了解,因为研制“类人”人工智能也并不需要等待脑科学认知原理的突破,只要获得生物神经网络的介观图谱和神经元及神经突触功能特性,就能制造出生物大脑工作模式和性能相当的智能机器,甚至涌现出自我意识。要在技术上达到这一点显然较之对人类大脑功能的完全掌握和了解要容易得多。因此,制造像真正的人一样的人工智能应当不会太遥远。与此同时,人工智能也越来越多地进入人们的日常生活。“2017年12月30日,中国大陆首条无人驾驶运行线路——北京轨道交通燕房线正式开通运营。2018年1月初,北京市顺义区无人驾驶试运营基地在奥林匹克水上公园启动。2018年2月,浙江宣布将建设首条超级高速公路,全面支持自动驾驶。2018年3月,全国首批3张智能网联汽车开放道路测试号牌在上海发放。”②彭文华:《自动驾驶车辆犯罪的注意义务》,《政治与法律》2018年第5期。预计未来10年,无人驾驶地铁及汽车等将进入全国各大城市运营,深刻地影响人们的日常生活。

人工智能的很多技能人类难以比肩,但这并非意味着其不存在违法犯罪问题。以人工智能车辆为例,虽然其安全性更佳,有时也会造成事故。随着更多的人工智能车辆上路,引发的交通事故必然会越来越多。在司法实践中,人工智能独立实施犯罪的典型案例是机器人杀人事件。1981年,日本发生人类第一例机器人杀人事件,受害人是名37岁的工人。③See Yueh-HsuanWeng,Chien-Hsun Chen&Chuen-Tsai Sun,Toward the Human-Robot Co-Existence Society:On Safety Intelligence for NextGeneration Robots,1 Int J SocRobotics,267,273(2009).此后,类似事件屡见不鲜。例如,2015年6月29日,德国法兰克福大众工厂的一名工人被自己组装的机器人杀死,同年印度工厂一名工人被机器人手臂上的焊条刺死。“在过去的30年里,仅在美国机器人就在工作场所杀死了至少26人。”④S.M.Solaiman,Corporate Manslaughter by IndustrialRobots at Work:Who Should Go on Trial under thePrinciple of Common Law in Australia,35 J.L.& Com.21,22(2016).

于是,传统的机器工具主义犯罪观开始受到质疑,不少学者提出智能机器人、无人驾驶车辆等可以成为犯罪主体。甚至,以往否定人工智能法律人格的刑法学者,现在的态度也发生动摇。如德国学者魏根特、瑞士学者格雷斯在2014年发表的一篇论文中反对人工智能成为刑罚主体⑤[瑞士]萨比娜·格雷斯、[德]托马斯·魏根特:《智能代理与刑法》,载陈泽宪主编:《刑事法前沿(第十卷)》,第215页以下。,但在2016年发表的一篇论文中却承认未来智能代理可以变成道德代理,并认为彼时需要重新考虑人工智能的人格及犯罪主体地位问题。“可以肯定的是,这些陈述是指我们在2016年中知道的智能代理。然而,回顾近几十年来计算机科学所发生的迅速变化,未来的智能代理将获得使它们更像人类的素质和能力并非不可能。如果它们获得反省和类似于道德良知的能力,他们的人格问题就不得不重新考虑了。”⑥Sabine Gless; Emily Silverman; Thomas Weigend,IfRobots Cause Harm,Who Is to Blame:Self-Driving Carsand Criminal Liability,19 New Crim.L.Rev.412,417(2016).他们还认为,洛克和康德等古典哲学家们以人的自我反思能力为基础确立的人格方法,并没有考虑当代人工智能。⑦See note⑥,p.412,416(2016).

在我国,认为人工智能可以成为犯罪主体的大有人在。如有学者认为,智能机器人的行为应受刑法规制,刑法视野下的智能机器人具有犯罪主体地位,能够实施绝大部分犯罪并承担相应刑事责任,应当承认机器人的限制性主体地位。⑧参见刘宪权:《人工智能时代机器人行为道德伦理与刑法规制》,《比较法研究》2018年第4期。也有学者在充分考虑当前人工智能发展水平的基础上,主张其成为犯罪主体不能一蹴而就。“现阶段只是在法律上赋予人工智能在某些具体的刑事犯罪主体资格,在特定的情况下,追究军事智能武器的法律责任,类似我国刑法规定的单位犯罪,人工智能犯罪类型是具体和明确的,这也是现阶段有效管控人工智能技术发展,解决法律冲突和法律规避的有效方式。”①夏天:《基于人工智能的军事智能武器犯罪问题初论》,《犯罪研究》2017年第6期。还有观点指出,“一个可行的思路是参考既有犯罪主体中的一些主体否定制度,比如间接正犯(否定他人的主体资格)、原因自由行为(延展行为人的主体资格)等问题的立法模式,使人工智能恰当地进入现有刑事主体立法框架,达到立法与处罚的协调”②王肃之:《人工智能犯罪的理论与立法问题初探》,《大连理工大学学报(社会科学版)》2018年第4期。。对于人工智能犯罪及相关理论,越来越多的人达成如下共识,即应当注重科技创新未来发展可能带来诸多法律问题的预测与预判,与细节微观处的探究,而不是全盘将这一前瞻性的理论研究作为“伪命题”一概排除。唯如此,法律才能彰显生命力,否则是无视人工智能对社会带来法律问题的表现,由此带来的复杂社会难题也将越来越多。③参见马治国、田小楚:《论人工智能体刑法适用之可能性》,《华中科技大学学报》2018年第2期。

在人类刑法发展史上,曾出现过将动物甚至建筑物等作为惩罚对象的现象。启蒙运动以后,随着对犯罪本质及刑罚目的等的认识和理解的加深,动物以及其他自然界实物逐渐被排除在刑法制裁之外。只有人类作为智能生物有机体才具有行为和心理,具备犯罪成立所需的客观要素和主观要素,故而成为刑法规制的对象,这便是刑法人类中心主义。其后,作为组织机构的法人主体的出现,一度被认为对刑法人类中心主义提出挑战。不过,法人犯罪无论是行为还是心理,均依托于法人背后的自然人。换句话说,法人犯罪仍然离不开自然人的参与,故而认为法人犯罪并未在真正意义上脱离刑法人类中心主义。人工智能显然与人类和法人都不同,人工智能具有相对自主、独立的行为与心理,而作为社会有机体的法人通常不具备人工智能所拥有的独立而清晰的实物形象,其行为与心理完全依托于人类。“机器人/法人类比的问题在于,法人和机器人之间存在本质差异:在法律拟制的背后法人有实际的人,而完全独立的超智能机器人则没有。”④Ignatius Michael Ingles,Regulating Religious Robots:Free Exercise and RFRA in the Time of SuperintelligentArtificial Intelligence,105 Geo.L.J.507,516-517(2017).可见,人工智能犯罪与法人犯罪有着本质不同。因此,人工智能犯罪问题无疑将会对传统刑法理论造成挑战与冲击。

首先,人工智能犯罪将对传统刑法理论中的意志自由论提出挑战。古典学派的意志自由论主张,任何人都有为善避恶的自由意志,犯罪是恶,有自由意志的人能够避之而竟敢实施之,故而犯罪出于自由意志。⑤参见马克昌:《近代西方刑法学说史》,中国人民公安大学出版社2008年版,第50页。由于人工智能不同于人类,因而能否根据自由意志论来认定犯罪显然是个问题。人工智能作为一种机械实体,在物理特征上与日常生活中的机械物体并无本质区别。但是,人工智能又具备感知、认知等人类才具有的智能,能独立分析问题和解决问题。例如,AlphaGo在与人类顶尖棋手的对弈中能下出精妙的围棋着法,说明其有自己独立的判断和自由意志。而谷歌公司开发的AlphaGo Zero则可以像人类初学者一样在空白状态下无监督自主学习,这无疑为人工智能产生独立的意识和意志提供了技术根基。甚至,人工智能的某些意志表现力在形式上与人类没有什么区别。可以说,人工智能技术的发展,使得传统意义上的人机之间由主体与客体的关系,逐渐演变成主体与主体的关系,这既是人工智能自由意志的体现,也是其他机械实体无法比拟的。当然,人工智能之自由意志又具有特殊性,如不受身体要素及环境要素等决定,通常只在计算机程序设置和容许的范畴内得以体现,等等。人工智能独特的意志特征,显然会对传统刑法理论中的意志自由论造成冲击。

其次,人工智能犯罪将对传统刑法理论中的道义责任论提出挑战。古典学派的道义责任论通常站在非决定论的立场上,认为在自由意志支配下实施的行为及其结果应归属于行为人,可就其行为和结果从道义上对行为人进行非难。①参见[日]大塚仁:《刑法概说(总论)》,冯军译,中国人民大学出版社2002年版,第374页。站在规范的立场,道德之于责任是有特定意义的。“刑法以及作为刑法的执行者的国家,也必须接受道德的批判。国家伦理性的问题,在考虑责任论以及刑罚界限的时候,具有特别重要的意义。”②[日]曾根威彦:《刑法学基础》,黎宏译,法律出版社2005年版,第32页。刑事责任年龄的确定、犯罪动机与目的之甄别、从重与从轻处罚的规定以及对具体犯罪的处罚等,均体现了道德伦理等对定罪量刑的影响。通常认为,人工智能是有自己的道德准则的。例如,在一项研究中,学生们被要求与名叫罗伯维(Robovie)仿人机器人互动,参与者发现罗伯维有精神、情感和社会属性。③See Melanie Reid,Rethinking the Fourth Amendment in theAge of Supercomputers,Artificial Intelligence,andRobots,119 W.Va.L.Rev.863,886-887(2017).但是,人工智能的道德是有别于人类的。究其原因,在于人类的道德是在历经复杂的社会关系与人际关系后通过抽象思维形成的;而人工智能既没有经过人类那样的漫长成长历程洗礼,也没有经受过复杂的社会关系与人际关系浸淫,其道德是基于数据和算法的线性“思维”形成的。人工智能独有的道德情感会引发许多问题,如智能代理能否成为道德代理,可否因人工智能的独特道德而对之归责,通过何种处罚方式实现对人工智能的道德非难,等等。这些问题将对传统责任理论框架下的定罪量刑造成新的挑战。

长期以来,在刑法人类中心主义犯罪观的支配下,人们总是难以接受人类意外的其他实体成为犯罪主体,这就是为什么直到现在仍然有部分国家不愿意承认法人犯罪的缘由。尽管法人犯罪的背后有人类活动作为支撑,但作为社会组织的法人能够成为犯罪主体,对刑法人类中心主义犯罪观的挑战是毋庸置疑的。可想而知,不依赖于人类活动而能够独立实施犯罪的人工智能一旦可以成为犯罪主体,对传统刑法理论以及刑法人类中心主义犯罪观的挑战,无疑是颠覆性的。尽管人们不愿意面对,但随着人工智能技术的飞速发展及其越来越广泛的应用,人工智能成为犯罪主体并非不可能。届时,我们所要做的不是愿不愿意承认人工智能犯罪的问题,而是如何应对其挑战的问题,就像承认法人犯罪并接受其挑战一样。从这一点来看,哈利维对人工智能犯罪的研究可谓未雨绸缪,其积极的理论价值与现实意义值得肯定。

最后需要说明的是,不管现在或者未来人工智能成为犯罪主体的理由如何充分,要想获得犯罪主体身份必须要有立法的首肯。这是因为,人工智能既不同于生命有机体的人类,也不同于社会有机体的法人,而是属于一种新型、独特的科技实体。对于这样的新型实体,其成为犯罪主体的前提是必须要有刑法的明文规定。否则,便是背离罪刑法定原则,也是不可取的。

猜你喜欢
利维法人刑法
过度刑法化的倾向及其纠正
陕西省法人及其他组织违法失信“黑名单”
《刑法》第217条“复制发行”概念的解释与适用
法定代表人于法人犯罪之管窥
刑法的理性探讨
论法人侵权
法人和法定代表人有什么区别?
释疑刑法
淘金垫的产物
听说你要买房子