人工智能时代下刑事责任认定初探

2020-08-03 01:58吕欣欣
大经贸 2020年3期
关键词:自主意识刑事责任人工智能

【摘 要】 新时代人工智能技术多角度多方面推动社会的发展,因此受到许多行业的热捧,许多企业家纷纷投资此领域。人工智能行业兴盛的同时,也带来一系列负面问题,机器人伤人、杀人案件自上个世纪就开始出现,越来越大的死伤数据使得人们陷入恐惧,人工智能会不会犯罪?构成犯罪谁承担责任?人工智能未来能否摆脱人类控制灭绝人类?我们需不要阻止人工智能的发展?一系列的问题让公众对人工智能技术有了新的更深层次的审视。目前国外许多国家已经制定出相应的机器人刑法,专门针对可能或已经发生的机器人伤人事件,我国目前并未对机器人犯罪作出相应的法律规定,以至于实践中发生机器人伤人事件时无从下手。本文主要针对机器人的危害行为进行分析,解决人工智能与刑事责任的关系,从而进一步为上述四个问题寻求答案。

【关键词】 人工智能 刑事责任 工具属性 自主意识

一、人工智能的定义

根据智能程度,人工智能可分为弱人工智能,强人工智能和超人工智能。弱人工智能是指具有某些推理能力和解决特定问题能力的智能机器或系统。在弱人工智能阶段,只关注完成特定任务,如语音识别、图像识别和翻译,是一种擅长单一方面的人工智能,类似于先进的仿生学。它们仅用于解决特定具体类的任务问题,其中大部分是统计数据,从中总结了模型。Google的AlphaGo和AlphaGo Zero是典型的“弱人工智能”,充其量只是一款出色的数据处理器。 雖然他们可以击败国际象棋领域的世界级冠军,但AlphaGo和AlphaGo Zero只会下棋,这是一种在单一游戏中表现出色的人工智能。如果弱人工智能只是复杂的数据处理者,那么强人工智能可以独立地识别、思考、推理、创造和解决人类等问题。强人工智能其认知能力和智商与人类相当。 对于这种人工智能水平,我们无法通过图灵测试将其与人类区分开来,并且在认知和存在意义上它们与人类没有区别。 超人工智能其认知能力,计算能力和智商远远超过人类指数水平。 它们的存在将类似于电影终结者对天网的描绘,它将成为上帝般的存在,它的能力也远远超过人类的认知范围,它可以摧毁或统治人类。超人工智能意味着人工智能已经越过了“奇点”并打破了人脑限制。它的计算和思考能力远远超过人类,并且它比所有领域中的人类大脑更聪明。目前,世界正处于弱人工智能阶段,随着技术的发展,未来几十年进入强人工智能时代是可能的结果。

二、人工智能带来的刑法问题

随着人工智能水平的提升,人工智能的设计者正在尝试赋予机器人独立思维的能力,科技发展的同时也带来一系列法律问题。例如,1978年9月,世界上第一起机器人杀人事件发生在日本广岛,工厂的切割机器人意外地导致值班工人当场死亡。不仅日本,德国也发生过类似的杀人案件,事件的发生引发了世界的恐慌和反思。这些惨痛的事实解决了第一个问题,机器人(人工智能)会犯罪,但因机器人特殊的身份,如果触犯刑法该如何判处,是否可以承担刑事责任?

(一)弱人工智能与刑事责任

在弱人工智能时期,即在我们当前时期,弱人工智能的技术发展水平还没有达到模拟人脑意识的水平。人工智能犯罪大多存在两种情况,第一种情况是,行为人(设计者、使用者)利用人工智能实施犯罪,造成了严重危害社会的结果。皮勇教授认为,受人类控制的人工智能系统不具有独立的主体性,不应承认其犯罪主体地位。如果犯罪分子将这些技术与互联网平台和大数据技术结合使用,极为容易威胁计算机信息系统的安全性,导致公民个人信息的泄露。在这种情况下,第三方行为人才是犯罪行为执行的领导者,人工智能产品直接作为犯罪工具对受害者采取行动。由于人工智能具有工具属性,在这种情况下,第三方行为者承担刑事责任。具体依据的刑法条文根据现有的罪名进行处罚。第二种情况是,由于人工智能产品本身的缺陷,特别是智能系统的操作失败,会对社会造成严重危害。国家立法和实践调查了有缺陷产品的死亡和受伤责任,并经历了从民事赔偿到刑事制裁的过程。瑕疵产品造成的死亡和伤害的法律性质犯罪发生的最直接原因是行为的非法性和社会危害程度超出了刑法的容忍范围。同时,虽然人工智能产品直接影响受害者,但人工智能产品不能对此结果负责,因为它们是“事物”,我们会考虑相关人的责任。因为生产者、所有者、使用者或管理者负有对产品的预见和监督义务,所以在可预见范围内其是危害结果的责任人。根据《刑法》第三章的有关规定,按照具体的法律依据被定罪和判刑。当然在设计和应用过程中无法预见危害结果的发生,可作为意外事件处理,不追究相关人的责任。

(二)强人工智能与刑事责任

未来,人工智能技术将不断完善,人工智能可以似人一样独立识别、思考、推理、创造和解决各类问题,成为真正意义上人类级别的人工智能。那个时候它是一个像自然人一样的刑事责任主体吗?是否像自然人一样具有刑事责任主体地位?与自然人(这里指的是达到法定年龄,具有责任能力,有生命特征)相比,智能机器人由程序设计和编制而成,不具有生命特征,并不能等同于自然人。随着人工智能技术的不断发展,智能机器人越来越像“人”。像自然人一样,机器人可能具有自主意识和意志。虽然机器人是由人类设计和编制的程序组成的,但是由于人类在其“体内”设计和编译的程序,使它具有思考和学习的能力,这使智能机器人能够产生自主行为和意志。

在强人工智能阶段,主要涉及三种犯罪行为,一种是在设计和编制程序范围内实施行为时,智能机器人不承担刑事责任。另一种情况是,随着人工智能技术的发展,智能机器人未来可能无法控制,当行为在设计和编程程序的范围之外实现时,智能机器人的行为实现了自身意志而不是他人意志,因此可以成为刑事责任的主体。一旦智能机器人符合刑事责任实体的资格,当它犯下严重危害社会的罪行时,它当然可以承担刑事责任。第三种情况是,自然人与人工智能合作犯罪,或者自然人欺骗人工智能,人工智能基于错误认识在设计和编程程序的范围之外实施了犯罪行为。此时,应考虑共犯问题,根据共犯规定,智能机器人和自然人根据主从关系分担刑事责任,不仅追究智能机器人的刑事责任,还要追究智能机器人的开发者,用户或管理者等自然人的刑事责任,杜绝逃脱一切责任。

(三)超强人工智能与刑事责任

超人工智能意味着人工智能已经越过了“奇点 ”,打破了人脑限制。它的计算和思考能力远远超过人类,并且它比所有领域中的人类大脑更聪明。这是一个极为恐怖的时期,人类此时与超强人工智能相比,处于弱势地位,由统治者变为人工智能的被统治者,此时人类文明灭绝了,也就不存在刑事责任问题。当然机器人失去控制,是科幻大片常会出现的情况,现实中还是個未知数, 所有人无法预知结果。为了提前预防,杜绝这种被动局面。在现阶段,刑法应当关注这个问题,在国际上达成共识,就像克隆人的禁止问题。国内规制生产、设计企业,立法上进行约束,提前进行防御。科学界没人否认超强人工智能时代的到来,只是时间早晚问题。最终以什么方式出现时科学家需要探讨的问题。当它出现并造成了我们的损害,该怎么办?不要以人类法律制度作为出发点,要摆脱人类中心主义,摆脱人类视角。当强人工智能时代到来时,可能定规则的并不是我们人类。断然否认是有问题的,未来法该如何设定需要发挥我们的想象力。

三、对待人工智能技术的态度

在给国家领导的公开信中,科学家们指出,自主武器被认为是继火药和核武器之后的第三次武器革命。目前人工智能技术的发展使得一些自动武器能够在几年而不是几十年内完成,大大缩短了实现时间。已故的物理学家斯蒂芬﹒霍金在他的一生中多次表示人工智能可以摧毁人类。即使是硅谷的“钢铁侠”艾伦马斯克也是人工智能的反对者。他在2014年表示,人类应该警惕人工智能,因为它们比核武器更危险。去年8月,他率先签署了一份联合公开信,敦促联合国采取措施禁止发展杀人机器人,担心人工智能可能引发第三次世界大战。这些极具社会影响力的人士如此反对人工智能的发展是根据一定的事实作出的行为,2018年2月,韩国科学技术研究所(KAIST)开设了一个人工智能武器实验室,用于开发配备致命武器的人工智能机器人。即所谓的“杀手机器人”。如果该“杀手机器人”研制成功,造成的后果可想而知,所以据《南华早报》报道,4月4日,来自全球28个国家和地区的50多位顶级 AI专家宣布,他们将抵制 KAIST并终止与该研究所的所有合作。抗议直到它停止开发自己的武器。在公开信发布后,KAIST面临压力,宣布新开放的实验室将不参与任何自主武器系统和杀手机器人的开发,国际AI专家的抵制活动也随之结束。

与科学实验中使用的人工智能不同,军事情报武器面临更残酷和客观的战争。人工智能运用到军事中比任何领域都要危险,大规模的军事智能武器作战很有可能导致人类的灭绝。此时,人们将怀疑人工智能是否可以在未来摆脱人类的控制和消灭人类。我们需不要阻止人工智能的发展?从理智方面讲,人工智能已深入人们的生活过程中,要想全面将人工智能拨出,已不可能完成,前面已说道,世界正处于弱人工智能时代,所以机器人没有自主意识,一切按照程序进行,此时不必过于担忧,正常使用人工智能即可,不需要消灭人工智能。人工智能正常发展,未来很有可能进入强人工智能阶段,此时机器人在一定程度上同人类似,开始有自主意识,这时候就要加以限制,对智能机器人的功能和程序就要加以控制,减少潜在的危险性。至于超强人工智能时代,机器人很可能反过来统治人类,这是极为恐怖的,要采取一切可能的手段杜绝进入超强人工智能时代,这也告诫研发人工智能的专家们不要让人工智能无限制发展,正常服务人类即可。科学技术的发展日新月异,法律,特别是刑法的制定,需要很长时间。如果一个超级智能机器人出现并且可以在自治的情况下独立地做出决策和实施行为,那么人类就不再具备控制智能机器人行为的能力,并且可能由强大的智能机器人控制。因此,我们有必要考虑通过立法来控制人工智能技术的快速发展,同时采取一定的风险防控措施,以防止问题发生。

四、人工智能犯罪刑罚体系的构建

在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,“女性”机器人索菲娅被授予沙特公民身份。她也因此成为史上首个获得公民身份的机器人,相信继沙特阿拉伯之后会有更多的国家加入到该行列。法律赋予机器人索菲亚公民身份,这是立法上一个重要里程碑,它扩大了公民的解释范围,使得非自然出生的机器人获得公民的资格,自然也相应享有公民权利和公民义务,此处指的是民事上的责任。如果未来索菲亚实施了危害社会和个人的行为,就如同2015年美国科幻电影《机器姬》中的高级人工智能机器人艾娃,假装爱上前来秘密研究所对其进行测验的男人,教唆男人改编研究所安全系统,并成功杀害创造她的科学家逃出研究所混入人类世界,该影片看完只留下惊恐和战栗,对于索菲亚和艾娃的犯罪行为,刑法可以对其进行规制么?过去对人工智能或机器的理解是它们代替人类做一些(智力型)的工作,现在的人工智能大多融入了社会学、心理学、哲学等学科知识,使其能够有意识开展自己的思维,具备一定的控制能力。因此刑事法律对此需要密切关注。

(一)制定和完善与人工智能相关刑法规定

1.探寻处理人工智能刑法问题的依据

我国刑法中的犯罪主体是指实施危害社会的行为、依法应当负刑事责任的自然人和单位。《中华人民共和国刑法》第 17 条、第 18 条、第 19 条等多处规定表明,我国刑法中的犯罪主体仅限于自然人和单位,而决不能是人和单位以外之物。假设我们将人工智能实体界定为物,当发生侵害人类重大法益的刑事案件时,目前的《刑法》无法追究人工智能刑事责任,法官对其认知倘若停留在传统意义上的“机器产品”,则可能将该案件转为民事诉讼,最后适用《产品质量法》对研发者、销售者或使用者判定承担经济赔偿责任。但若将人工智能体设定为特殊的刑事主体,当发生侵权行为时,人工智能体通过独立承担刑事责任的特殊刑罚体系对其施以惩罚,可以有效地达到预防人工智能犯罪的目的。执行超出设计和编程程序范围行为的智能机器人具有识别和控制的能力,因此这些智能机器人也应被视为负有责任。与单位相比,执行设计和编程范围之外的操作的智能机器人更“直接”。它不需要以其他主体的意愿来表达,更类似于自然人的刑事责任。机器人索菲娅被授予沙特公民身份就表明机器人也可以当作人看待,将来作为承担刑事主体也具有可能。

刑法规制人工智能需注意两个方面。一方面,传统罪名应与时俱进,可通过客观解释、扩张解释的方法来应对人工智能带来的新风险。例如,在聊天机器人诈骗案中,聊天机器人能在微信、婚恋网站中假装成各种美女,同时与多个对象聊天,批量“谈恋爱”,批量实施诈骗。聊天机器人作为新型诈骗工具,其行为仍能通过现有的诈骗罪法条进行解释。当人工智能深入学习,能独立作为犯罪主体后,其实施的传统犯罪也完全可以用现有的法条进行規制。另一方面,逐步设立新罪名,应对新型犯罪。如开发以实施危害为目的智能机器人,当传统罪名无法与之对应时,法律应创设新罪名。同时,在构建智能机器人惩罚系统时,必须遵循以下三个原则:第一,罪刑相适应原则。罪刑相适应原则的基本含义主要是惩罚的严重程度必须与犯罪的严重程度相一致,也就是说,犯罪社会的危害程度决定了刑罚的严重程度,重罪是严惩,轻罪则轻微受到惩罚。第二,目的导向原则。目的导向原则是指刑罚的构建和设置必须符合惩罚的目的,如果惩罚的目的是为了防止犯罪,包括消除犯罪者的人身危险,使犯罪者改变邪恶并做好事,那么成为惩罚适用基础的犯罪必须在主客体之间统一起来。第三,节俭性原则。智能机器人的存在在一定程度上促进了经济社会生活的快速发展。

2.创设适合人工智能的刑罚方式

目前,中国刑法建立的刑罚制度主要由主刑和附加刑构成,显然,这些刑罚种类仅针对自然人而设计,且仅能适用于自然人(罚金刑可以适用于单位)。忏悔,道歉,损害赔偿等非惩罚措施具有强烈的自然人色彩,这些刑罚种类均难以适用于人工智能产品。从惩罚的目的来看,很难与人工智能产品联系起来,无论是报应还是预防。因此,可以为机器人创建一种新的惩罚方式,刘宪权教授提出适用于智能机器人的刑罚可以有三种,即删除数据、修改程序、永久销毁。所谓的数据删除是指删除智能机器人依赖进行犯罪行为的数据信息,相当于删除智能机器人的“犯罪记忆”。使其恢复到实施犯罪行为之前的状态。所谓的修改程序是指当数据被多次删除时,还不能防止机器人主动获得可能进行犯罪行为的“负面数据”。也就是说,当智能机器人不能被引导时,它被迫修改其基本程序,并且其获取外部数据和深度学习的能力被限制在由程序设置的特定范围内。它从根本上被剥夺了犯罪行为的可能性。这意味着智能机器人的深度学习功能将是不完整和有限的,不能再获得人类程序范围之外的数据,因此不可能产生超出人类意志的自我独立意志。所谓永久销毁,意味着当删除数据并且修改程序不能降低犯下该罪行的智能机器人的个人风险时,换句话说,智能机器人的深度学习过程已经很长,并且在长期的实践和成长过程中形成了程序性的“反删除能力”和“反修改能力”。除了永久性的破坏之外,人类无法有效控制其数据和程序,而且只能永久销毁。笔者认为,这三种针对人工智能而创设的刑种具有一定的可行性,它在一定程度上打破了目前无法惩罚智能体的尴尬局面,可以进一步推广。

(二)规范人工智能产品与服务提供者的活动

人工智能产品与服务提供者是智慧社会的核心单元,其发展决定我国人工智能发展应用的水平,对智慧社会正常有序运作起决定作用,应当借鉴网络空间治理的经验教训,既要规范我国智慧社会核心单元的活动,又要使之承担合理的协助管理智慧社会的责任。首先,应当规范作为被管理者的人工智能产品与服务提供者的活动。如果不能使其依法开展经营活动,将难以阻止其滥用优势地位危害公众、妨害社会管理秩序,应尽早研究制定《人工智能安全法》,全面规范人工智能产品和服务的研发、制造、提供活动,禁止人工智能违法活动,对于严重危害社会的行为,如果超出现行刑法范围,应当研究制定相应的刑法对策。其次,应当规范作为协助管理者的人工智能产品和服务提供者的活动。随着人工智能普及社会化应用,滥用人工智能的行为会日益严重且产业链化,最终将造成严重的社会危害,采用事后处罚模式难以有效阻止人工智能应用灾难化发展趋势。在当今社会,人工智能产品和服务提供者对其产品和服务保持着事实上的控制关系,而国家相关管理部门缺乏足够的技术能力和专业管理资源直接管控跨地域、智能性违法犯罪,只能通过前者进行间接管理。因此,为了有效维护智慧社会的安全与秩序,应对人工智能产品和服务提供者规定必要、合理的协助管理义务,至少应包括对其提供的产品和服务安全进行监督、监控和拦阻违法利用其产品和服务以及协助国家管理部门管理、调查、处分相关违法犯罪活动等义务。为了保障以上协助管理义务被切实履行,刑法有必要对人工智能产品和服务提供者设立不作为犯罪。

五、结语

目前,智能机器人由开发人员控制,但在未来,一旦智能机器人的智能达到或超过人类,它将在一定程度上结束“人为控制”的循环,人们应该尽量避免这种情况。换句话说,智能机器人的开发者和用户必须确保他们设计、编译和使用的智能机器人始终在人的监督下。保持机器人服务、造福人类的定位,段可不能将其自由意志过度放大。我国应进一步完善国家法律体系,及时公布各类相关法律法规以及最新学术成果,对人工智能是否能够成为法律主体应制定出清晰的标准,为司法人员提供及时的法律依据。同时,我们将加强人工智能伦理研究,处理机器与人之间的新关系。让技术造福人类。

【参考文献】

[1] 马治国,田小楚.论人工智能体刑法适用之可能性[J].华中科技大学学报.2018(2).

[2] 高铭暄,王红.互联网+人工智能全新时代的刑事风险与犯罪类型化分析[J].暨南学报( 哲学社会科学版),2018(9).

[3] 刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].法学.2018(1).

[4] 夏天.基于人工智能的军事智能武器犯罪问题初论[J].犯罪研究.2017(6).

[5] 吴波,俞小海.人工智能时代刑事责任认定思路的挑战与更新[J].上海政法学院学报.2018(5).

[6] 刘宪权.人工智能时代刑事责任与刑罚体系的重构[J].政治与法律.2018年(3).

[7] 皮勇.人工智能刑事法治的基本问题[J].比较法研究.2018(5).

[8] 刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学.2018(1).

作者简介:吕欣欣(1995—),女,汉族,山东济南人,法学硕士,单位:上海政法学院刑事司法学院,研究方向:刑法学。

猜你喜欢
自主意识刑事责任人工智能
人工智能与就业
论被害人过错行为对行为人刑事责任的影响
如何培养中职生的自主写作能力
中职机电专业教学中如何提升学生主动参与的意识