机器人伤人事故中是否存在“责任空场”
——基于亚里士多德的责任观

2023-04-15 09:39李英龙
法制博览 2023年8期
关键词:前瞻性亚里士多德事故

李英龙

湖南科技大学,湖南 湘潭 411201

现代社会中,工业机器人被认为是工业化的一段成功历史,多年来,工业机器人的销售和使用数量呈蔚为可观和迅猛增长之势。在这个过程中,人类工作越来越多被机器人取代,在这种趋势下,技术后果研究将工业机器人投入使用后所带来的劳动变化作为了其观察和思考的重点课题。由于整个生产流程只在极少数情况下才能自动化,所以,手工行为和机器人动作就成了一种必然的结合。在这个结合的过程中难免会出现事故问题,这种事故也将会出现更多责任归属问题:机器人是否可以成为责任主体?受害者是否可以完全从承担责任方取得所有报偿?在现代社会里,行为后果之间的综合因素越来越复杂,他们之间相互依存和变化,法律对于这些原则的前瞻性和回溯性责任的变化也在不断增多。因此,我们必须从多方面进行思考。无论从因果关系还是从责任伦理方面,责任的承担必定要有一个伦理学上的、对双方都合理的结果,而不是国家法律规定一个责任方。

一、责任归属问题概述

责任首先可以区分为标准方面的责任和因果责任两种。因果责任仅仅只表示因和果的关系,并随时可以用原因的概念来进行替代。从这个理路下,“肇事者要为车祸负责”这句话不外乎是肇事者引起了这场车祸。这件事中的原因认定都是从经验方面考虑的,而非价值判断或者标准规范的责任归属问题,那肇事者是不是车祸的必要因果条件?然而,在技术伦理学中,因果关系中的原因归属经常处在生活中或者大自然中的各种综合关系中。当我们认定这个司机是这场车祸事故的原因时,只是从诸多因果条件里选出了一个我们所“认可”的因果条件。这个人们都“认可”的因果条件,实际上只是处于人们可接受的范围,认为我们有必要对它进行强调,而只把其他因果条件(例如雨天路滑、交通拥挤)作为自然背景看待。所以判定一个责任归属不仅要通过综合因素,而且要考虑标准规范(如道德、伦理的)。

标准的责任包括前瞻性和回溯性。在前瞻性方面,只要人们对自己或者其他行为能力的实体提出标准要求的地方,都可以将责任归结到那里。正是因为他们采取这样的做法,所以他们就把满足相关要求的前瞻性责任归属给了当事人。在回溯性方面,行为者给自己或是针对别人的主张和态度,决定自己或别人是采取行动还是放弃行动,或者以某种方式把行动和不行动的结果和附带后果归结到自己身上,就如同车主在买车的那一刻就已经做好要出车祸的准备,车主在这一刻已经准备好要对此负责了。前瞻性和回溯性的责任归属含义是完全不同的,但却可以紧密联系在一起。例如,制造商要对产品的生产标准负责,这是前瞻性的示例。但同时,制造商要对不合格产品所产生的问题负责,这是回溯性责任。显而易见,回溯性责任的归类不能简单列为因果关系,我们必须考虑到特殊情况存在,这些特殊情况某种情况可以免除作为个例的当事人行为的回溯性责任,但一个人要为自己的行为前瞻性地负责任。

亚里士多德的基本的归属标准就是回溯性责任的理论根据。在亚里士多德认为,行为者对自己负责任有三个条件。第一,自己是行为的原因。在亚里士多德的行为观中,人的行为分为两种,一种是对自己行为负责,这种行为是自己本人发出的。另一种是自己不是行为的原因,这种行为是由外力影响的,而且这个外力必须是不可抗拒的且合理的。例如,驾驶员在行车过程中被后车撞击后被迫向前行驶而出车祸,对于这种属于在机缘巧合下被外力阻止而做出,不是由于自己做出的行为不必承担责任。亚里士多德认为,人只对原因是内在的行为负责;对于那些原因是外在的行为,即原因不在他自身而在他自身之外的行为,不需要承担责任。第二,行为者能够控制自己这一行为。例如驾驶员在行车过程中脚被刹车踏板卡住不能动而出了车祸,这个过程中驾驶员无法控制自己的行为,在无法控制自己行为的情况下,我们不需要对事件负责任。如果我们可以自由控制自己踩下刹车而且毫不费力,在出现事故的情况下,我们要对此负责任。亚里士多德认为,自己能够控制自己是负责任的重要条件,例如醉酒的人造成了事故只能免除一定的责任,而不能完全免除。第三,知道自己正在做什么。如果一个精神分裂症患者在发病期间造成了事故,那么他不用对自己负责任,因为他不知道自己在做什么,这件事本身就失去了原因,就像是飞来横祸,完全是无意识的行为,几乎可以归结为大自然中随机事件。如果一个人明知道自己接下来要做什么,而且明白做了这件事之后会产生什么样的结果,那么事故发生了,这个人必定要承担责任,这属于有意识的、恶的行为,人类需要为自己的恶行得到相应的惩罚。所以,知道自己正在做什么也是亚里士多德评判一个主体应不应该负责任的重要条件。

亚里士多德在论述了三个负责任的条件之后,还提出人在这两种情况下不用对自己负责任:被强迫做出的行为和出于对一件事的无知所做出的行为。[1]在被强迫的情况下,自己对此无能为力,而且行为原因在行为者之外。例如当一个歹徒强迫银行工作人员打开保险箱,并把钱都交给歹徒,如果不打开就要结束工作人员的生命,这个时候工作人员做出这一系列事情后不必对这件事负责任。亚里士多德认为完全的无知行为是不自愿的行为,因为行为者往往在做出无知行为之后非常悔恨,实际上自己是有知识的,是对自己无知的悔恨,因此人们不必要对自己的无知负责任。如果一个人处于意识不清醒时做出了一个决定,而这个决定伤害到另一个人的时候,就可以不承担责任。但是一个人是有意识地使自己处于无知的状态下,那么这个人将对自己后续的后果负责任。

因此,对于亚里士多德的基本归属标准:我们只能针对行为当事人有能力控制和他实际控制的那些自觉自愿的事情,来追究回溯性责任。由自身错误所引起的缺乏自我管控的行为,应该受到谴责和惩罚;同样,如果从标准角度说,以行为人自身的认知水平是能够做到对基本伦理规范的了解的话,那么对这些规范表现出的茫然无知也应受到谴责。

二、机器人事故中的“责任空场”

国际标准中的ISO 8373-1994:操作型工业机器人,所沿用的机器人定义为:机器人是一种至少有三个运动轴的、自由和可重复编程的、多用途的操作手,用来在已编程或可变的路径上移动材料或特殊装置,并完成各种不同工作。“机器人”最早起源于捷克作家雷尔·恰佩克的作品《罗素姆的万能机器人》中,该词写作“robota”,为“劳动”之意。因此机器人的定义可以被理解成一种“万能的劳动工具”。[2]在如今机器人技术可以被视为工业化过程中的一个中心概念,产品不再由工人手工完成,从而生产效益得到了提高。然而,罗纳德·阿金——著名机器人技术专家和机器人伦理学家,在2007 年提出要对能够杀人的自主机器人予以伦理规范约束的观点,这时候便引出另一个伦理学任务范畴,即在机器人直接与人出现争端的情况下根据什么道义准则可以对其进行制裁?在这个过程中,机器人代替了人的行为,需要谁来承担责任?

所以,应当引起我们注意的是机器人在工作中针对无关的第三方所带来的责任问题。工作机器人的工作环境通常是开放的场地。举例来说,一台正在自行工作的农业收割机所工作的区域是固定的,而且一台机器在工作中需要一个学习和适应的过程,在这个学习的过程中,处于制造商之外的企业所属的工程师将对机器人进行编程调试一段时间。所以,一台机器人将在边学习边摸索的过程中不断调整适应一段时间。同时,一个无关的第三方,例如田地边骑车的人或行人路过时,有可能会经过机器人的工作区域,这将和人的行动区域产生冲突,冲突将会导致行人受伤,从而引发由谁来为事故负责的问题。

关于这个问题,从技术伦理学的视角来看,关于这种机器人行为的责任分配问题在这里就变得十分不合理。生产商交货的是一台具有学习能力和被调试功能的机器人系统,在企业使用一段时间后,生产商将不再能针对机器人的动作做任何预告,并且无法预知机器人的学习过程的内容。因此生产商无法通过限制机器人的学习过程而免除其所承担的责任。另外,机器人的使用者通常也没有能力对机器人的运行过程进行评估。一般来说,使用者通常是遵守使用指南的,而且也会定期对机器人进行维护保养,如果是没有遵守使用指南的话,责任的归属问题就很容易归给操作人员了。然而,让使用者为机器人的事故承担责任,而且是从机器人在学习和分析过程中进行监督的意义上承担责任,这已经超出了一个操作人员的能力范围。这样,一种有学习能力的系统就在生产商质量保证和使用者责任之间产生了灰色地带。

三、基于亚里士多德责任伦理的机器人事故责任分析

下文将从亚里士多德的责任伦理学角度,以及前文拓展的前瞻性和回溯性责任归属的问题讨论谁应该为机器人事故负责任。

第一,在前文提到,责任首先可以区分为标准方面的责任和因果责任两种。[3]因果责任仅仅表示因果关系,用原因来解释机器人事故的责任方只能归于机器人来承担责任,因为机器人是首当其冲的伤害方。然而,这里就存在一个责任的主体性问题,机器人不能作为责任主体。人类具有自由的意志是我们能够对自身行为承担责任的先决条件。这种自由意志可以理解为行为者拥有理性,并且行动者从各种抉择中选择某个行动的一种能力。而机器人只是基于制造商预先设计的程序进行的,不会超出这个行为范围,也就不存在自主意识。从康德哲学意义上讲,拥有理性的人首先拥有自我设计、自我选择、自我管理、自我实现的能力。因此机器人不具备成为责任主体的能力,机器人也感受不到惩罚带来的痛苦;第二,工程师在设计机器人的同时赋予了其一定的自我学习和自我检测还有自主决策功能,在这个过程中,人类没有从中干预,制造商只是给机器人打开一个电源开关,后续发生的过程全是机器人自主影响的范围,因此,机器人具备一定的自主性;第三,问题的关键就在于如何对机器人进行惩罚。首先可以理解的是对人类的惩罚是限制人身自由和对其造成伤害或者进行赔偿,但这三项对于机器人没有任何意义,机器人的意义在于工作、劳动、为人类服务,而这一切的基础是机器人的程序或者是编程,我们可以通过终止、销毁机器人的程序,使其失去本身的价值和意义,在某种程度上是对其本身的一种惩罚,虽然这里没有涉及赔偿,但也为其中的责任空白做了一定的补充和建议。

四、结语

工业机器人是工业发展的方向,在不久的将来,工业机器人将大量地应用于各行各业。由于算法和软硬件技术等原因,工业机器人并不是百分之百安全的,那么万一机器人引发事故,谁应该为这一事故承担责任?一些伦理学家认为,机器人伤人事故存在“责任空场”。亚里士多德责任伦理是研究道德责任问题的经典理论,它为我们分析和认识这一问题提供了理论指导。从经典的亚里士多德责任伦理来看,使用者应为机器人事故负责,因此并不存在责任空场。本文有力地回应了机器人伤人事故道德责任主体,希望能够解决“责任空场”的问题,同时也为工业机器人方面的立法提供一定的伦理基础。

猜你喜欢
前瞻性亚里士多德事故
学中文
形式正义的前瞻性要求:麦考密克的后果推理
3D-ASL在TIA预后的前瞻性评价中的价值研究
小恍惚 大事故
亚里士多德的发现
经腹腔镜Nissen与Toupet胃底折叠术治疗GERD前瞻性随机对照研究的Meta分析
解析亚里士多德的“修辞术是辩证法的对应物”
关于发展中国雕塑“网上教育”的前瞻性探讨
重大的差别