自动驾驶汽车的“道德主体”伦理原则困境

2022-05-13 01:40陈媛
时代汽车 2022年9期

陈媛

摘 要:在自动驾驶汽车高速成长的今天,我们也开始关心机器怎样进行自我判断,以及怎样衡量人们对指导它行动的伦理准则的期望。自动驾驶汽车的核心伦理问题是遇到事故时,关于道德主体的抉择,学者们从各个角度提出不同的见解,如结果论伦理学、义务论伦理学、契约论伦理学,但这些都不能以偏概全的进行讨论。自动驾驶汽车所面临的决策后果未知,未来行动的不确定性,甚至自身环境的不确定性,有了这些不确定性,常见的道德问题很快变得“复杂”。

關键词:自动驾驶汽车 道德主体 道德困境

Abstract:With the rapid growth of self-driving cars, people begin to care about how machines make their own judgments and how to measure people's expectations of the ethical principles that guide their actions. The core ethical issue of autonomous vehicles is the choice of moral subjects in the event of an accident. Scholars have put forward different opinions from various perspectives, such as consequential ethics, deontological ethics, and contractual ethics. With the unknown consequences of decisions facing autonomous vehicles, uncertainty about future actions, and even uncertainty about their own environment, common ethical issues quickly become “complex”.

Key words:automatic-driving car, moral subject, moral dilemma

1 引言

由于人工智能的迅速蓬勃发展,导致了人类社会开始关心机器怎样进行道德决策,以及怎样量化人类社会对指导机器行动的伦理准则的期望。同时自动驾驶车辆也开始在一些路线上进行了巡航试验,这也要求人类社会必须就威胁生命的事故无法避免地出现时应适用的道德准则进行了一致。以百度、谷歌等为代表的网络公司,从人工智能的角度切入了自动驾驶行业,把自动驾驶车辆视为一种高度智慧的机器人体系,采用了自主驾驶技术的车辆,其实质上是一种移动的智慧互联机器人,并且能够做到真正的自动化和共享化。2021年1月,交通运输部印发了《关于促进道路交通自动驾驶技术发展和应用的指导意见》的全面实施,到2025年自动驾驶基础理论研究取得积极进展,出台一批自动驾驶方面的基础性、关键性标准;推动自动驾驶技术规模化应用产业化落地。但就目前来看,自动驾驶汽车正式进入商用阶段还面临一些困难,其中有技术上的,也有立法和伦理上的;相比之下,后者更为严重和紧迫。

2 自动驾驶汽车的道德主体的伦理学原则

让我们再来思考一下,菲利帕福特所提出的典型案例"电车问题":当一列失控的电车突然从远处奔驶而来,假如此时你是驾驶员,如果按原路径继续向前行驶,将会碰到前方车道上的五人,并造成五人死伤,但如果避免这五人,可以把电车转入另一个转辙器路,但这将会导致岔道上的另一个人死去,那么在这种情况下,该如何选择呢?在结果主义者眼中,通过杀掉一个人来挽救五个人的生活是允许的,也是最佳的选项。不过,道德义务论者也指出,故意杀死了一名无辜的生命,这无论如何都不是一种道义的行为,是必须制止的,我们也不要把人仅仅当成工具而使用。两个理论都给人类的道义选择问题给出了截然不同或相反的回答,使我们无法选择。而目前发展的自动驾驶汽车的伦理也可能需要两种或更多的伦理理论的结合。

2.1 结果论伦理学原则

自动驾驶车辆,即便是复杂的例子,也会不断出现碰撞事件,想要降低伤亡,车辆需要进一步衡量自己和别人的风险。即便是单纯的机动也要求汽车判断对自己和别人的风险是不是能够承受,自动驾驶汽车应该在任何时候都尽量减少损害,这提出了一个结果主义的伦理体系。我们关注的一种结果主义的形式,即功利主义,它分析情景的预期效用,根据行为的结果来评估行为肯定道德有效性,并根据什么能产生最好的来评估行动的结果,也就是说,“目的证明手段是正当的”。这表明,如果一个行为的结果——或者在自动驾驶汽车的情况下,预期的结果——使效用最大化,那么这个行为就是道德的。这种方法的优点是易于计算。然而,很难为结果定义一个度量。财产损失估计可能会产生不公平的结果,因为他们会建议与戴头盔的摩托车手相撞,而不是没有戴头盔的摩托车手,因为戴头盔的摩托车手不太可能遭受昂贵的大脑损伤。这个例子说明了功利主义的另一个缺点——它通常使集体利益而不是个人利益最大化,而且没有考虑到公平。一个群体可能会一直受益(不戴头盔的骑手),而另一个群体则是输家。

结果论主义,通过其更具体的功利主义形式,为将伦理决策作为一个优化问题提供了基础。在控制理论中,最优控制利用一个优化问题来数学上确定一个最优解作为控制动作。具体来说,最优控制行为(即道德上正确的决策)是使成本函数最小化的可行解(即力求达到的期望结果)。对于自动驾驶汽车来说,这种成本函数的一个例子可能是将对车辆乘员的伤害降到最低。最优解用结果主义的术语来说就是操纵交通工具来实现最小化伤害的目标。

2.2 义务论伦理学原则

另一个核心的规范伦理理论是义务论,义务伦理学包含了对机器行为的限制,或者一组它不能违反的规则。义务伦理学必须遵循一种准则,这种规则决定着人们合理的、道德的行动。艾萨克阿西莫夫的机器人三定律是义务论伦理学的一个经典案例,它说:

(1)机器人不能攻击人类,或袖手旁观,听任人体遭受损伤。

(2)机器人需要服从人给它的指令,除非与第一定律相冲突。

(3)机器人需要保证自身的存在,只要这个保证不能和第一定律或第二定律相冲突

机器人三定律为阿西莫夫的故事中要遵循的机器人行为规则提供了一个清晰的架构,有效地约束了机器人的行为。只要机器人在三定律的条件下,它就可以在必要时进行操作。当然,阿西莫夫也证明了这种方法的局限性,因為他的机器人故事往往涉及到这些法则之间的冲突而产生的奇怪行为。因此,义务论为自动车辆算法的编程提供了一种激励结构:可以在道路上定义和遵循的规则。这些规则类似于决策和控制算法中用于约束和操纵系统行为的条件和约束。对于自动驾驶汽车来说,这些规则的例子可以在旨在防止车辆对人类造成伤害、对自身或其他物体造成财产损害、或违反交通法规的约束条件中找到。

在将复杂的人的劳动价值问题简化为计算机代码时,义务论的伦理学也产生了问题,因为规范的实际应用往往需要一定知识,而计算机却可以作出字面理解,这种错误可能会造成意想不到的行为在阿西莫夫定律中,一辆自动驾驶汽车在发生碰撞前可能会避免刹车,因为这一行为首先会给它的乘员以鞭击,从而违反了禁止伤害人类的第一条定律。制定规则还需要有人阐明人类道德,这是一项极其困难的任务,因为在是对是错的问题上从来没有完全一致的意见。

2.3 契约论伦理学原则

为了证明某些伦理决策的困难,哲学家们会使用一些看起来不现实的例子。电车问题就是一个常见的例子,在这个问题中,一个人必须决定是否改变电车的运行轨道,使电车切换到一个会杀死1人的轨道上,以保证5名乘客的安全。正如帕菲特所指出,如果康德式契约论主张每个人必须遵守所有的每个人都可以合理地意愿或其被广泛认可的原则上,而且如果人们选用这种原则上的主要理由来自于一个不偏不倚的立足点,而且不是诉诸对于甚么样的行动才是最不恰当的道义式信念,而且这些被广泛认可的准则也可以形成最优的结果,那么就是在这样的前提条件下所形成的契约论原则。电车问题很受欢迎,因为它不仅是一个难题,而且人们的反应对环境也很敏感,例如,把一个人推到轨道上而不是按下开关会产生不同的反应,尽管总体结果是一样的。使用假设性的例子可能表明,道德只有在极其罕见的情况下才需要。然而,谷歌的自动驾驶汽车团队最近的一份简介表明,道德已经被考虑在碎片避免方面:“如果一只猫跑到马路上怎么办?一只鹿吗?一个孩子?除了机械问题,还有道德问题,工程师们在之前从来没有回答过这些问题。只要有风险就需要道德决策,而风险在驾驶时总是存在的。有人可能会说,这些都是简单的问题,例如,不惜一切代价避免接触孩子,如果这样做是安全的,就避免接触猫。然而,相比之下,电车问题实际上相当直接——它只有一个决定,每个选择的结果都是已知的。这是非常不现实的。汽车所面临的决策后果未知,未来行动的不确定性,甚至自身环境的不确定性。有了这些不确定性,常见的道德问题很快变得“复杂”。

人们不禁就会产生了怀疑,因为或许道德正确性的标准并不是一元的,又或者,人们对于道德正确性的认识本来便是多元化的。但必须注意的是,假如人们已经肯定了这些看法的真实性,那它就必须肯定了产生难以克服的道德矛盾的可能性。在这些困境下,当人们做出了抉择,就必须会面临着两难的道德处境。当我们的现实生活真的将我们带入到了这样的两难处境中,我们又该何去何从?

3 自动驾驶汽车的道德主体困境的分析

3.1 “道德机器”对自动驾驶汽车道德主体的伦理创构

人类在开车或发生碰撞事故很少做出道德决策,而自动驾驶汽车不应该被同样的标准来衡量,任何风险从一个人转移到另一个人身上的行为都涉及伦理道德,而自动化车辆应该能够在类似的环境中做出可接受的决定。麻省理工学院在2016年部署了“道德机器”这一在线研究平台,用以探讨自动驾驶汽车所存在的伦理学问题。在道德机器的主页面上,使用者能够发现不可避免的交通事故情景,并根据自动驾驶汽车是突然转变还是持续驾驶,并由此导向了两个截然不同的结论。交通事故情境主要是有道德机器所生成的,遵循的研究策略主要集中在九个因素,以及根据最终搜集到的来自世界233个国家和地区的上百万人,用十种语言作出的四千万项选择,研究结果表明,在道德机器实验中,呈现出了三个非常强烈的道德倾向,依次是:保护人而不是保护动物,保留更多的生命,以及保留年轻的生命。在学者眼中,这三个偏好都需要被政策制定者着重考量。政策制定者还必须思考,那些违规过马路的行人真的需要受到与合法过马路的行人同等的法律保护吗?对它们的法律保护优先度是不是需要降低?

3.2 自动驾驶汽车事故侵权的道德主体责任

和人们高度重视自动驾驶汽车的安全性相对应,关于车辆的交通事故责任归责提问也一直处于社会舆论的热门话题。自动驾驶事故的责任归责不但牵涉繁杂的科学技术认定问题,而且包括了伦理学、法律界对自动驾驶的社会主体地位及其界定的争论,但是,从提高人们出行安全以及有关社会利益主体研究和应用自动驾驶系统的积极性的目标上来看,还是具有若干可供社会广泛遵循的准则。“事故归责”的理论探讨重点围绕自主驾车系统是否具备责任主体作用、是否以及如何担责问题进行、罗尔斯认为计算机无法成为独立、自由的知识主体,因为计算机只是社会信息体系的一部分,它并没有精神,尽管他们能够被认知为有精神状态,同时计算机只是社会信息体系的一部分,它并没有精神,尽管他们能够被认知为有精神状态,同时却缺乏行动的意愿。国内专家学者张力等人也持同样看法,指出现阶段高度自动行驶车辆在法律上的位置依然是及其,也是说它自身是无能力的。驾驶员也要履行相应的注意义务,而生产出厂和事件产生相互之间的关系也是一条不清地带,因此生产者的负责也值得商榷。与此相反,在自动驾驶的情况下,驾驶者的功能和在一般驾车情况下已不尽相同,当交通事故出现后做出判断的是自动驾车系统,而不是一般驾驶者。而目前国家关于自动驾驶汽车发展的政策规定应从几点方面入手:提高交通基础设施智能程度,如加强基础设施智能开发规划研制、有序推动基础设施智能发展等;促进设施教学改造、服务智能提升,促进交通设施、交通控制与服务水平、道路交通监管体系等的互联互通;强化自动驾驶技术研究,不断推动专业技术创新能力建设等。

政策风险,技术进步不及预期,竞争加剧风险。人们普遍相信,无人值守技术汽车是汽车工业和人工智能领域的集大成者,直觉思维和驾驶汽车的经历使人们感到自动驾驶不可思议,但是如果从人工智能的角度来看无人值守汽车,把自动驾驶的技术汽车视为一部台有轮智能机器人,这种机器人可以通过探测器当作“精准的双眼”,以学习为基本的人工智能当作“聪慧果敢的头脑”,以便进行更高速的移动。进一步,这些“移动的智能轮式机器人”构成一个智能的车联网,可以实现良好的通信、协调、最终实现一个高效、安全的变通、出行体系。

4 结语

从最理想的状况来看,人们肯定期待尽早看到完全自动驾驶的车辆代替了现在的全部人驾驶汽车,但从目前自动驾驶科技的发展进度来看,人们没有允许一个机器在完全没有人实时检测的状况下,在一瞬间由自己判断生死的抉择。在我们允许对汽车工业作出道德的选择之前,我们就必须开展一场国际对话,向那些设计道德算法的公司以及将对它们进行监管的政策制定者表达我们的偏好。道德机器的实验向我们展现了面对极端情况时,人类的三种强烈偏好,它们可以做为讨论通用机器伦理的基石。研究者认为,尽管人们能够让品德机械正确地遵循道德偏好,但是并没法获得广泛的社会共鸣,因此即使是人们使用品德机器所表达的最强烈的道德偏好,也表现出了很大的差异。然而,这并不代表着人们通向共识以及机器伦理学的征程在一开始时就注定要失利,因此我们虽无从否认人们在人类伦理研究领域中也会经受着内心矛盾、人际矛盾分歧以及差异等这些本质社会问题,但这种问题并不是致命的,在数据中我们可以看到世界范畴广泛地仍然显示出了某些较为一致的社会伦理学倾向。这些质疑也从侧面反应出很多人还并未做好让机器来决定人类命运的准备,就目前而言,给机器以道德似乎超出了人类的心智可以承受的范围。

参考文献:

[1]万丹,詹好.自动驾驶汽车责任主体和道德两难问题的哲学分析[J].社会科学战线,2021(11):24-32.

[2]李伟,华梦莲.论自动驾驶汽车伦理难题与道德原则自我选择[J].科学学研究,2020,38(04):588-594+637.

[3]白惠仁.自動驾驶汽车的“道德责任”困境[J].大连理工大学学报(社会科学版),2019,40(04):13-19.

[4]苏令银.论机器伦理视域中自动驾驶汽车的道德决策[J].科学技术哲学研究,2019,36(03):82-87.

[5]潘恩荣,杨嘉帆.面向技术本身的人工智能伦理框架——以自动驾驶系统为例[J].自然辩证法通讯,2020,42(03):33-39.

[6]隋婷婷,郭喨.自动驾驶电车难题的伦理算法研究[J].自然辩证法通讯,2020,42(10):85-90.

[7]闫坤如.人工智能机器具有道德主体地位吗?[J].自然辩证法研究,2019,35(05):47-51.