一种面向人工智能体开放的伦理学

2024-01-21 13:00李志祥
关键词:伦理学关怀理性

李志祥

(南京师范大学 公共管理学院,江苏 南京 210023)

在人工智能(体)出现之前,伦理学理论提供的是以人为主体、面向人类行为的道德图景。在这幅人类中心式的道德图景中,人类既享有道德权利又承担道德义务,非人类存在物要么只享有道德权利而不承担道德责任(如动物),要么既不享有道德权利也不承担责任(如人造工具)。人工智能体的出现,对人类中心式道德图景提出了挑战:考虑到人工智能具有与人类智能相似的高级智能,我们的伦理学理论应该如何对待人工智能体?人工智能体可能造成的道德伤害,是否仅由人工智能体背后的人负责?对于这些问题,信息伦理学创始人弗洛里迪的回答是:“人工能动者——不仅仅是数字能动者,也包括社会能动者,诸如公司、政党或是由人和机器形成的混合系统,或者是在技术上得到加强的人类——应当被认作对其行动负有职责的能动者。”[1]这就意味着,在人工智能时代,伦理学理论需要做出相应的调整,以便将人工智能体纳入其中。

一、人的伦理学还是机器的伦理学

面对人工智能体引发的伦理问题,机器人学家形成了两条不同的机器人伦理学思路:一条思路认为机器人伦理学是关于人的伦理学,机器人本身不涉及伦理问题;另一条思路认为机器人伦理学是关于机器的伦理学,机器人本身也进入到伦理问题之中。意大利学者帕加罗从机器人法角度总结了这两条思路。他指出:“根据以主格或是宾格方式来理解公式的属格关系,‘机器人法’可以从两个方面来解读。如果将公式理解为宾格,则提醒了我们将这些机器人视为法律规制对象的传统观点,这些法律制度明确了机器人造成损失或损害时人类责任的条件。相反的,如果将公式理解为主格,公式强调机器人作为采取行动的主体,应当受到法律的规制。”[2]

(一)人的伦理学

人的伦理学就是将“将公式理解为宾格”的伦理学,认为机器人伦理学的本质是人的伦理学。这种伦理学有三个核心观点:第一,人是唯一的道德主体,机器人不可能成为道德主体;第二,机器人引发的一切伦理问题,责任不在机器人本身,而在于与机器人相关的人——设计者、生产者和使用者;第三,应对机器人伦理问题,唯一的路径是提升机器人相关人员的道德素养。很多学者都持这种观点,北京大学国家机器人标准化总体组编写的《中国机器人伦理标准化前瞻(2019)》就强调“把机器人伦理理解为关于设计、生产和使用机器人的人员的伦理”[3];创造了roboethics(“机器人伦理学”)一词的意大利学者吉安马可·维鲁乔,同样认为机器人伦理学“不是面向‘人造的’或‘自然的’机器人伦理学,而是面向机器人产业的研究人员、生产者和机器人使用者的伦理学”[4]。

人的伦理学是一种相对传统也更为现实的伦理学思路。说它更为传统,是因为它持一种非常严格的、康德式的道德主体观,认为只有具备自由意志和实践理性的存在物才能成为道德主体。从这个意义上说,机器人无论多么高级,它在本质上仍然是机器,不具备真正的意识能力,因而无法成为道德主体。人工智能专家阿尔德里奇如此指出:“我们不应该试图声称人工智能系统本身要对决策‘负责’,责任方应该是部署该系统的个人或者组织。”[5]说它更为现实,是因为它搁置了机器人技术的未来争议,仅从机器人现有的技术水平或者可预见的发展水平出发,讨论机器人伦理问题。从现有的和可预见的发展水平来看,机器人终归是一种机器,人工智能在本质上属于逻辑运算,无法达到真正的人类思维水平。莱昂哈德极具代表性地指出:“在现在以及可预见的未来,哪怕是最伟大的技术也只能以某种方式模仿人类,而不能真正成为人类。”[6]据此,人的伦理学认为机器人的道德世界里只有人,没有机器。

(二)机器的伦理学

机器的伦理学就是“将公式理解为主格”的伦理学,认为机器人伦理学不仅仅是人的伦理学,同时也是机器的伦理学。这种伦理学坚持另外三个核心观点:第一,拥有自由意志和实践理性的人可以成为道德主体,拥有一定自主行为能力的机器人也可以成为道德主体,哪怕是一种准道德主体;第二,机器人引发的伦理问题,一部分道德责任应该由相应的人员来承担,另一部分道德责任应该由机器人自己来承担;第三,应对机器人伦理问题,最终的落脚点在机器人身上,应该努力提升机器人的道德素质。相比较而言,一些更具想象力和创新冲动的学者倾向于机器的伦理学,最有代表性的观点来自温德尔·瓦拉赫的《道德机器:如何让机器明辨是非》。该著作提出:“即使最高级的AMAs或许永远不会真的成为与人类道德主体同样意义上的道德主体,但是不管人们将机器能否真正有道德(或甚至真正自主)这个问题归结到哪里,依然面临一项工程挑战:如何让人工智能体就像道德自主体那样去行动?如果给予多功能机器以信任,让它们脱离其设计者或主人去运行,并设计程序,使之灵活地对真实或虚拟世界中的环境做出反应,那么我们就需要相信它们的行为会满足适当目的。”[7]

如果说人的伦理学是一种更为传统也更为现实的机器人伦理学思路,那么机器的伦理学就是一种更为现代也更具想象力的机器人伦理学思路。将道德主体严格局限于人,是自苏格拉底以来的伦理学传统,这种传统观念在现代社会被逐渐打破,道德主体标准逐步放松,妇女、儿童、动物甚至自然都开始获得道德主体地位。将机器人纳入到道德主体行列,正是道德主体扩大化趋势的现代进程之一。人的伦理学以现有的或可预见的机器人技术为基础,而机器的伦理学则以未来的或更具想象力的机器人技术为基础。尽管足够支撑机器伦理学的科学技术还没有出现,但根据“集成电路芯片上电路数目每18个月增加一倍”这个摩尔定律和库兹韦尔所说的“技术的发展持续呈指数级增长”这一技术加速主义理论,具有更高自主能力的机器人迟早都会出现。一旦更为高级的人工智能(更不用说超级人工智能)问世,机器人就应该具有自身的伦理学。

(三)争论的核心

机器人伦理学到底应该是人的伦理学还是机器的伦理学,关键在于机器人的自主能力。作为一种人工智能,机器人具有类似于人的智能,这种智能使得机器人能够进行一定的智能计算,做出一定的自主行为。但问题在于,在这些智能计算和自主行为中,机器人究竟具有多高的自主性,尤其是机器人是否具有一定的道德自主能力?对于道德能力与自主能力的密切相关性,查夫斯潘的说法是:“倘若给予机器人更多的自主性,那么机器人就会被要求更多的道德(伦理敏感性)”[8]。也就是说,如果机器人拥有道德自主能力,能够自己给自己下达道德命令,那么机器人就应该有自己的伦理学;如果机器人不具有道德自主能力,一切道德决定都由机器之外的人完成,那么机器人就不应该有自己的伦理学;如果机器人具有一点点道德自主能力,能够在一定的范围内脱离人类的控制,那么机器人就应该有一点点自己的伦理学。

需要注意的是,我们这里所说的“自主能力”和“道德自主能力”,类似于康德所说的“自由意志”,其根本特征在于,无论是否存在外在原因,一定有一些决定是由主体自己做出的,而不是由外在于自己、先在于自己的其他事物所决定。马尔科夫对这种自主能力的解释是:“今天,机器已经可以在没有人类干预或很少干预的情况下运转,这才是我们所要思考的自主。”[9]从这个意义上说,那些通过代码方式设定道德法则的机器人,并不具有真正的道德自主能力。阿西莫夫将“机器人学三大法则”嵌入机器人,其本质就是人为机器人立法,机器人只会服从而不会违背或质疑被设定的法。“机器人学三大法则”与其说是机器人的道德法则,不如说是机器人的自然法则,因为机器人并没有是否遵从的选择余地,“他取悦你只是因为他必须这么做”[10]。

无论如何理解人工智能体具有的(道德)自主能力,我们都应该承认,这个(道德)自主能力可以也应该为人工智能体赢得相应的道德权利和道德义务。在这个意义上,“面向人工智能体开放的伦理学”更侧重于机器的伦理学,它主要涉及两类问题:一类问题是人工智能体的道德权利问题,这是人工智能体应该受到何种道德对待、应否享有道德关怀的问题;另一类问题是人工智能体的道德义务问题,这是人工智能体能否被视为道德主体、是否需要承担道德责任的问题。美国学者贡克尔总结了这两类问题:“什么时候机器人、算法或其他自动系统可以为它所做的决定或采取的行动负责?什么时候我们可以说‘这是机器人的错’?反之,什么时候机器人、智能人工制品或其他可与人类进行社交互动的机器可以拥有某种程度的社会地位、获得某种程度的尊重?换言之,发出‘机器人能且应当拥有权利吗?’这样的问题,什么时候才不会被视为无稽之谈?”[11]因此,“面向人工智能体开放的伦理学”具有两个开放层面:一个层面就是将人工智能体作为道德关怀的对象予以开放,另一个层面就是将人工智能体作为道德行为的主体予以开放。

二、关怀机器人的伦理学

将人工智能体作为道德关怀的对象予以开放,只需要讨论人工智能体应否作为道德关怀的对象,而不需要讨论人工智能体能否作为道德行为的主体,因为同一诉求的权利与义务并不属于同一个主体,而是分别属于不同的主体。贡克尔认为权利问题是将机器视为行动的接受者(即受动者),责任问题是将机器视为行动的发起者(即行动者),进而指出:“面向受动者的探究要问的操作性问题不再是‘机器人能且应当做什么?’,而是‘我们能且应当怎样对这些人工制品做出反应?’,即面对机器人,尤其是越来越亲切友善的类人社交机器人,我们能且应当怎样对待它们?上述问题也可以表述为‘机器人能且应当拥有权利吗?’”[11]单纯从道德权利角度看,人工智能体能否进入人类的道德关怀名单呢?

(一)道德关怀范围的扩张

从道德关怀的对象层面看,人工智能体是否应该被道德关怀,是否具有要求道德关怀的资格,取决于人类设定的道德关怀标准。从道德发展史角度看,人类道德关怀的标准一直在变化或者放松,道德关怀的范围始终在扩大。在古希腊时期,道德关怀的标准是理性能力。是否具有理性能力,成为能否拥有道德关怀的标准;所具理性能力的水平高低,意味着应被道德关怀的程度高低。依据这个标准,在古希腊人看来,具有完全理性能力的成年男性(即公民)享有完全的道德关怀,具有部分理性能力的妇女和儿童只享有部分的道德关怀,不具有任何理性能力的奴隶和动物不享有任何道德关怀。亚里士多德的说法是,奴隶“能够感到别人的理性而自己并没有理性”,动物“甚至不能理解到别人的理性”,所以,“使用奴隶与使用家畜的确没有什么很大的区别。因为两者都是用身体提供生活必需品”[12]。

此后,理性道德关怀标准沿着两条线不断变化。一条线沿着对人类理性能力的认识发展而变化。在传统社会看来,不同的人具有不同的理性能力,女性、奴隶、部分有色种族的理性能力较弱,因而享有的道德关怀就比较少。但随着科学知识的发展,人们不断认识到性别、种族、社会地位并不是构成理性能力差异的依据,女性、低阶层、少数种族和其他人具有完全相同的理性能力。现代女权主义奠基人沃斯通克拉夫特的说法极具代表性。她指出:“女人不仅应该被视为有道德的人,而且应该被视为有理性的人,她们应该通过与男人同样的手段,来竭尽全力获取人类的美德(或者是完美),而不应该被教育成那种沉溺于幻想中的半个人——正如卢梭所描写的野蛮的怪物一样。”[13]因此,在各种平权运动的反复冲击下,享有同等道德关怀的对象在不断扩大,其发展趋势是,所有的人,不分性别,不分种族,不分地位,都将因其具有同等理性能力而享有同等的道德关怀。

另一条线沿着对道德关怀标准的认识发展而变化。无论是以霍布斯为代表的近代契约论伦理学,还是以康德为代表的近代义务论伦理学,都坚持以理性能力作为道德关怀的标准。功利主义伦理学出现以后,道德关怀的标准发生了变化,理性标准变成了感觉标准,即是否拥有苦乐感觉,成为能否获得道德关怀的重要依据。彼得·辛格很清晰地指出:“如果一个生命能够感知痛苦,道德上便没有理由拒绝考虑这个痛苦。……如果一个生命不能感知痛苦或者快乐和幸福,就无须考虑。就是说,唯有感知力(用感知力一词只是为了简便,虽然不能十分准确地代表感知痛苦或快乐的能力)的界限才是关怀他者利益的正当合理的划界。”[14]这样一来,具有苦乐感知能力的动物就进入了道德关怀名单。而当施韦泽提出“敬畏生命”概念,并且认为“敬畏生命不仅适用于精神的生命,而且也适用于自然的生命”[15]之后,感觉标准又被放大为生命标准,一切生命物都被纳入进来。此后,环境伦理学家又接纳了诸如“荒漠”“大地”“生态系统”等更广泛的生命体,进一步丰富了人类的道德关怀名单。罗尔斯顿明确指出:“一种伦理学,只有当它对动物、植物、大地和生态系统给予了某种恰当的尊重时,它才是完整的。”[16]

(二)机器人获得道德关怀的障碍

按照既有的道德关怀标准,人工智能体很难获得人类的道德关怀。从理性标准看,作为道德关怀标准的理性并不是一般的理性,而是一种特殊的理性,即“实践理性”,这种实践理性的根本标志在于它能够“自己给自己立法”,即“我如何想,便如何吩咐”[17]。也就是说,实践理性是一种价值理性,而不是工具理性,它需要给人自身确立生存的终极意义和价值目标,而不仅仅是提供完成某种指定任务的合理手段。人工智能体尽管具有超级强大的逻辑计算能力,但它并没有真正的自我意识,更没有基于自我意识之上的实践理性。因此,人工智能体无法获得基于实践理性标准的道德关怀。

从感觉标准看,作为道德关怀标准的感觉主要是苦乐感觉,它要求存在物具有一定的苦乐感知能力。无论从目前的技术水平还是可预见的技术发展来看,人工智能体可以模拟由某种苦乐感觉引发的外在表情和行为,甚至达到以假乱真的程度,但并不能产生真正的苦乐感觉。尽管有一些科学家和哲学家从进化论的角度为这种可能性寻找理由,认为人工智能可能会在进化过程中“涌现”出高级的感觉能力,但大多数学者都不相信这一点,认为纯粹物质性的机器不可能产生非物质性的感觉。正如人工智能哲学家瑞希所说:“这个机器人只是一堆电线和马达,被设计成行为举止像你一样,并模仿你。所以机器人和真实的你的区别在于意识。”[18]如果人工智能体不具备苦乐感知能力,人类和其他人工智能体的任何行为都不能增减它的苦乐量,那么人工智能体也不可能获得基于感觉标准的道德关怀。

从生命标准看,作为道德关怀标准的生命具有有死性,会经历从出生到成长再到死亡的过程。在亚里士多德看来,“也为植物所有”的生命活动主要体现为“营养和生长活动”[19],人工智能体具有类似的生命活动吗?很显然,作为一种人造物,人工智能体不可能具有自然存在物那种意义上的生命,而只具有一种功能意义上的生命。对于功能意义上的生命来说,能够完成指定任务就意味着具有一定的生命,不能完成指定任务就意味着丧失自己的生命。但很遗憾的是,功能意义上的生命并不能为存在物赢得人类的道德关怀,因为所有的人造工具,包括一切生产工具和生活工具,都具有这种功能意义上的生命,但它们只能赢得工具式的物的关注,却无法赢得目的性的道德关怀。因此,不具有自然生命的人工智能体,同样无法获得基于生命标准的道德关怀。

(三)机器人获得道德关怀的可能路途

尽管目前的道德关怀标准无法容纳人工智能体,但我们真的不关怀人工智能体吗?面对非人形的人工智能体、工业用的机器人及以软件形式存在的人工智能,我们可能不会激起多少道德同情心,但是,面对那些服务型的人形机器人,当它们越来越深入地介入我们的日常生活,与我们有着越来越密切的交往关系,我们真的能够无动于衷吗?在这个问题上,我们仿佛再次碰到了要求道德关怀的动物,那么,我们如何能够像以前赋予动物以道德关怀一样,继续赋予人工智能体以道德关怀呢?

要想赋予人工智能体以道德关怀,唯一的可行路径是调整道德关怀标准,特别是在现有道德关怀标准的基础上进行抽象提升,这样既能保存现有的道德关怀对象,又能容纳新兴的人工智能体。从抽象提升的意义上看,理性也好,感觉也好,生命也好,都是人类与道德关怀对象共同具有的相似性能力,因此,相似性可以视作理性、感觉和生命等现有标准的抽象提升,是一种比现有标准更为宽松的标准。但问题在于,相似性能否成为获得道德关怀的标准呢?从哲学上看,相似性是共情和同情的基础。一方面,相似性提供了理解对象的可能性,只有在相似关系基础上,“设身处地”“将心比心”“己所不欲勿施于人”,同情机制才能运行。另一方面,相似性提供了同情对象的可能性,只有在相似关系基础上,人类才能将对象视为自己同类,才有可能产生“惺惺相惜”“同病相怜”等道德同情心。斯密的解释是:“这就是我们对他人遭受苦难的同情感的根源所在,正是通过在想象中与受难者交换位置,我们要么能设想出他的感觉,要么会被他的感觉所触动。”[20]正是在这个意义上,相似性标准可能成为比理性标准、感觉标准和生命标准更为宽松的道德关怀标准。

如果相似性能够成为获得道德关怀的标准,那么人工智能体能够凭借哪一方面的相似性获得道德关怀呢?人工智能体与人类最相似的地方,莫过于智能,因为人工智能的初衷就为了模拟人类智能。其他人造物没有任何智能,非人存在物没有高级智能,在这个意义上,高级智能是人工智能体与人类共有的能力,人工智能体的智能甚至在某些方面还超过了人类智能。现在的问题是,智能上的相似性能否为人工智能体赢得道德关怀呢?按照库兹韦尔的理解,智能就是“对有限的资源(包括时间)进行最优化利用以达成各种目标”[21]。根据这种理解,人工智能可以和人类智能一样进行以效率为标准的自主思考,人工智能体可以和人类一样进行自主性的行为。在此基础上,人工智能体与人类可以互相理解,互相交流,互相尊重。按照理性主义者的解读,与感觉上的相似和生命上的相似相比,智能上的相似是一种更为高级的相似。法学教授哈列维曾分析指出:“如果使用感性衡量,相较于机器,动物和人类更加接近。但是,如果使用纯理性衡量,相较于动物,机器可能和人类更加接近。”[22]如果感觉和生命上的相似性能够为生物赢得道德关怀,那么智能上的相似性也应该能够为人工智能体赢得相同的道德关怀。

三、问责机器人的伦理学

在解决了人工智能体应否具有道德权利的问题之后,我们就可以面对人工智能体应否具有道德义务的问题。在传统伦理学理论看来,只有人才能成为道德主体,才能承担道德责任。韦弗从法学层面揭示过这个传统。他指出:“这包括我们法律所依赖的假设。在美国,我们地方、州和联邦层面的几乎所有法律都有一个共同的假设,即所有决定是由人类做出的。”[23]新兴的人工智能体能够做出一定的自主行为,并且有可能给人类造成一定的伤害或损失,这就引发了一个全新的问题:人工智能体能否被视为一种道德主体,是否需要承担一定的道德责任?

(一)机器人担责的主要障碍

面对新兴的人工智能体,反对担责者并不关注它们能做什么,而是聚焦于它们不能做什么。在反对者看来,人工智能体尽管具有人类的部分智能,但它仍然欠缺人类具有的很多重要能力。正是人工智能体欠缺的那些重要能力,使得人类能够成为真正的道德主体,能够对自己的道德行为负责,也使得人工智能体无法成为真正的道德主体,无需对自己的行为承担道德责任。

第一个问题:机器人没有苦乐感觉和幸福欲求能力。在反对者看来,人工智能体无论如何智能,它在本质上仍然是一种机械性、物质性的机器,而不是生物意义上的肉身,因而不具有各种涉身性的苦乐感觉、情感体验及幸福欲求。德雷福斯强调指出:“我们已经看到,我们的身体以及我们的情感和情绪,在我们区分事物相关性的能力、让事情变得对我们重要并获取技能的能力、我们对事物真实性的感觉、我们对他人的信任、我们做出无条件信责以给予生命确定意义的能力、培养交互的物理性以使得有意义的焦点事件变得可能的能力之中,都扮演了关键的角色。”[24]没有苦乐感觉、情感体验及幸福欲求,意味着人工智能体的一切行为都是被动的,它没有自我利益,没有对幸福生活的体验和追求,因而也就没有主动行为的动机和意图。没有动机和意图推动的行为,只能是亚里士多德所说的“被迫的行为”,很难称为真正的道德行为,无法要求人工智能体为这样的行为负责。

第二个问题:机器人没有真正的理解和思考能力。在反对者看来,人工智能体能够做出看起来像人类一样的反应、交流和行为,但这些反应、交流和行为只是看起来像人类一样,并不完全跟人类一样,因为在这些反应、交流和行为的背后并不包含真正的理解。塞尔通过“中文屋”思想实验做出了说明,“中文屋”里的人可以借助字典做出正确的回应,但他并不真正理解中文。弗洛里迪称此为“意向论异议”。他指出:“意向论异议论证说,对于一个人工能动者之成为一个道德能动者,使得该能动者能够实施有目的的行为是不够的。要成为一个道德能动者,该能动者必须把自己与它的行动以一种更为意味深长的方式相关联,使之意味着,想要或意欲以某种方式行动,并且在认识上意识到它的行动。”[1]这就是说,人工智能具有一定的逻辑运算能力,但并不具有真正的理解和思考能力。人工智能体的行为缺乏理解,只能是亚里士多德所说的“无知的行为”,因而无须人工智能体为之担责。

第三个问题:机器人没有自由意志。在康德那里,自由意志是道德的前提,自由意志可以挣脱自然因果规律的束缚,为人类提供了基于自由的道德可能性。作为人工制造出来的存在物,人工智能体在本质上是一种受造物。尽管上帝有可能赋予人类以自由意志,但人类无法赋予人工智能体以自由意志。没有自由意志,意味着人工智能体只能服从外在的、创造者的意志。对于人工智能体来说,这个外在的、创造者的意志就像具有决定论意义的自然因果规律一样,不可选择,不可拒绝,只能服从。阿布尼对这类反对意见的总结是:“机器人通常被认为与具有理性的人类能动主体完全不一样,尽管机器人可能具有道德所需的推理能力,但机器人没有自由意志,缺乏真正道德主体所必需的自由。”[4]因此,没有自由意志的人工智能体不可能成为自我立法的道德主体,也无须为自己的行为承担道德责任。

(二)道德机器担责的可能路径

尽管有这么多的反对意见,仍然有学者认为人工智能体能够成为道德主体,需要为自己的行为负责。与反对者不同,支持者并不关心人工智能体不能做什么,而是聚焦于人工智能体能够做什么。支持者主要由两部分组成。一部分支持者是基于进化论的未来主义者。他们从两个方面批判了反对者的观点:一方面,他们将人工智能与人类大脑相比,要么怀疑人类具有真正的理解能力和自由意志,要么像丹尼尔·丹尼特那样对意识和意志进行自然主义的解释;另一方面,他们以进化论为基础,认为人工智能必然会超越人类智能,最终演化为拥有感觉、欲望、理解、思考和自由意志能力的超级智能。另一部分支持者则是基于可预期科技发展的现实主义者。他们承认机器人不具有感觉、欲望、理解、思考和自由意志,现在不具有,在可预见的将来也不具有,即便如此,他们仍然认为机器人可以被视为道德主体,需要为自己的行为负责,因为人工智能体与人类一样具有自主能力。

事实上,人工智能体能否被视为道德主体,是否需要承担道德责任,关键在于人工智能体具有什么样的自主能力。尽管狂热的智能进化论者认为“人类最终会接受非生物实体也是有意识的”[25],但大多数现实主义者并不相信超级智能。在大多数理性的学者看来,即使将超级智能的技术可能性搁置一边,仅仅从人类意愿的角度看,具有完全自主能力的人工智能体也不可能出现。人工智能体作为人类为了自身利益而创造出来的人造物,其存在意义和终极价值只能由人类这个造物者指定,而不可能由人工智能体自行决定。从保障人类安全的角度看,人类同样需要人工智能体具有一定的可控性,这就要求剥夺机器人的部分自主能力。也就是说,人工智能体的终极存在意义和根本行为规范只能出自人类的自由意志。既然人工智能体不具有真正的自由意志,不能自己给自己立法,那么,人工智能体就不可能成为一种完全的道德主体。

尽管人工智能体无法成为一种完全的道德主体,但它却有可能成为一种不完全的道德主体,或者叫“准道德主体”。在两种意义上,人工智能体具有需要为之负责的自主性。第一,人工智能体尽管不能自己给自己立法,但仍然需要自主执行人类给自己立的法。也就是说,人类给人工智能体设定了行为的目标,但仍然需要人工智能体自主设计行为的过程。既然行为过程是人工智能体自主设计的,它就需要为这种自主设计负责。第二,人工智能体尽管不能在根本意义上为自己立法,但仍然需要并可能为自己立部分法。因为道德不同于法律,一个国家往往具有所有人都认可的法律规范,但很难存在所有人都认可的道德规范。那些获得广泛共识、具有底线伦理意义上的道德规范,可以通过自上而下的代码方式设定在人工智能体之中;但那些本身就存在争议的道德规范,连人类自身都没有办法取得共识,恐怕只能留给人工智能体了。人工智能体可以通过自主学习方式解决有争议的道德规范,即通过学习人类提供的相关数据,以及与人类和其他人工智能体交流互动,最终形成自己独特的道德规范。这种通过自主学习获得的道德规范,往往摆脱了人类的控制,需要人工智能体自己为之负责。莫拉维克曾明确指出:“自主学习的功能使机器对外部的不可预测因素有了更强的适应力。那种认为计算机以及由其控制的机器人是人类程序员的工具的错觉该结束了。”[26]

人工智能体尽管不能自主设定根本的行为规范,但仍然需要自主设定部分行为规范和行为过程,正是在这个意义上,我们可以把人工智能体视为“准道德主体”,认为其需要承担与之相应的有限道德责任。阿莎罗将机器人视为类似于儿童的准人类。她指出:“……因此,儿童可以被视为准人类,或者法律意义上的法人。……我们也似乎有理由认为,一些机器人在实现完全法律意义上的人格之前,最终可能会被法律赋予准法人的身份。”[4]这种人工智能体所应具有的道德,不可能是康德式的完全自主道德,而只能是瓦拉赫式的“功能性道德”,或摩尔式的“外显式道德”。瓦拉赫曾经明确指出:“尽管如此,人工道德行动体的研究项目开发得越快,就越能将其定位于‘被操控的道德’与真正的道德行动体之间——这个空间我们将其标记为‘功能性道德’。”[4]

面向人工智能体开放的伦理学,并不是要替代或取消现有的伦理学理论,而是对现有伦理学理论的一种调整或补充。其根本意图在于,适当降低道德的门槛,将更多的存在物纳入到道德中来,从而进一步扩大伦理学理论的范围。在这种扩大的伦理学理论之中,我们既可以保留最完全、最严格的伦理学,也可以容纳不完全、较宽松的伦理学。这种经过调整的伦理学理论,可以具有更大的伦理解释力,能够解决更多的现实伦理问题。韦弗的这段话对于伦理学同样适用:“这就是理想。修改我们的法律以便让机器人也成为人绝不仅仅是让中产阶级壮大的方法,尽管我们适当修改法律的话,这种效果会发生的。如果我们把机器人当成人类一样对待,它们也会使我们更具人性。”[23]

猜你喜欢
伦理学关怀理性
开拓·前沿·创新与学科建设——简评《中医生命伦理学》
“纪念中国伦理学会成立40周年暨2020中国伦理学大会”在无锡召开
伦理批评与文学伦理学
现代就是细枝末节的关怀
情倾赣鄱 殷殷关怀
“本转职”是高等教育的理性回归
“蚁族现象”的伦理学思考
理性的回归
珍惜信任 传递关怀
对一夫一妻制度的理性思考