有限人工智能体道德行动的可能条件与设计进路

2024-01-21 13:00高斯扬韩卓鹏
关键词:道德人工智能人类

潘 超,高斯扬,韩卓鹏

(1.中央财经大学 马克思主义学院,北京 102200;2.哈尔滨工业大学(深圳) 马克思主义学院,广东 深圳 518000;3.北京交通大学 马克思主义学院,北京 100080)

自1956年达特茅斯会议以来,人工智能及其相关技术的研究已历经60余年,人工智能逐步从概念走入普罗大众的现实生活。尤其是2010年后,以大数据、智能算法等为代表的人工智能技术发展迅猛,出现了如智能手机、智能汽车、智能家电等有限人工智能体。这些有限人工智能体作为搭载了人工智能技术的物质载体,是一种“集机械、电子、控制、计算机、传感器、人工智能等多学科及前沿技术于一体”[1]246的高级机器。这些机器,不仅改变了现代人的生产和生活,而且改变了人们的道德行动。

一、学界关于有限人工智能体道德行动的三个争论点

道德行动是一种能够满足主体需要的关系性活动。有限人工智能体出现以前,实施道德行动的主体只能是具有实践能力的人类。但随着有限人工智能体进入人们的日常生活,能够进行道德行动的主体、程度和范围出现了变革。近十年来,学者们围绕有限人工智能体能否作为道德行动的完全(或者部分)主体,以及其行动的程度和范围的是什么,进行了广泛而深入的探讨,产生了一系列相互冲突的观点。

(一)有限人工智能体能否作为道德行动的主体

伦理学意义上的道德行动(moral action)是指对他人和社会利益产生一定影响的“自觉认识和自由选择的结果”[2]39。非人工智能时代,只有具有自由意志和自主选择的人才有资格成为道德行动的主体。但随着有限人工智能体成为人们生产生活的重要工具,有限人工智能体与人类的实践活动(如智能手机、智能汽车、智能家电)高度绑定,甚至出现了一些如果缺少有限人工智能体的“帮助”(如快速筛查防疫风险、精准定位感染人群等)人类活动就无法完成的现象。针对这一情况,荷兰技术哲学家唐·伊德认为,“人类经验被技术的居间调节所改变,人类与技术融为一体”(1)唐·伊德指出,机器或技术在人与世界中的关系,这些关系包括体现性关系、解释学关系、背景关系、改变(alterity)关系等。在体现性关系中,人类经验被技术的居间调节所改变,人类与技术融为一体。伊德将这一关系用意向性公式表述为:(人类—技术)→世界,这里的圆括号表示为一个统一体(unity)。参见吴国林.后现象学及其进展[J].哲学动态,2009(4):70-76.。学者们就这种关系下的有限人工智能体能否作为道德主体分化出了支持和反对两种观点。

支持有限人工智能体可作为道德主体的学者是荷兰技术学派的维贝克(Peter Paul Verbeek)。维贝克在《将技术道德化:理解与设计物的道德》中指出,有限人工智能体尤其是那些承载社会管理职能的有限人工智能体,“不再是中立工具,而是一个渗入道德的规范性存在”[3]。它在一定社会活动中(如精准识别需要帮助的人群、信息处理等)承担了这种社会行动背后与道德规范相匹配的道德责任,“人与机器(技术)成为了相互作用的耦合道德主体”[4]。与之相应,技术哲学家唐·伊德(Don Ihde)将人与机器(技术)在道德活动中的耦合关系描述为人和他的眼镜,就像患有近视的人不能离开眼镜而去看这个世界,高度理性和需要人工智能技术的现代人,已无法离开有限人工智能体去实施某些特定的道德行动。在这种情况下,有限人工智能体不再是简单的功能性工具,而是在一定程度上能够影响人类主体道德决策的“他异”(2)“他异”是人与技术的一种关系,其与“涉身”“解释”和“背景”共同构成“人—技术—世界”的关系。参见IHDE D.Technology and the lifeworld:from garden to earth[M].Indiana:Indiana University Press,1990:72-108.。

而反对有限人工智能体作为道德行动主体的代表性学者是法国技术哲学家贝尔纳·斯蒂格勒(Bernard Stiegler)和美国哲学家大卫·查尔莫斯(David J. Chalmers)。斯蒂格勒认为,人在起源之初是一种“缺陷性”存在,技术只是弥补这一缺陷的工具。尽管人与技术互为发展驱动力,但在这种相互驱动的关系中,技术始终是客体代具(工具),而不是具有自主意识和自我选择的主体。斯蒂格勒写道,“技术发展的动力中的生命力的部分仍然是由人这种特殊的主体来充当的”[5]。即便有限人工智能体发展到了如今极具智能的状态,但也只是功能性客体,而无法成为自由自觉的主体。美国哲学家查尔莫斯支持以上观点,他从意识的二元属性角度展开论证。他认为,意识是道德行动主体的核心要素,包含两个基本属性,即心理学属性和现象学属性。意识的心理学属性是一个容易解决的问题,这一属性关注的是“如何做出刺激反应,如何整合不同来源的信息以及如何用这些信息控制行为”[6],这些行为可以通过认知神经科学的功能性方法进行第三人称的解释。而意识的现象学属性关注意识复杂系统的内在本质状态,是基于“物理过程如何产生主观感受”[6]的困难问题。这一问题是作为第三人称的有限人工智能体无法实现的。对此,查尔莫斯用“无心人论证”(3)“无心人”是一种可想象的人类复制品,具有和人类一致的功能属性和行为属性,但其内部缺乏现象学意识。查尔莫斯的“无心人论证”原理:证明无心人只具备物理学意识而不具备现象学意识具有形而上学的可能性,可能性的关键在于可想象性。参见CHALMERS D J.The conscious mind:in search of a fundamental theory[M]. New York:Oxford University Press,1996:321.加以说明。他指出,目前有限人工智能体无法真正模仿人类的元意识,只有“他心”而无“人心”,这就意味着有限人工智能体不可能成为道德行动的主体,除非“他心问题有了可操作的解释”[7]。

(二)有限人工智能体的道德行动程度

鉴于有限人工智能体能否作为道德行动主体是一种伦理学领域元哲学层面的实体性判断,目前的情况发展使学者无法对其做出准确的分析,因此有些学者指出,应回避实体性的研究路径转而考察有限人工智能体道德行动的程度。程度是事物发展达到的状况,程度判断可以在不进行实体性评判的情况下揭示事物的变化过程和演化方向。

美国哈佛大学信息基础设施项目研究员詹姆斯·摩尔(James H. Moor)认为,可以从伦理效果(ethical-impact)来理解有限人工智能体道德行动的程度。伦理效果即一定行为引发的与伦理相关的结果。有限人工智能体的道德行动的伦理效果有三个不同的层次,即“隐性道德、显性道德和完全道德”[8]。其中,隐性道德是指有限人工智能体可以隐含地促进人的道德行动或者避免不道德行动的发生。如智能汽车自动驾驶仪内设的装置可以根据不同的路况和行人位置向驾驶员发出信号,从而避免驾驶事故的发生。而显性道德是指有限人工智能体能够以足够的精确度向人描述出道德状况,并且自己做出道德判断。如智能系统可以根据定位,找到需要帮助的人并自动开启救援警报。相应地,完备道德是指有限人工智能体可以像人类一样做出明确的道德判断,同时能够合理地解释这一判断。但这种完备程度的道德行动目前还无法通过逻辑论证或实验测试加以证明。摩尔指出,目前的有限人工智能体已具备隐性道德和显性道德的能力。

与以上观点相反,温德尔·瓦拉赫(Wendell Wallach)则按照自主性(autonomy)和伦理敏感度(ethical sensitivity)原则,将有限人工智能体的道德行动程度划分为“操作性道德、功能性道德和完备性道德”[9]25-26。其中,操作性道德是指有限人工智能体内部蕴含其设计者对伦理价值的认知,但其自身却不具备自主性的道德和道德敏感度。例如内设儿童锁机制的智能手表,儿童锁可以防止儿童接触不道德的网络内容,但对于这种不道德内容标准的界定是由智能手表的设计者和儿童的家长共同决定的。功能性道德是指有限人工智能体具有较高的自主性,但道德敏感度较低,只能判断有限的道德情境并做出简单回应,如智能汽车的自动驾驶仪。瓦拉赫指出,目前有限人工智能体只能具有功能性道德。与功能性道德相应的完备性道德是高自主性和高敏感度的道德行为,这种行为只有在有限人工智能体达到能与人类进行情感交互的阶段才能实现。

(三)有限人工智能体道德行动的范围

范围即界限,道德行动的范围是指有限人工智能体在道德行动中涉及的内容和边界。由于人的道德行动关涉经济、政治、法律、宗教等领域,特别是法律领域的道德行动涉及法律身份、权利、责任和社会风险,因此法律领域的有限人工智能体道德行动的范围成为学者探讨的另一焦点。

以智能汽车自动驾驶的电车难题情境为例,2021年自动驾驶的特斯拉汽车因超速导致乘客死亡的事件在全球发生。学者们就这种情境中超速的行动决策及相关的责任进行了激烈争论。美国技术哲学学者苏珊·李·安德森(Susan Leigh Anderson)和迈克尔·安德森(Michael Anderson)指出,有限人工智能体在一定情境下具有行动选择和伦理的需要。科学家、技术制造者、相关企业和政府监管部门应“为机器创建一个伦理准则框架”[10]1,这样我们才能“信任自主机器自行做出正确的伦理决策”[10]1。而美国技术哲学家詹姆斯·奥康纳(James O’Connor)则指出,即便人们在有限人工智能体中装设了一套可操作的伦理准则,如在有限人工智能体中预先安装应对“电车难题”的行动指令,但在现实中,电车难题的场景是十分复杂的,是无法准确预知的。这意味着“为机器制定一套伦理无异于白日梦,更为负责任的策略是在智能机器内部嵌入一定的安全措施,同时在机器自动操作时,人可以作为‘共同决策人’发挥监管作用”[11]28-29。这就是说,有限人工智能体的道德行动范围应被限制在设计者能够提供的使用说明的范围内。在道德行动中,使用者应该承担起主要责任,产品设计者、工程师和相关企业承担法律意义上的连带责任,而超出使用说明范围的责任应该由使用者自行承担。

以上针锋相对的观点反映出了学者们对于有限人工智能体道德行动问题的关注。这种关注指向了一个共同的目标,那就是构建一种关于有限人工智能体道德行动的共识性方案。而推进这种方案不仅需要进行一定的理论探讨,还需要从实际出发廓清现实中有限人工智能体道德行动的前提条件。

二、有限人工智能体道德行动的条件

从总体来看,目前有限人工智能体仍处于弱人工智能阶段,这就意味着,有限人工智能体尚未发展出完全的自我意识和自我判断,还未达到自组织状态下的道德自觉行动程度,即尚未成为完全的道德行动主体。而目前的有限人工智能体能够基于一定的道德技术设定,在一定条件下和特定情况中与人一起实施道德行动,实现“相对满意”的道德行动结果。分析这些情况下的有限人工智能体的道德行动,需要从目前有限人工智能体已经具备的拟主体性、所承载的认知条件,以及能够实施的行动效果方面出发。

(一)拟主体性

如前文所述,道德主体是具有主观判断能力且能够为自身行为承担道德责任的理性行为人。目前的有限人工智能体还尚未获得人类的自我意识,其所呈现的“决策”和“责任”行为能力只是基于其内嵌的道德技术而做出的对人类主体的功能性模仿,并不是基于类似于人的具有能动性的意识而产生的道德自觉行为。因此,拟主体性就是指有限人工智能体具有了类似人类的道德行动的能力,但这种能力主要来源于内设道德技术基础上的对人类的模拟。这种模拟“赋予了人工智能特有的拟伦理角色”[12],其主要表现如下论述。

首先,从行动决策的角度而言,有限人工智能体具备了一定的决策能力。即便弱人工智能阶段的有限人工智能体暂不具备像人一样的完全自主决策能力,但决策本身就是想出一定策略或办法的过程,有限人工智能体在想办法和找策略的过程中发展出了一定的决策能力。这种决策能力是受智能软件的深度学习和信息迭代影响而产生的,突出表现了有限人工智能体可以对外部不完备信息环境产生一定的感知和支配。如,中科院研发出的两人无限注德州扑克AI工程——AlphaHoldem。不同于AlphaGo在完备信息场景下做出博弈决策,AlphaHoldem面对的是信息不完备的不确定性环境(4)AlphaHoldem属于典型的不完备信息博弈,由于在博弈过程中玩家均不公开各自底牌信息,这就使得每个玩家所能掌握的信息都不完备,玩家在每一步决策时都需充分考虑对手的各种可能情况(包括对手行为与心理建模、欺诈与反欺诈等问题)。参见ENMIN ZHAO,RENYE YAN,JINQIU LI,et al.AlphaHoldem:high-performance artificial intelligence for heads-up no-limit poker via end-to-end reinforcement learning[EB/OL].(2022-02-26)[2023-11-01].https://www.aaai.org/AAAI22Papers/AAAI-2268.ZhaoE.pdf.。为了适应这种环境,设计师运用演化学习方法和深度神经网络,让AlphaHoldem能够根据牌局变化来灵活应对不完备信息的博弈问题。虽然这里AlphaHoldem的深度强化学习算法和自博弈算法是由研究人员预测设定的,但其对外部不完备信息环境所做出的行动决策却是AlphaHoldem通过自己的深度学习和更新所决定的。就此,有学者指出“人类设计师只是行为决策的间接原因”[13],而有限人工智能体基于内嵌的技术设定在信息组织、信息连接方式、处理方式方面的能力将成为其道德决策的关键。

其次,能力意味着责任。在道德活动中,具备了一定行动决策能力的有限人工智能体能承担一定的道德责任。尽管目前的有限人工智能体尚未达到人类的完全认知水平,但“已经在某个领域形成了感知意识或现象意识”[14]。按照经典责任伦理的说法,介于无知和完全认知阶段之间的有限人工智能体需要承担与其认知水平相匹配的责任。目前这种责任是经过相关利益方提前预估、检验和审核的集体性责任,但集体责任并不意味着有限人工智能体的免责,而是说其道德责任可以追溯到作为完全行为人的设计者、生产者、维护者和使用者身上。这体现了有限人工智能体对人类道德责任的功能性模仿。

(二)基于统计学的认知计算

是否拥有自主意识是判断有限人工智能体能否进行道德行动的核心条件。尽管目前有限人工智能体无法实现像人一样的自主意识,但基于统计学的认知计算赋予了有限人工智能体人类意识的认知属性,使其在一定范围内能够“在功能等价的意义上对意识的智力性认知层面予以模拟”[15]。

传统意义上的自主意识,在经验层面主要包括主体辨别、分类、信息整合、控制心理状况和行为的能力。这种意识可以通过可观察的经验状态来描述,那就是人们通过身体器官感受外部刺激获得了信息,在头脑中整合了这些信息,并在行为中自主地使用这些信息。如果有限人工智能体具备了以上可观察的意识状态,那就意味着其在一定程度上表现出了类似人的自主意识。美国特拉华大学的托马斯·鲍尔斯(Thomas M. Powers)教授指出,“尽管计算机是用人类程序员的外部意图状态来编程的,但它们会以某种方式产生内部意图状态,作为它们自己行为的原因的组成部分”[16]。这里强调的产生内部意图(意识)的“某种方式”就是指基于统计学的认知计算,这种“计算可为物理系统的认知过程和行为的解释提供一个通用的框架”[17]。

基于统计学的认知计算提供了这种通用的框架。基于统计学的认知计算是指以社会物理学和大数定律为基础而进行的计算活动。社会物理学揭示了人类社会行为中的数学关系,大数定律则指出了人类社会行为中的普遍概率。二者的结合在一定程度上能够模仿人类对于自身行为和社会本身的认识。基于统计学的认知计算在二十一世纪初被引入人工智能领域,“此类系统常常依赖数据开发利用既存在但未被揭晓的人类认识”[18]34,甚至因为人工智能技术的计算、存储和信息处理能力而超过人类能力,“在某些情况下,这些系统创造的成果或完成的行为,几乎超过人类在特定任务中的表现”[18]34。美国学者哈里·苏尔登(Harry Surden)指出,这为特定任务型有限人工智能体(如自动驾驶、回答问题、自动飞行)“提供了捷径”[19]。基于统计学的认知计算让有限人工智能体“侧重于制造‘有用成果’的算法技术。因此不需要专注于研发复制人的认知、具有反省和抽象能力的系统”[19],就可以使其具备类似人类的认知能力。

(三)“相对满意”行动效果

道德作为一定社会历史产物具有发展性,一定历史时期中的道德并不是完美无缺的,而是根据人类的发展不断调整和完善的。这一特征表现在人类道德行动上就是道德行动效果的有限性,即“相对满意”的行动效果,其赋予了有限人工智能体道德行动的条件。

“相对满意”的行动效果是由美国计算机科学家赫伯特·西蒙(Herbert A. Simon)提出的评判原则。西蒙否定了传统决策的“最优化”原则,提出了“满意”原则。他认为,人类无法完全拥有全部信息,且人类只有有限的计算能力,因此人类只可获得有限的认知理性,在这种有限认知理性的支配下人类的道德行动不会产生传统伦理学所强调的完全的自由、自主和自律,而是只能实现相对自由、相对自主和相对自律的道德行动效果,即“相对满意”。对人类来说就是,“在现实生活中,人们大多数时候并不采取最大或最优的标准,而是以满意为标准”[20]。同样,美国管理学大师詹姆斯·马奇(James G. March)也在《决策是如何产生的》中表达了“相对满意”的决策思路。他认为,决策规则的行为学研究观察到决策者似乎更倾向于“相对满意”化,而非传统要求的“最优化”,这就表明,采取“相对满意”的原则能够使备选方案的效果更优。

如前所述,处在弱人工智能阶段的有限人工智能体所具有的拟主体性和现阶段的统计学计算能力,使“相对满意”这种人类道德行为评判原则仍适用于有限人工智能体的道德行动效果判断。而有限人工智能体的“相对满意”的行动效果是指,有限人工智能体的道德行为受到社会环境、创造者的知识水平和价值观念等因素影响,其在道德行动中呈现的道德行动效果不可能完美无缺,对人类而言只能是相对可接受的。这意味着,研究人员需要从具体案例、案情出发,通过观察有限人工智能体与人类道德行为之间的相互影响,运用人类行为互动的判断原则,来考察和辨析有限人工智能体行为的道德效果。这不仅可让研究者避开纸上谈兵式的教条探讨进行实事求是的分析,而且可让研究人员在设计、生产、操作和协调过程中,以有限人工智能体道德行动的能力、范围和程度为基础,以效果判断为指导,倒逼有限人工智能体研究的不断发展。

三、有限人工智能体道德行动的设计进路

现实发展中,有限人工智能体的拟主体性、基于统计学的认知计算和“相对满意”的行动效果提供了道德行动的条件,赋予其道德行动的可能性。而将这种可能性发展为现实,不仅需要行之有效的设计方案,需要实现理论基础和实际应用相统一的技术共同体,还需要有贯穿整个行动系统的有力监管方。只有将有限人工智能体的道德行动设计置于“方案—研发—监管”这样的闭环之下,才能协同推进有限人工智能体良性的、深入的、长远的发展。

(一)“价值—技术”的互动方案

“价值—技术”互动方案是由弗里德曼(Batya Friedman)提出的一种基于人类的基本价值发展技术的设计思路。这一方案认为,设计者要将包括自由、隐私和知情同意等价值观提前加载到技术中,同时要通过人与技术的相互作用过程来检验人类利用技术行动的道德价值。这一方案对应了有限人工智能体在人类社会中的当下存在状态。伦理学家伯特·戈迪恩(Bert Gordijn)将“价值—技术”互动称为是一种“可以将伦理问题整合到现有设计实践中的方法”[21]。

具体而言,有限人工智能体的“价值—技术”互动方案要求设计者对有限人工智能体的道德行为采用概念思辨法、经验调查法和技术检验法。这种检验方法的实现需要三个步骤。其一,概念思辨法主要运用于有限人工智能体道德行动设计的初始阶段,这一阶段研究者要利用概念对设计环节的问题和结构进行哲学分析,包括如何界定特定价值(如责任、信任)、如何划分利益相关方(直接利益和间接利益)、如何权衡相互冲突的价值(如隐私和知情同意)等问题。其二,在概念方法预先呈现价值的基础上,经验调查法(观察、访谈和用户行为等)要求研究者考察利益相关者对价值观的反应,考虑设计理念与实际价值要求之间是否存在偏差,进而实现对人类价值的量化。其三,研究者要将价值投射到人工智能技术中去,在真实环境中对价值的适应性进行检验,在技术设计阶段需要对现有技术进行评估分析,分析其如何影响人类价值观。

归纳而言,“价值—技术”互动方案的目标是推动有限人工智能体道德设计的迭代式发展。众所周知,有限人工智能体的道德行动设计不可能在一次设计过程后得到完善,而是需要在不断试错的数次过程中通过无数次循环迭代,不断升级改造,进而出现“相对满意”的道德行动效果。因此,有限人工智能体道德行动的每一次技术设计结果都将会成为下一次技术设计过程的起点,而在否定之否定的过程中实现迭代式发展也正是目前有限人工智能体道德行动的选择和趋势。

(二)结成技术共同体

自技术伦理学产生以来,伦理学家和技术工作者之间矛盾不断。技术伦理学家设计出一套伦理原则应用于现实的技术案例中,进一步通过演绎和推理的方式对技术的研发、应用等环节进行分析和评判。但在技术人员看来,技术理论学家提出的各种道德理论在实际的技术情景中很难适用,认为这些并不会对他们的技术工作起到有益作用,反而是一种干扰。因而,破除技术伦理学的这种困境也是当前有限人工智能体道德行动顺利进行的又一关键。

对此,拉图尔(Bruno Latour)的“行动者网络”(ANT)理论能够提供一定的解决思路。他认为,“任何通过制造差别而改变了事物状态的东西都可以被称为行动者”[22],行动者是节点,处在网络中的各个节点是相互作用和影响的。我们在这里不谈拉图尔的人和非人的关系问题,而是主要借ANT探讨当前有限人工智能体道德行动的各方技术人员的道德责任问题。如前所述,现阶段的有限人工智能体尚未形成自组织状态下的道德自觉,因而对于有限人工智能体道德行动的设计还主要是针对人工智能的“人”方面的“行动者”,即对包括技术理论学者和技术工程师的技术共同体的道德责任做出一定要求。技术理论学者和技术工程师作为平等的“行动者”均要明确自己的责任,以保证有限人工智能体的道德行动在理论基础和实际应用中达到“相对满意”的效果。

首先,技术理论学者的责任是在充分论证的基础上发展出有限人工智能体道德行动的基础理论,保证其在理论逻辑上合乎规范。伦理学是一门古老的学科,在这门学科中有着极为不同甚至相互冲突的道德行动判断理论,比如功利主义原则、人本主义原则和技术社会学原则。技术理论学者需要做的一方面是厘清各种理论的区别,找到最为适合有限人工智能体道德行动的“底层逻辑”;另一方面是将这一理论与有限人工智能体道德行动相结合,进行前瞻性的充分探讨。即便这种探讨会在一定时间内引起学界的广泛争论和意见争执,但正如伦理学发展历史所揭示的,唯有充分探讨才有伦理学的发展。这体现在人工智能技术领域就是唯有技术理论学者在基础理论方面的充分明晰论证,才会有技术科学在基础理论领域知其然更知其所以然的长足进步。因此,技术理论学者要承担起为有限人工智能体道德行动的发展夯实理论基础的责任。

其次,作为技术理论学者理念的实现者,技术工程师的责任是编写代码,反复校验,确保安全可控,破除代码黑箱,保证有限人工智能体在实际应用中合乎道德规范的“相对满意”。技术工程师职责的关键在于确保有限人工智能体道德行为的可解释性,即各个道德算法模块“输入—输出”的可解释、性能的可解释及其如何促进系统结果的可解释。这是相关企业可以安全生产有道德行动能力的有限人工智能体的前提,也是政府部门能够对有限人工智能体道德行动进行监测和补救的底线。

(三)科技管理部门严格监管

2023年5月全国信息安全标准化技术委员会发布《人工智能安全标准化白皮书(2023版)》,其中对当前我国人工智能的安全标准化发展问题做出了一系列的要求和建议。这就要求在有限人工智能体道德行动的“人的责任”的考量中,需要将企业和政府的科技管理部门所承担的监管责任纳入其中。相关企业的科技管理部门作为社会管理单位其责任主要体现在两个阶段。

一是在有限人工智能体道德行动准备应用之前,企业的科技管理部门要做好伦理准备工作,建立伦理调查和监督机制,以确定、防止和减轻有限人工智能体道德行动的负面影响,并提前设计应对道德负面影响的可行对策。二是在有限人工智能体道德行动投放应用之后,企业的科技管理部门要确保其透明度。为了让用户了解人工智能系统的各环节对于具体环境和敏感度的设定原理,增进用户的信任和理解,确保有限人工智能体道德行动的透明度可以帮助人类行为主体知晓在危急情形下如何影响和阻止有限人工智能体的道德决策,监管部门应提前准备适当的防范措施。相关企业的科技管理部门在以上两个阶段中的监管责任是有限人工智能体道德行动安全落地的重要一环。企业科技管理部门在检验产品和反馈问题的过程中能够规范和提高相关技术工程师的道德责任意识,减少政府科技管理部门的监管难题。

在有限人工智能体道德行动的整个生命周期中,政府的科技管理部门担负立法、评估和补救的责任。为了规范有限人工智能体道德行动的发展,政府部门应加快制定与其相适应的法律、法规和政策,并定期对其审查和修订。这需要所有人工智能行为者,包括投资方、设计人员、运营企业、产品用户、律师和司法部门等全部参与进来,填补现有法律框架中关于有限人工智能体道德行动的空白领域。政府部门的硬法和智能体内嵌的道德价值软法相结合是有限人工智能体道德行动安全的保障。同时,在有限人工智能体道德行动投向应用之前,政府科技管理部门需承担评估责任,建立伦理影响评估程序,以监测和评估系统的惠益和风险,并视情况出台预防和减轻道德风险的措施和保障机制。但由于可能存在信息的不完全透明等原因,并不是所有伦理问题都能够在评估阶段发现。因此,在有限人工智能体道德行动的应用过程中,政府科技管理部门仍需承担补救责任,持续监测伦理影响并实施积极的补救措施,对于造成负面伦理问题的有限人工智能体采取返厂、停用或销毁等惩处手段,并审查和追溯相关责任方。

四、结语

从人类发展角度来看,如何理解和应对有限人工智能体的道德行动是一个历史问题。虽然人类目前无法预估有限人工智能体将有多大的发展潜力及可能产生怎样的变革,但我们既不应过度乐观,也不应过度悲观,而是应从发展的角度出发,基于目前正处于并将在很长一段时间处于有限人工智能体的发展阶段的这一客观现实,立足现有的人工智能技术和人类道德实际,考察和探索有限人工智能体道德行动的发展状况与发展进路。可以说,唯有有限人工智能体的道德行动安全、可靠、持续及更好地服务于人类,才能逐渐化解长久以来学界对于有限人工智能体道德行动问题的种种争论,才能继续推动人工智能技术事业健康、深入、可持续发展。

猜你喜欢
道德人工智能人类
头上的星空与心中的道德律
人类能否一觉到未来?
人类第一杀手
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
1100亿个人类的清明
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!