仿人类服务机器人的道德伦理研究

2021-03-26 02:32张春晓陈志文李良宇
智能制造 2021年1期
关键词:本体伦理道德

张春晓,陈志文,李良宇

研究 Research

仿人类服务机器人的道德伦理研究

张春晓1,陈志文2,李良宇2

(1. 陆军防化军代局;2. 宜昌地区防化军代室)

人工智能体尤其是仿人类服务机器人的出现,引发了人类对人工智能体道德和机器人伦理问题的思考。聚焦仿人类服务机器人道德伦理问题研究,有助于修复人工智能体在实践应用中的诸多漏洞,尤其体现在对人类的伤害问题上。通过阐述仿人类服务机器人的定义及其发展历程,分析仿人类服务机器人的道德困境,探讨仿人类服务机器人道德研究发展新动态,进而引发对人工智能伦理道德问题的关注并寻求解决方法。

机器人;道德;伦理

1 引言

当前世界计算机技术的进步,极大地提高了生活效率,从而提高了生产率。同时,技术进步影响了现有的社会秩序和环境,特别是传统文化的历史和现实,以及道德和伦理机制、标准。在社会的伦理方式中,认识到诸如机器人伦理之类的相关道德标准,然后改善了社会伦理体系,提高了社会道德的整体水平。如何促进和实现人类幸福的目标是我们需要考虑的另一个问题。如今,科学技术不断进步,人们正在经历“第三次工业革命”,这是计算机和网络的一场革命,也是许多领域的一场革命,是一个多元化领域的发展。机器人的不断发展同时带来了许多领域的技术创新。由于机器人的应用,不可避免地会出现许多问题,尤其是在机器人伦理方面。为此,需要找出正确处理机器人与人类社会关系的途径,控制机器人开发的伦理问题。

需要澄清的是,我们热切期待技术的进步,特别是在计算机开发方面。但是,我们这里不讨论IT行业是否应该进一步发展。这是因为它不能解决真正的问题。但这是认真对待此问题并尝试消除弊端的好方法。否则,请采取预防措施,以便能够迅速有效地预警机器人发展带来的重大社会和道德问题。例如,在军用机器人领域,我们可以预测军用机器人带来的许多优点和缺点[1]。因此,可以在特定的道德体系中对其进行有效控制,充分利用机器人服务人类社会,避免负面影响。

2 机器人发展引发的伦理问题

每种新技术都有自己的优点和缺点。随着机器人技术的发展,人机交互的意识增强,人机之间的物理界限逐渐模糊并融合。当人们与机器人相处时,就会出现问题,包括道德问题。

2.1 人类害怕被机器人取代的焦虑

随着机器人进入工厂,工人减少了,这不可避免地导致失业和人们的就业焦虑。但这使工厂管理者的管理更为简便,至少减轻了对管理人员带来的不确定因素担忧。例如,可以在许多新工厂中使用机器人,而不是用一流的工人来工作。新工厂需要维持适当数量的工人或在现有工厂中安装机器人,以便双方都可以参与工作,机器人可以降低制造成本以保持业务竞争力。但是,这种削减成本的方法必须考虑到员工和管理层的集体利益。管理人员可以考虑培训现有员工以从事新工作,这样可以大大降低失业风险。与人进行重复行为相比,机器人具有显著优势。但是,一些工作不能由目前缺乏推理能力和决策能力的机器人代替工人[2]。

2.2 人类与机器人合作的情感抵抗

通常,在制造业中,科学家必须设计能够执行最繁琐和危险的工作的机器人。同时,人类工人必须做一些需要判断和解决问题的工作。但是,在设计自动化工厂时,人和机器人工人在一起工作时会遇到较小的复杂情况。另外,我们相信(原则上)机器人可以完全替代人工,因此我们可能担心企业领导者会用新的机器人替代他们。出于这种预设,工人必然不高兴,并可能从事破坏性的机器人活动。相关事件是19世纪英国工人销毁机器人,因此管理人员必须负有道德义务,授权工人从事一定范围的工作,并证明智力能力是机器人所不具备的人的身份。

2.3 社会伦理问题

一方面,家庭伦理问题源于机器人的发展。一个例子是机器人教育者,其目标是促进新生儿和儿童的健康成长,并保护他们在成长过程中不受伤害。但是,育儿和机器人监护之间存在重要区别,父母的监护和情感是不可替代的。识别机器人需要照顾孩子,以防止孩子受到伤害。但是,也要重视机器人陪伴孩子的问题,以防止孩子的性格异常发展[3]。

另一方面,人形机器人带来的伦理问题。日本之前已经展示了一种仿人机器人,它不仅可以模仿人的眨眼和呼吸,还可以与人交流。但是他还可以查看和传播信息,并展示一些特定的动作以更接近人的特质。如果这个类人机器人具有一定的人类道德,那么无论人们是否相信他,他将如何定义与人的道德关系?一个真实的人,它是人工制品,还是应该被视为人造人?

此外,若机器人取代了很多人工,那么如何考虑机器人与人之间的特殊关系?有几种服务机器人可以照顾老人、陪逛街(如购物),与他们交流并保持依赖。但是,如何让这些独立的机器人撒谎或发现是否有任何副作用?将来大型机器人的发展会与今天的计算机一样受欢迎,并且不可避免地会产生大量的电子废物,从而导致大量的放射性污染[4]。

3“物转向”与物伦理

在古希腊,思想家、哲学家就注意到自然物体和人工物体之间的区别。柏拉图以一张床为例,提出了一张床的三种含义:一个具有基本意义的床;一个是由木匠制作的物质意义的床;一个是画家绘画的床,是一种影像的模仿。从物体的存在来看,亚里士多德描述床作为人造物体,解释了与自然之间的区别。有些对象存在,某些对象是自然存在的,而某些是出于其他原因而存在的。机器人是专门由人手创造的,它们也可以称为人造物体,因为它们的存在具有存在的意义,因而相关伦理研究也具有研究价值。这种价值和价值理论必须反映在道德形成中,并可能产生伦理道德影响[5]。

1900年,胡塞尔发表了“回到最本质”的口号。海德格尔随后谈到了20世纪30年代和50年代许多“物”的探讨。在20世纪60年代,学者Roland Bartes和Jean Baudry、L-lar关注“物”对象的解释。在20世纪90年代,唐·艾德(Don Aide)提倡荷兰研究人员维贝克提出的口号“后现象学”和“物理伦理学”,Verbeck在21世纪进一步推动了这项研究[6]。

对“物”对象伦理反映了伦理的重大变化。物转伦理消除了单纯的人类伦理的倾斜,而是研究了物体的道德和伦理。客体伦理是哲学研究的重要组成部分,它不仅研究客体的存在,而且还研究物质伦理的存在。与古典道德责任相反,在实践中,“物质道德”是道德责任。随着机器人的飞速发展,我们与人类的关系变得越来越紧密,无论是人类还是身体,理性、感官、有意识或无意识的人。无论是道德还是不道德,我们都需要定义道德规范,并且我们需要探索相关伦理问题[7]。

4 如何处理人与机器人的伦理关系

通常,机器人可以分为基本机器人和高级机器人。人与机器人之间的主要关系是操作与被操作之间的关系,而问题仅在物理和技术层面出现。过去,曾发生过因机器人而导致原发性伤害的案例。但是错误的举动和先进的智能机器人可以自行处理信息,并且其开发更加人性化和可识别性。在某些方面,如生产力方面,它超越了人类。当然,这种现象越来越明显,并突出了越来越多的问题。解决这些问题是将来开发机器人时的重要方面。

4.1 物质伦理的道德倾向

实际上,物质伦理是哲学和伦理学领域物质变化的反映,机器人学是物质伦理学的一个领域,它限制了机器人的发展和满足“良好”需求的机器人的发展。有道德义务。物质伦理从宏观经济的角度来看,智能机器人和个人在社会技术体系中承担着巨大的责任,这是大技术时代道德责任的本质。

在当今社会中,一些机器人护士正在迅速发展,并且一些人能够照料老年人和儿童,与之交流并与之成长。某种灵魂伴侣或灵魂伴侣如果我们将其定义为“事物”,逻辑和自律是否会对人们造成混乱和危险?不可能意识到自己的行为并关心他人。它与简单的编程或控制物理机的能力有关。在这里最好将其视为“人的”或“人道的”:人们在道德上是自律的,因此他们不会破坏道德成就。当然,对于机器人来说,即使是最完整的程序也会出错,因此,还必须定义道德奖励。例如,现代机器人护士在照顾老人或与孩子玩耍时是否会产生潜在的负面印象(例如说谎者),从而间接影响人们的利益?再例如,某些军事机器人甚至普通的战斗人员也无法区分,这些杀人机器必须符合道德标准,即以道德的方式建造机器人。但是,由于机器人与人类协作不当而引起的问题,必须与机器人本身或设计者有关,这些伦理都值得研究。

4.2 机器人的“本体情感”

所谓的“本体情感”被认为是“情感”,是现实和生活的最高基础,这一理论是由李泽厚先生提出的。他认为情感本体不再是一个本体,而是从其原始意义上来说不是本体。情感伦理,仍然被称为本体论,无非就是生活的真相,存在的现实及其最终含义。

讨论机器人与人类之间的伦理关系的切入点是探索“新生代工具”与“新生代情感”之间的关系。根据李泽厚的积累理论,本体工具的不断积累导致了“本体”的形成。工具从数量变化到质变的过程逐渐产生了心理本体,然后对情感本体进行了评估。但是,“积累理论”仅研究该设备对身心的影响的一维含义。英国学者Numenon提出受“情感”对“思想与身体”的价值和重要性的限制,对于“工具”,人是自然与社会的统一。人类技术在机器人发展历史上占主导地位,因为精神和情感本体来自工具本身,而人类属于历史存在。因为机器人是由情感人士创造的,所以可以将其称为可行的道德传统。然后,机器人可以在人的情感框架内积累,逐渐将情感和道德责任分配给自身本体。

在情感形而上学中,情感已成为重要话题,西方和中国哲学都没有考虑以情感为中心的辩论,甚至在现代机器人技术的发展中都没有考虑“本体论”,仅靠道德约束是不足以替机器人“情感”的。还有一方面,机器人应服务于人类,只有人类赋予机器人这种“意义”,才能实现人类与机器人之间的和谐[8]。

4.3 法律限制

所谓的机器人法是关于为机器人建立行为或道德规则,以防止伤害或虐待人。最著名的机器人是阿兹莫夫的《机器人三定律》,然后他又添加了一个。机器人不得伤害人类或在人类受到伤害时坐视不管。

关于《机器人法》应当包括有关机器人使用和应用的法律。实际上,在机器人技术领域,应用法律和技术术语变得越来越困难。机器人法是对机器、人工智能和先进机器人技术的独立性的法律评估和讨论。讨论是对机器人必须履行的法律权利和责任的重新评估(不仅仅是传统的法律)。

韩国政府制定了世界上第一个《机器人伦理宪章》。《宪章》认为,机器人应该服从命令,并且不损害人类利益。当然,人类不能滥用机器人。必须充分尊重并明智地使用机器人的利益。此外,经济产业省还发布了《下一代机器人安全指南(草案)》,用于指导未来机器人的研究和开发行为以及未来行为。最终,将避免所有机器人必须遵守的法律规则批准智能机器人,以免将来遭受“作弊”机器人骚乱而对人造成伤害,机器人定律将成为关于机器人未来发展的讨论中心[9]。

机器人的发展应当顺应人类发展这一趋势,智能机器人的普及将成为未来发展的趋势。支持这些理论,从材料转换到材料伦理学和机器人伦理学,在面对人机交互时可以朝着和谐的方向发展。在机器人体内融入人类法律框架,创建机器人开发系统的基础。以人类的“道德、爱、合法”为基调,奠定机器人伦理体系标准并加快人类社会的发展[10]。

5 结语

首先,机器人的本质并不符合人类传统的道德规范,并且在执行标准、政策和法律方面也与人类的伦理道德在本质上有所区别。由于经济社会的快速发展,道德标准经常落后于技术进步,因此,这种状态下的伦理研究是“直接解决特定问题”,并应从以“人”为出发点的角度正确地解释它们。所以,机器人的伦理标准必须坚持统一的价值观和明确的内容,过于具体的细节并强调相关性这是当前困难之一。

其次,计算机技术的飞速发展大大增加了问题的量级。人们很少对这些相关问题有时间思考、分类,总结或进行详细的改善,这些研究通常落后于其他的社会研究,造成一些实际问题的出现。因此,如何在机器人伦理道德行为产生严重的社会影响之前对其进行评估,以及如何及时填补伦理政策和法规空白是研究面临的挑战。

[1] 乐艳娜.机器人立法的道德悖论[J].环球,2007(11):62-64.

[2] 李从军.价值体系的历史选择[M].北京:人民出版社,2004:278.

[3] 张奇志,周亚丽.机器人学简明教程[M].西安:西安电子科技大学出版社,2013:1.

[4] 尤西林.心体与时间:二十世纪中国美学与现代性[M].北京:人民出版社,2009:87.

[5] 杨庆峰,闰宏秀.多领域中的物转向及其本质[J].哲学分析,2011,2(1):158-165.

[6] 赵士林.略论“情本体”[J].哲学动态,2011(6):90-96.

[7] 王绍源,赵君.“物伦理学”视阂下机器人的伦理设计:兼论机器人伦理学的勃兴[J].道德与文明,2013(3):135-136.

[8] 亚当•斯密.道德情操论[M].北京:商务印书馆,1997.

[9]汤姆•福雷斯特,佩里•莫里森.计算机伦理学:计算机学中的警示与伦理困境[M].陆成,译.北京:北京大学出版社,2007.

[10] 约翰•L•麦凯.伦理学:发明对与错[M].丁三东,译.上海:上海译文出版社,2007.

猜你喜欢
本体伦理道德
Abstracts and Key Words
《心之死》的趣味与伦理焦虑
头上的星空与心中的道德律
对姜夔自度曲音乐本体的现代解读
护生眼中的伦理修养
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
《我应该感到自豪才对》的本体性教学内容及启示
用道德驱散“新闻雾霾”
医改莫忘构建伦理新机制