人工智能伦理学的两个维度

2020-06-30 15:34潘卜荣
世界家苑 2020年4期
关键词:人工智能

摘要:人工智能伦理学是专门针对机器人和其他人工智能生物的技术伦理学的一部分。它通常分为机器人伦理(roboethics)和机器伦理(machine ethics),前者关注人类在设计、构造、使用和对待人工智能生物时的道德行为,后者关注人工道德行为主体(AMAs)的道德行为。

关键词:人工智能;机器人伦理;机器道德

1 机器人伦理

“机器人伦理学”指的是人类如何设计、建造、使用和对待机器人和其他人工智能体的道德。它既考虑了人工智能生物如何被用来伤害人类,又考虑了人工智能如何被用来造福人类。“机器人权利”是一个概念,即人们应该对他们的机器负有道德义务,类似于人权或动物权利。有人建议,机器人的权利,例如生存和履行其自身使命的权利,可以与机器人为人类服务的义务相联系,类似于将人权与社会面前的人类义务相联系。这些权利可以包括生命和自由的权利、思想和言论自由以及法律面前人人平等。这个问题已经被未来研究所和英国贸易和工业部考虑过。专家们对在遥远的将来是否需要具体而详细的法律存有争执。

设想机器人拥有自己的权利的可能性:如果在任何特定年份,一个通过使用萨里大学或剑桥中心的公开可用的开放源代码的参赛作品从而赢得了银质奖章或金质奖章,那么奖章和现金奖将授予负责该参赛作品开发的机构。如果无法确定此类机构,或者两个或两个以上的申请人之间存在分歧,奖章和现金奖将由信托机构保管,直至参赛者在美国或在比赛场地合法拥有现金奖和金质奖为止。机器人索菲亚被授予沙特阿拉伯 “荣誉”公民身份,尽管一些观察家认为这更像是一种宣传噱头,而不是一种有意义的法律承认。有些人认为这种姿态公然诋毁人权和法治。感知主义哲学赋予众生,主要是人类和大多数非人类动物一定程度的道德考虑。如果人工智能或外星智能显示出有感知能力的证据,这种哲学认为它们应该表现出同情心并被赋予权利。创造需要权利的人工智能不仅是可以避免的,而且本身也是不道德的,这既是人工智能体的负担,也是人类社会的负担。

2 机器伦理

机器伦理学(或机器道德)是一个涉及设计有道德行为或似乎有道德行为的人工道德智能主体(AMAs)、机器人或人工智能计算机的研究领域。为了解释这些行为主体的本质,有人建议关注一些哲学思想,比如关于行为主体、理性行为主体、道德行为主体和人为行为主体的标准描述,这些都与行为主体的概念有关。

阿西莫夫在他的《我,机器人》中考虑了这个问题。他提出了机器人三定律来管理人工智能系统。他的大部分工作都是在測试他的三大法则的边界,看看它们在哪里会崩溃,或者在哪里会产生矛盾或意想不到的行为。没有一套固定的法律能够充分预测所有可能的情况。最近,学术界和许多政府对人工智能本身可以承担责任的观点提出了质疑。英国召集了一个小组,修订了阿西莫夫的法律,以澄清人工智能是其制造商或其所有者或是运营商的责任。瑞士洛桑巴黎综合理工学院的智能系统实验室进行的一项实验中,被编程为相互合作,寻找有益资源和避免有毒资源,的机器人最终学会了相互撒谎,试图囤积有益资源。这种情况下的可能一个问题是,其目标是有”终点”的,相反的是,人类终极动机通常具有一种需要永无止境学习的特性。

一些学者质疑将机器人用于军事战斗,特别是当这些机器人被赋予某种程度的自主功能时。 美国海军资助了一份报告,该报告指出,随着军用机器人变得越来越复杂,人们应该更加关注它们自主决策能力的影响。人工智能发展协会主席委托进行了一项研究来探讨这个问题。 他们指出,像语言获取设备这样的程序可以模拟人与人之间的互动。某些计算机比人类更聪明的时刻可能会到来,称之为“奇点”他认为这对人类来说可能有些危险,或者可能非常危险。这被一种叫做奇点主义的哲学所讨论。机器智能研究所建议有必要建立”友好的人工智能”,这意味着人工智能已经取得的进步也应该包括努力使人工智能本质上友好和人性化。假设机器人和计算机的潜在影响,以及他们可以自给自足并能够自己做决定的可能性的影响。计算机和机器人可以获得任何级别的自主性的可能性和程度,他们可以在多大程度上使用这种能力来构成任何威胁或危险。一些机器已经获得了各种形式的半自主性,包括能够自己找到电源,并能够独立选择用武器攻击的目标。 些计算机病毒可以躲避删除,并获得了“蟑螂智能”,科幻小说中描述的自我意识可能不太可能,但还有其他潜在的危险和陷阱。

有一项特别的技术有可能性真正实现具有道德能力的机器人。在一篇关于机器人习得道德价值的论文中,神经形态芯片的例子,这种芯片旨在以类似于人类的方式处理信息,以非线性方式处理信息,并使用数以百万计的相互连接的人造神经元。嵌入式神经形态技术的机器人可以以独特的人类方式学习和拓展知识。这不可避免地提出了这样一个问题,即这些机器人将在何种环境中了解世界,以及它们将继承谁的道德,或者它们是否最终也会形成人类的”弱点”:自私、促活的态度、犹豫等等。在《道德机器:教机器人是非对错》一书中,沃拉克和伦总结道,通过激励人类解决现代规范理论中的空白,并为实验研究提供一个平台,教机器人明辨是非,可能会促进人类对伦理道德的理解。 例如,它引入了规范伦理学家来解决一个有争议的问题,即机器中使用什么样的特定学习算法。尼克认为决策树,如ID3优于神经网络和遗传算法,理由是决策树遵循透明性和可预测性的现代社会规范,例如遵循先例。而克里斯·桑托斯则以相反的方向论证任任何时期的规范都必须允许改变,且自然的不能完全满足这些特定规范对于减少人类受到”黑客”犯罪攻击的可能性至关重要。

3 结论

现在各国政府,以及跨国政府和非政府组织都在努力确保通过立法和维护治安来遵守道德规范人工智能应用符合道德规范。制定人工智能技术的最佳实践,增进公众的理解,并充当人工智能的研究平台。这种人工智能合作关系将开展研究,组织讨论,提供思想指导,与相关第三方协商,回答公众和媒体的问题,并创建教材,推进对人工智能技术的理解,包括机器感知、学习和自动推理。做出财政和研究贡献,同时与科学界合作,吸引学者进入该领域。

参考文献:

[1] 玛格丽特·A·博登,博登,王汉琦,等.人工智能哲学[M].上海译文出版社,2006.

[2] 阿西莫夫.银河帝国8:我,机器人[M].江苏文艺出版社,2013.

[3] 闫坤如.机器人伦理学:机器的伦理学还是人的伦理学?[J].东北大学学报(社会科学版),2019(04).

作者简介:潘卜荣(1996—),男,壮族,广西南宁人,硕士在读,研究方向:科学技术哲学。

(作者单位:广西大学)

猜你喜欢
人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能与就业
China’s Artificial Intelligence Revolution
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!