这个杀手非常冷

2018-09-27 09:54张燕
瞭望东方周刊 2018年37期
关键词:伦理机器武器

张燕

这类自主武器可以在人工智能的帮助下自行学习,并在没有人为干预的情况下摧毁目标

在科幻电影里,机器人杀手是个老掉牙的题材.人们已经不再像几十年前那样,为这种冷酷的机器尖叫。在目睹了工业机器人、护理机器人等类似产品后,对机器人能做什么,人们已经有了更全面的认识。

但是,杀手机器人和那些提供便利服务的机器终究还是不同的,因为它涉及伦理问题。60多年前,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)就提出了著名的“机器人三定律”,首要一条就是“机器人不得伤害人类,或坐视人类受到伤害”。

随着技术的进步,伦理屏障似乎正在被打破,冷血的机器人杀手逐渐从荧屏中走出来。为了阻止这种情况的发生,一场人类自我保护运动逐渐兴起。

迫在眉睫的问题

科幻很远,现实很近。机器人杀手的出现已经是一个迫在眉睫的问题。

近期超过70个国家的军事专家、科学家、非政府组织在日内瓦参加了联合国会议,就如何对待具有争议的“杀手机器人”进行讨论。为期一周的会议并未得出实质性的结论。虽然大多数与会者表示支持进行立法管制,但是一小部分人表示反对。这种分歧助推了一种现实:杀手机器人正向我们走来。

杀手机器人走来的脚步声会让人感到不寒而栗。当然,在联合国《特定常规武器公约》框架下,这种杀手机器人有另外一个名字:自主武器。这类自主武器可以在人工智能的帮助下自行学习,并在没有人为干预的情况下摧毁目标。

随着科技的发展,机器可以用人工神经网络处理所积攒的经验,类似于人类大脑,不断对情况进行自主学习和判断。而武器行业也积极利用最先进的技术生产出更有效率、速度更快的武器。拥有这种能力的武器,很容易让人想起电影《终极者》里的杀手机器人。

红十字国际委员会将自主武器定义为:“可以根据自身所处的环境中不断变化的情况,随时学习或调整运转的武器。真正的自主武器能够在无人干预或操控的情况下搜索、识别并使用致命武力攻击目标。”

虽然全自主武器和杀人机器人到目前为止还没有被使用,但在这一领域存在国际公约的灰色区域。在各国讨论关于自主武器的生产和使用是否必须受国际公约管制时,尽管各国代表原则上同意,自主武器也必须受人类控制,并符合国际法,但美国和一些拥有大型军备的国家提出明确的反对意见,不希望禁止这类武器,这些国家希望借此保证其在军事上的优势地位。

美国国防部是最支持机器人研究的机构之一,2013年美国智库海军研究办公室曾向塔夫斯大学、布朗大学、伦斯勒理工学院、乔治城大学以及耶鲁大学的研究人员发放750万美元补助,以研究如何教授自动机器人分辨对错。

目前美国已经有不少具有部分自主功能的武器。军用机器人要上战场,需要适应战场上的现实,辅助战士执行任务。例如导弹已经可以自行识别、选择和攻击目标,无人机可以组成蜂群网络并独立执行某些任务,阿富汗和叙利亚已成为美军这些武器的试验场。

伦理的交锋

在对杀手机器人限制和列装的时间竞赛中,即使是乐观者目前也认为后者会是胜利的一方。毕竟在人们感受到切肤之痛前,很难对收割生命的武器产生感性认识,一如历史上先是出现了大规模杀伤性武器,并产生巨大的破坏后,人们才开始痛定思痛制定限制大规模杀伤性武器的公约。

机器人看似有益无害,目前在工厂里已经有机器人和人一起上班,无人驾驶汽车也已经上路测试,无人机已开始行进送货服务,但当这些机器成为武器,踏上战场的那一刻,不但所有的温情脉脉都会被撕去,连战争的伦理都会被改写。尽管责任要由握刀的人来承担,但和刀终究要靠人挥动不同,自主武器可以自己选择攻击的时机,这无疑会极大削弱人的自我防护能力。

自主武器在接到攻击指令后,不再需要人的开火指挥,攻击的时机也由算法作出最优选择。它们在数分钟、数天乃至数周长的时间里自行跟踪目标,然后选择所谓的最佳时间将目标消灭。如此一来,决定人生死瞬间的不再是作为对手的人,而是一台冷冰冰的机器。

此外,自主武器更难区分攻击目标。目前国际人道法重要的一条是,在攻击时要清楚区分作战者和平民,尽量避免攻击平民和民用设施。机器不懂国际法,也无法依据道德而行动,难以区分攻击目标。因此国际法专家们要求,人类必须始终拥有对攻击的最后控制权。

杀伤性地雷可以被看作是一种最初级的自动运行武器,因为当其埋下后,何时爆炸就不由埋雷者控制了,而取决于应用的情景。然而就在地雷被口诛笔伐多年后,很多几十年前布下的地雷。如今依然在作恶,每年造成1.5万到2万人丧生。

一旦杀手机器人成为现实,其危险要比地雷大得多。因开展反对地雷的运动而获得诺贝尔和平奖的乔迪·威廉姆斯(Jody Williams)是“阻止杀手机器人运动”的发言人,他表示自主武器比核武器更可怕,“如果一些人认为把人类的生杀大权交给一台机器是可以的,人性又何以处之?”

正是基于这种可怕的伦理冲突前景,在2013年,联合国就开始呼吁暂缓研发能自主运作的战争机器人。遗憾的是,伦理的交锋目前并未延迟研发的脚步,而阻止其到来的机会却在指缝中溜走。

谁来阻击

人类被机器人大军屠杀是电影中的旧梗,之所以仍会出现常拍常新的版本,是因为人们从心底有挥之不去的恐惧和担忧。

然而,军火商没有被这种担忧所吓阻,他们正贪婪地将手伸向数据和算法.直到杀手机器人破壳而出。他们对此振振有词,认为当机器人取代人走上沙场,会减少人的牺牲。他们避而不谈的是另一种逻辑,即研发这种机器人的一项重大危险是一各国会更轻易发动战争,因为人与人越来越冷漠。也更容易下达杀人指令。

正是由于感受到杀手机器人成为现实的威胁,自2014年开始各方在联合国日内瓦总部举行对话,讨论对杀手机器人进行限制,整个对话在特定常规武器公约的框架下进行。这个非正式对话在2017年演变为正式的谈判,超过70个国家以及更多的科学家、非政府组织参与。但各方立场相距甚远,整个谈判进展迟缓。

基础研究领域一直没有放弃抵制杀手机器人的出现。物理学家斯蒂芬·霍金在世时,就曾在2015年和上千名人工智能领域的专家一道,发表了一封呼吁在世界范围内禁止杀手机器人的公开信。

科学家们警告,越过这一界限将启动一场新的全球军备竞赛。信中称,继发明火药和核武器之后。能够在没有人类干预下独立识别并攻击目标的武器系统的发展,将带来“第三次战争革命”。

两年后,不少人工智能企業也加入了反对的行列。特斯拉创始人埃隆·马斯克。以及谷歌应用人工智能负责人穆斯塔法·苏莱曼等116家机器人和人工智能企业的创始人签署了一封公开信。这封信说,致命自主武器会让“武装冲突的规模超过以往任何时候,时间跨度快到人类无法理解”。

猜你喜欢
伦理机器武器
机器狗
机器狗
浅谈我国社会工作伦理风险管理机制的构建
一张图看懂武器发展史
亲组织非伦理行为研究
亲组织非伦理行为研究
请放下你的武器
神奇的独眼机器
退役武器去哪儿了?
非伦理领导对员工职场非伦理行为的作用机制研究