法律如何看待机器人

2019-03-26 13:51尼尔理查兹威廉斯马特著陈吉栋向梦涵译
法治社会 2019年1期
关键词:隐喻机器人法律

[美]尼尔·M·理查兹 [美]威廉·D·斯马特著 陈吉栋 向梦涵译

内容提要: “人工智能”正在或将要被广泛地应用于生活的方方面面,然而随之而来的技术、人伦、责任等问题给现有的法律制度带来了极大的挑战。首先要从法律的角度厘清什么才是真正的机器人;在此基础上,充分了解机器人技术的发展现状以及未来发展趋势;同时借鉴网络法的发展经验,为新兴技术找到合适的隐喻,以便于能够设计出与之配套的法律制度对其进行有效调整;最后,还应独立地看待机器人,不能以高度人格化的方式将其与人类进行类比,以避免陷入过度地将人形机器人拟人化的陷阱。

机器人时代正在到来!我们并非像电影 《终结者》《太空堡垒卡拉狄加》那样,以一种恐惧、警惕的态度看待机器人,又或者像弦乐航班乐队的歌里写的 “人类已经完蛋”①弦乐航班乐队,歌曲 《人类都完蛋》(“在2000年,这个遥远的未来。从90年代机器人出现以后,这个世界将大有不同,你可以看到翻天覆地的变化……人类所有的生活都被彻底清除。最终,机器人统治着这个世界。”)。那样半开玩笑地来看待它。我们认为机器人和机器人技术已经足够成熟到可以走出实验室,大批量地进入消费市场了。其中一部分已经来到我们身边,比如鲁姆巴 (Roomba)扫地机器人、医院看护机器人、军队和执法部门使用的无人机以及已经上路②Tom Vanderbilt,Let the Robot Drive:The Autonomous Car of the Future is Here,WIRED,Jan.20,2012.的无人驾驶汽车原型。这些早期技术仅仅是一个开始,或许过不了多久我们就能目睹一场机器人人格化大革命。

这些智能系统有望改变我们的日常生活,并颠覆世界,甚至这种变化要比过去20年来互联网和手机的广泛应用带来的改变更具深远意义。我们应为此种变革做好准备,特别是要以一种正确的方式来看待智能系统。只有这样,立法者才能为其制定出更好的法律,工程师们也能在不破坏社会奉行的价值观的前提下设计机器人。那么问题来了,我们该怎么做呢?

本文试图厘清有关法律、机器人以及机器人学概念上的一些问题,并分析智能系统所带来的影响。本文借鉴了互联网学者和机器人专家的经验,在即将面临的法律和技术问题上进行了首次跨学科的剪辑。因此,本文将与第一代论述该领域基本要素的互联网学术问题,甚至是该领域被了解之前的学术问题进行类比分析。③E.g.M.EthanKatsh,Software Worlds and the First Amendment:Virtual doorkeepers in cyberspace,1996 U.CHI.L.F.335,348-54(1996);Joel R.Reidenberg,Governing Networks and Rule-Making in Cyberspace,45 EMORY L.J.911,917-20;David R.Johnson&David Post,Law and Borders-The Rise of Law in Cyberspace,48 STAN.L.REV.1367,1375(1996);David Kushner,The communications Decency Act and the Indecent Indecency Spectacle,19 HAST.COMM.&ENT.L.J.87,133(1996);David G.Post,Anarchy,State,and the Internet:An Essay on Law-Making in Cyberspace,1995 J.ONLINE L,art.3,12-17(1995);Lawrence Lessig,TheZones of Cyberspace,48 STAN.L.REV.1403,1403(1996);Frank H.Easterbrook,Cyberspace and the Law of the Horse,1996 U,CHI.L.F.207;Lawrence Lessig.The Law of the Horse:What Cyber Might Teach,113 HARV.L.REV.1193,1198-99(1998);LAWRENCEN LESSIG,CODE AND OTHER LAWS OF CYBERSPACE(2000).对互联网发展的历史学术研究更为的细致综述, 参见 Raphael Cohen-Almogor,Internet History,2 INT’L J.TECHNOETHICS,(2011),available at http://www.hull.ac.uk/rca/docs/articles/internet-history.pdf.我们的工作 (以及更大的项目正如火如荼地展开)与早期的互联网法研究工作相比,其突出优势在于我们可以从长达20年之久的网络法研究项目中汲取经验。在这样一段充满着革命性变化的时期里,该项目对法律和技术规范进行了深入分析。无论是在其成功之处还是在将要面临的挑战方面,网络法的研究经验都可以为法律和机器人关系的研究提供蓝图。

在本文中,我们认为对于学者和整个社会来说,由机器人带来的问题应当从以下四个方面着手。第一,我们给机器人一个定义,即 “非生物的自主机构”。我们认为这样一个定义抓住了由机器人本身显露出来的监管和技术挑战方面的关键问题。这将给规则的制定奠定基础。第二,我们探讨了当下机器人的先进功能,并设想机器人在未来10年左右可能会做些什么。第三,我们认为早期的法律和机器人项目应当吸取网络法的发展经验,因为20年来网络法一直在有效地处理新技术带来的问题。这揭示了特别重要的一点:当从法律的角度来看待新技术时,我们用来理解新技术所用的隐喻格外重要,律师们习惯从隐喻的角度看待法律主体,尤其是在新技术等法律的发展领域。网络法的研究经验告诉我们:若没有给机器人一个恰当的比喻,那将会带来灾难性的后果。第四,我们提出:那种博人眼球的隐喻应不惜一切地舍弃,比如:机器人就像人类一样,仿人机器人和非仿人机器人存在重要的区别。我们将这种看法称为 “人形机器人陷阱 (the Android Fallacy)”。

一、什么是机器人

在考量这些系统之前,我们首先要对 “机器人”有一个清晰的理解。“机器人”这个词最早出现在二十世纪二十年代。捷克剧作家卡雷尔·恰佩克 (Karel Capek)④Karel Capek,R.U.R.Rossum’s Universal Robots(1920).在他的 《罗萨姆万能机器人公司(R.U.R)》剧本中第一次使用了该词。剧本中 “机器人”是指在工厂里被当作奴隶劳动力的人造人 (artificial humans)(“roboti”这个词在捷克语中被翻译成 “奴隶劳动力”,含有奴隶和苦工的含义)。 “机器人专家”这个术语是由艾萨克·阿莫西在1941年发明出来的,⑤Isaac Asimov,Liar!In ASTOUNDING SCIENCE FICTION(1941)(reprinted in Isaac Asimov,I,ROBOT(1950)).意指专门研究或者发明机器人的人。该词的词源甚至暗含 “设备”的含义,而且这种设备适用于对人类来说特别枯燥、脏污或者危险的工作环境。

那么什么是机器人呢?对绝大多数公众 (包括该领域的大部分法学研究学者)来说,对这个问题的答案总是不可避免地受到他们在电影、主流媒体、甚至文学作品中所见的影响。其实,只有一少部分人见过真正意义上的机器人,⑥看到真正的机器人并准确地描述出它们的能力和局限性的人就更少了。因此他们只能从其见过的描述中勾勒出机器人的样子。⑦或许令人惊讶的是,普通人对于机器人自发的印象中仅带有一点或者几乎没有研究性。尽管基于自身的经验,我们相信一提到机器人大多数人会首先想到科幻机器人,但是我们承认这并不能被可验证的研究来支持。有意思的是,当我们问到什么是机器人的时候,人们通常会参考电影中的例子:Wall-E机器人,R2-D2机器人以及C-3PO机器人是几款热门的选项。年纪大一点的受访者可能会提到终结者或者Johnny-5机器人。影迷们会提到休伊、路易、迪伊 (来自影片 《宇宙静悄悄》)、假玛利亚 (来自影片 《大都会》)、枪手 (来自 《西部世界》)等一系列小众机器人。这都是一些很典型的机器人:它们都是机械装置,都是由人 (或者其他机器人)用机械零部件组装而成,都被用来完成一些特定的枯燥、脏污或危险的工作。同时,它们都被拟人化了或者是易于人格化的。R2-D2机器人不具有人的外形特征,但是它的喜怒哀乐却清晰可见。电影里的机器人就是一种情节工具,且在向其赋予 (或使其欠缺,例如在 《终结者》中)⑧当然,后面探索了这些机器人的人性。电影 《终结者2:审判日》的结尾仍是阿诺德·施瓦辛格在第一部电影里为了拯救人类牺牲自己的过时模型的复制。人类品质时效果最佳。

而那些模糊的情形又是如何呢?机器人哈尔9000(来自影片 《2001太空漫游》)是一款控制大型宇宙飞船的智能电脑。在一定意义上飞船是哈尔的 “身体”,那哈尔是机器人吗?很显然它符合我们认为机器人应有的两个特征:可以移动并能操纵事物。电影 《银翼杀手》里的复制人,《太空堡垒卡拉狄加》里的赛昂人 (Cylons),以及电影 《异形》里的合成人毕肖普 (Bishop),它们是机器人吗?它们有人的外表,而且由有机物质而非金属合成而来。它们符合我们衡量机器人的标准吗?

还有当下热门的无人飞行器或者叫 “无人机”又如何界定呢?它们显然是机器,很难被人格化。而且,它们 (通常在某种程度上)由人类进行远程控制。那么它们究竟是人类的延伸,还是其本身就是某种实体呢?

对这些问题,即使是专业的机器人学家也很难给出一个明确的定义。装配汽车的机械臂、探索深海的遥控潜艇、驰骋天际的太空探测器、通过小型电脑和传感器增强感应的遥控汽车以及人形机器人都可以叫作 “机器人”,而这取决于你问谁。

从本文的目的出发,我们应如何有效地定义 “机器人”?在上述例子中,大部分机器人能够在它们的世界里四处活动,并通过操纵一些事物来影响世界。它们与这个世界互动时十分机智,它们同样出自人类之手。这些特质在我们看来就是机器人的标志。我们提出了以下工作定义:机器人是一种显示生理和心理机构但在生物意义上不存在的结构化系统。也就是说,机器人是一种在其世界四处活动的、可以理性决定应当做什么的制成品,而且是一种机器。值得注意的是,机构的归属是主观的:系统似乎只在对外部观察者具有某种机构时才符合我们的标准。⑨这种机构的外部归属在精神层面与经典的图灵测试类似,当外部观察者试图识别一个对话伙伴时,使用相当于人或者计算机的即时信息传递系统。据说如果一台电脑能够让观察者肯定地把它看做另一个人,那么它就通过了图灵测试。尽管这个测试总是被当做一个智力测试和人工智能测试,但是更准确地说它更像是一种人性测试。另外我们的定义排除了现实世界中不运用任何机构且完全基于软件的人工智能。

我们的定义故意对形成明显机构的机制留有空间。智能系统可由机敏的电脑软件来控制,或可由操作员进行远程操控。虽然在该定义中这两种系统都属于机器人,但它们在立法意义上大不相同,如下章所述。

二、机器人可以做什么

既然我们对机器人有了一个定义,那么接下来讨论机器人当前能做什么。由于我们很多人被电影、原声摘要媒体 (sound-bite media)以及其他一些不可靠的资源所影响,我们对于最先进的机器人长什么样以及它们能做什么知之甚少,目前机器人还没有达到公众在科幻小说中看到的那种水平,但已与其惊人地接近了。

直到最近,世界上大多数 “机器人”(据统计超过一百万)⑩International Federation of Robotics web site,http://www.ifr.org/industrial-robots/statistics/.都是组装汽车、搬运重型零件、或减轻工人负荷的工业自动机。基于本文意图以及上述我们对机器人的定义,这些都不是真正意义上的机器人;他们的确具有生理机构 (physical agency),但缺乏心理机构 (mental agency)。这些系统大多数都是简单地重复已经设置好的动作,从不考虑外部世界在发生什么。例如点焊机器人,即使面前没有汽车底盘它们仍会进行点焊。

但属于我们定义范畴的 “机器人”在今天是真实存在的。当下最常见的就是iRobot公司的鲁姆巴,一款能够自主真空打扫的小型机器人。iRobot公司称在2010年底已有六百多万台鲁姆巴售出。①Transcript of iRobot Q4 2010 Earnings Call,http://seekingalpha.com/article/252090-irobot-ceo-discusses-q4-2010-results-earingscall-transcript.这些小家伙们就是我们定义中的机器人。其兼具生理和心理机构,控制它们的电脑算法很简单,但它们似乎能在某些情境下作出理性决定。在地板上奔走时它们可以轻松避开障碍物,甚至还能逗逗你的猫。纵使在凌乱的工作环境中,仍是完全自主且无需任何人协助。这是一个比想象中更令人印象深刻的成就,尤其是考虑到消费者们仅花费几百美元就可以使用到这些不贵的机器人时。

另外,在全世界范围内,昂贵的机器人正被大量用于军事领域。巡航导弹——一个符合我们定义的机器人,②巡航导弹显然具有生理机构,因为它可以移动。对于外部观察者来说,它也具有心理机构,因为它在低空飞行的时候可以避开地形障碍。虽然这是利用了现代导弹中详细的地图和GPS设备完成的,但是这种机制对我们的定义并不重要。当然,它不能避开地图上没有的障碍,但是它很少会遇到这种障碍;外部观察者也将不会看到这种明显的机构的失败。它已经被美国军方以及其他国家使用很多年。最近,远程遥控的无人机被广泛应用于情报搜集及攻击领域。它们中有许多被我们归为机器人。地面遥控机器人在现代军事领域随处可见,如Packbot机器人 (iRobot公司)和Talon机器人 (Foster-Miller公司)。这些系统可以代替人类士兵处理危险情况:拆弹,在大火中执行侦察行动,向建筑物发起攻击。基于对某遥控机器人先前单一类型的销售数据③iRobot Delivers 3,000th Packbot,ROBOTICS TRENDS,http://www.webcitation.org/5xPANQOLV.的推断,可以合理估计目前全世界大约有一万个这样的系统被应用于军事和民事领域。这些机器人可以在远程控制之下四处移动,通常有一个可以操控物体的手臂和一套能将数据传输给操作员的传感系统。尽管它们完全由人类控制且目前没有自主能力,但对于外部观察者 (人们可能没有意识到有人在幕后操作)而言它们看起来十分聪明。

美国国家航空航天局 (NASA)在将机器人送入太空和其他星球方面已有多年历史。近期例子可能就是火星探测器:精神号和机遇号。它们在2003年被送上火星,尽管自2010年3月起没有收到任何来自精神号的反馈,但机遇号抵达火星表面后经过9年仍然可以操作。这些探测器是混合驱动式或共享自主式系统。它们接收来自人类操作者的高级指令 (如:朝大石头走去),但也要为它们自身的低端行为 (如:躲避障碍)负责。

再如,由Kiva Systems公司设计的自动仓库机器人,目前正帮助人们完成在线零售商的订单,其中包括Zappos和亚马逊这样的大公司 (2012年以7.75亿美元收购了Kiva Systems公司)。④Amazon toBuy Kiva Systems for$775 Million,REUTERS,Mar.19,2012,http://www.reuters.com/article/2012/03/19/us-amazoncomidUSBRE82I11720120319.这些机器人把货架上的商品带至一个人,由该人根据收到的订单选择合适的货物并将其放入装运箱。这些机器人由库存系统协调,并进行自主操作。它们没有机载传感器,而是依赖埋置在工厂地板中的电线确定自身的位置。然而,当其互相避让并根据客户要求重新配置仓库内货物存放位置的时候,它们似乎也有自己的心理机构。

虽然目前对世界上正被使用的机器人尚无一个详尽的清单,但上述例子代表了当今机器人被利用的情况。它们有如下共同点:在机器人自主的情况下,任务是完全限定的,自主性相对较低(如躲避障碍物,而非决定谁是战场敌人)。在某些情况下,它们甚至没有自主性,只是远程操作员身体和知觉的延伸。这在军事环境中起到了作用,其在一定程度上被纳入命令链中,对任何既定行动所负的责任都取决于这个链中的人。然而,由于现实问题是错综复杂的,目前还没有一个能完美运转的自主系统。最后,这些系统中没有一个是与人类直接互动的,除了与操作员。⑤至少他们不与那些关注有关机器人的立法和消费者保护措施的人互动。事实上,人类总是故意与机器人保持距离,这是60多年来工业化的常态。清单中唯一的例外就是鲁姆巴,然而互动的方式无异于与桌子互动。机器人并不会区分人类障碍物与非人类障碍物。

机器人的实际用处太多了。目前机器人在实验室能实现哪些功能呢?谷歌上 “酷炫机器人视频”的热门搜索超过了3100万点击量:机器人跳舞、攀爬、游泳、叠毛巾、取啤酒、向人们提问题、在商场做向导,表演惊险的杂技。视频里还有机器人做蛋糕、曲奇、正宗巴伐利亚式早餐,甚至制作世界地图和模型。功能清单似乎可以一直列下去。这些视频大部分来自学术界或工业界的实验室,而且通常展示一些妙趣横生的先进技术。如,让机器人具备精准控制和适当力度的灵活性。用勺子搅拌蛋糕粉直至恰好稠度且做出来的蛋糕可供食用,就是对这种灵活性的极佳示范。

尽管不能将世界范围内的研究项目进行简单统计,但我们可找出一些共同点。⑥我们在对当下机器人研究资料和机器人商业市场既有工作进行总体评估的基础上,提出了这些新兴的主题。第一,目前很多研究型机器人都是多功能的,并非专为单个任务而设计。例如,Willow Garage公司的PR2机器人⑦http://www.willowgarage.com/pr2/, 2018年10月15日访问。就能完成多种任务。第二,机器人已开始与对其一无所知的人们互动。⑧国家机器人计划是对与大众互动的机器人兴趣与日俱增的典型代表,这是一个由美国国家科学基金会,美国国立卫生研究院,美国国家航空航天局和国家农业部联合机构资助项目。在提议的请求中强调的是 “合成机器人”的发展,即 “在身边工作或者与人合作”(NSF NRI solicitation,http://www.nsf.gov/pubs/2014/nsf14500/nsf14500.htm)。目前的研究关注到了机器人带来的便利,在商场、⑨例如,T.kanda et al,A Communication Robot in a Shopping Mall,26 IEEE TRANSACTIONS ON ROBOTICS 897-913(2010).养老院、⑩J.Broekenset.al.,Assistive Social Robots in Elderly Care,8 GERONTECHNOLOGY 94-1003(2009).机场、①M.Joosse et al.,Short-duration Robot Interaction at an Airport:Challenges from a Social-Psychological Point-of-View,PROCEEDINGS OF THE INTERANTIONAL CONFERENCE ON SOCIAL ROBOTICS(ICSR)WORKSHOP ON ROBOTICS IN PUBLIC SPACES BRISTOL,UK(2013).甚至人行道上的慈善募集处随处可见机器人的身影。②M.Kim et al.,Dona:Urban Donation Motivating Robot,PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON HUMANROBOT INTERACTION,OSAKA,JAPAN(2010).它们不再需要研究员的陪同。而在以前,研究员充当了机器人的看护人、翻译、修理工以及保镖。那些没有机器人使用经验的人现在也能与它们直接接触与合作。若我们想挖掘科技的长期潜力,这些行为是有必要的,但也让我们面临的问题更加复杂。人类不好捉摸且难以取悦,因此相当一部分研究都致力于让机器人优雅而安全地与人类打交道。第三,机器人在处理有关知觉和推理等方面越来越具有自主性。最后,人们越来越关注现实中的机器人,而不只是实验室里的机器人。这就要求我们处理好现实世界所固有的不确定性和不可预测性。

目前,研究型机器人已经开始向现实世界 (或至少向商界)过渡。谷歌拥有一批自动驾驶汽车,这些汽车已在美国以零事故记录驾驶15万英里以上;治疗助手机器人因其实用性强迅速在全球得到推广;③Paro therapeutic robot,http://www.parorobots.com/.机器人在残障家庭被当做家庭助手。④Robots for Humanity Project,http://www.willowgarage.com/blog/2011/07/13/robots-humanity.未来十年,会有更多的机器人走进我们的日常生活。到2024年,一部分人或许会拥有私人机器人,而这将会引发一系列立法挑战。

随着机器人多功能化,我们很难想象他们将会被如何使用,也很难为其创设出完备的立法和消费者保护措施。在极端情况下 (在很远的未来),它们能做所有人类能做的事情。此时就会使机器人可以做什么与机器人应当被用来做什么之间的界限变得模糊。那么如何以立法方式建立这样的制度呢?以往没有过像机器人这样的设备,这意味着我们必须为机器人想出一种合适的类比和隐喻,而这的确是一个棘手的问题。

随着机器人逐渐走进我们的公共生活和私人空间,与其相关的保护方案必须比目前针对研究型机器人所使用的保护方案更加全面和有力。多数研究型机器人都有很多的警告和免责声明,并依赖于用户 (经过专业训练)不做任何愚蠢的事情。而这对公众来说显然是不切实际的。毕竟公众没有经过任何训练,也不能依赖他们作出适当的评估和注意。

随着机器人的自主化,当它出错时,责任的归属问题也是一个难题。我们应将其归责于制造商、程序员、用户 (发出错误指令的人)、还是他们的某种组合呢?而这个问题又会在那种时而自主时而被远程操控的系统中变得更为复杂。因为这又牵扯到远程操作员的问题,他们操作机器人时,虽然可能持有善意,但感官信息有限。

随着机器人进入现实世界,一切变得更加难以预料。坎坷的地面,意想不到的障碍,小孩子以及其他因素使得安全操作机器人变得十分困难。同时,设计出一种既全面又不过度限制系统用途的制度也将是立法所要面临的极大挑战。

三、机器人法和网络法

机器人将会被大量应用,同时也给法律系统带来巨大的压力。如:侵权、合同中消费者的保护、隐私、以及宪法等方面。尽管目前有少数学者已经开始系统地思考法律和机器人的问题,但对二者交叉领域的学术研究仍然较少。⑤E.g.,Ian Kerr.Bots,Babes,and Californication of Commerce,1 UNIV.OTTAWA L.&TECH.J.285(2014);M.Ryan Calo,Open Robotics,70 MD.L.REV.571(2011);M.Ryan Calo,Robots and Privacy,in ROBOT ETHICS:THE ETHICAL AND SOCIAL,IMPLICATIONS OF ROBOTICS,(Patrick Lin et al.,eds.)(2014).虽然我们开始看到第一批机器人专门法的制定,但这样的法律还是太少,不足以让人眼前一亮。2011年6月,内华达州成为第一个为自动驾驶汽车立法的州。⑥Nev.Rev.Stat.Ch.482A(effective March 1,2012),available at http://www.leg.state.nv.us/Session/76th2011/Bills/AB/AB511_EN.pdf.该法律授予内华达州交通运输部以规则制定权,来规范有关测试、安全性能以及最终 “自动驾驶汽车”上路的问题。根据该法,自动驾驶汽车是指 “使用人工智能、传感器以及全球定位系统且没有任何人类操作员干预的机动车”。⑦Nev.Rev.Stat.Ch.428A.020.而 “人工智能”是指 “通过计算机以及相关设备使机器能够复制或模仿人类行为的技术。”⑧Nev.Rev.Stat.Ch.428A.030.该法律是与汽车制造商、谷歌、保险公司、以及消费者团体协商的产物,现已被普遍接受并于2012年2月12日颁布实施。⑨Nev.Adopted Reg.Regulation R081-11,LCB File No.R084-11,Effective March 1,2012,available at http://www.leg.state.nv.us/register/RegsReviewed/$R084-11_ADOPTED.pdf.

这样的学术和立法干预仍是孤立的。一个对将会发生机器人革命都普遍缺乏意识的社会,更别提会对法律如何规制甚至认识机器人有更具体的理解了。这的确是一个问题,因为机器人带来的责任的不确定性或将阻碍创新的发展以及广大消费者对此类实用且有潜力的变革性技术的普遍接受程度。究竟应该怎样看待这个问题呢?我们认为法律和机器人项目应借鉴其他部门法的经验。从它们几十年来监管新技术取得的成就和面临的困境中吸取教训。⑩See sources cited supra note 3.网络法以及其他受技术影响的法律领域的经验揭示了新技术上有关法律应用问题的一个重要教训——当涉及新技术时,对新技术准确运用隐喻尤为重要。如何规范机器人将取决于用来认识它的隐喻是什么。对不同的机器人有多种不同的隐喻,并且一个正确的隐喻将会对机器人法将要面临的成功和失败带来极其重要的影响。

二十世纪一个经典的案例就说明了对新技术运用恰当隐喻的重要性。这个案例主要涉及 《第四修正案》如何理解政府窃听的性质。根据 《第四修正案》的规定,政府部门在搜查公民的 “人身、房屋、文件和财产”之前必须取得搜查令,①U.S.Const.amend.IV.在1928年的Olmstead诉美国一案中,②277 U.S.438,466(1928).最高法院被要求明确警方未经授权的电话窃听是否构成对Olmstead的 “搜查”。而该 “搜查”本应该以取得搜查令为前提。首席大法官塔夫脱采取了一个物理概念来解释 “搜查”而非一种对新型电子技术的广义理解。法庭也据此主张窃听既不需要在物理意义上侵入房间,也不需要扣押 “有形物质财产”。因此,认定第四修正案不适用于窃听。

相比之下,布兰代斯法官则从更为开阔的角度来看待这个问题。他认为 《第四修正案》保护措施的应用不以新技术的物理入侵为前提。布兰代斯法官认为现有法律确立了 《第四修正案》保障“公民家庭和隐私的神圣不可侵犯性”③Id.at 465(Brandeis,J.,dissenting).的原则。然而,他还警告道:“这些保护措施正在被一些新兴技术所威胁,比如电子窃听技术。这种技术使一种更微妙、影响更深远的隐私入侵手段得以实现……对政府来说各种发明已经使这种现象成为可能。他们通过一种比伸手到架子上去拿更为便捷的方法在法庭上获取法官们合议的机密信息。”④Id.at 473-74(Brandies,J.,dissenting).布兰代斯法官还表示,未来科技的发展将会给政府带来比窃听更具侵入性和隐蔽性的监视方式。他还警告道:“随着技术的不断发展,政府可以在不取出秘密箱中文件的情况下将这些文件复印下来,并可用这种方式将家中最私密的情况向陪审团公开。思想和相关科技的进步会带来更多探索未被表达出来的信念、想法及情感的方式。”⑤Id.at 474(Brandeis,J.,dissenting).布兰代斯承认法院的理解其实是对 《第四修正案》文本的一种直观解读,他认为这种解读是存在严重缺陷的,这是在坚持了一种狭隘且陈旧的观点,即 《第四修正案》仅保护有形财产。因而这种理解并没有抓住新技术带来的威胁的本质。由于没能充分理解新技术的本质——仅用一种专注于 “侵犯”的物理隐喻而非植根于隐私意义上的更广泛的理解——法院的立场在面对新技术时不能保护好值得保护的重要价值。

随后的搜查及扣押法的程序证明了布兰代斯法官的看法,即用恰当的隐喻来理解窃听技术。该案判决后不久,国会就颁布了 《联邦通讯法》,其中第605条确立了非法窃听罪。1937年,最高法院认为联邦探员不能在法庭上将通过非法窃听获取的信息作为证据使用。⑥Nardonev.United States,302 U.S.379(1937).1967年Katz诉美国案中,最高法院最终采取了布兰代斯法官的立场,将 《第四修正案》应用于窃听。⑦389 U.S.347(1967).这就是一个典型的案例。本案中 《第四修正案》不仅局限于物理意义上的入侵,它同时也保护人身,而不只是某个场所不受非法搜查和扣押。⑧Id.at 351.后来,一个著名的同类案件成为了构筑当代 《第四修正案》的蓝图,在该案中哈兰法官认为 《第四修正案》的适用应当 “采取双重要求。第一,个人对隐私具有真实的 (主观的)期望。第二,这种期望能够被社会视为 ‘合理’”。⑨Id.at 361(Harlan,J.,concurring).

Olmstesd案和Katz案意义重大。首先,它清晰地呈现了对用于人类活动的新技术持不同理解会带来截然不同的法律后果。同时对新兴技术的误解 (无论是关于其如何运作还是其威胁到何种价值观)将会产生恶性影响。审理Olmstesd案的法院没有认识到不受监管的政府窃听给隐私带来的威胁。该案的判决坚持了陈旧的无证搜查的物理隐喻。相比之下,布兰代斯法官则更好地理解了新技术给既有价值观带来的威胁。他并不是在问新的侦查技术是否构成一种物理入侵,而是在问这是否属于国家对广义上的公民隐私的威胁。他问了一个更好的有关新技术的问题,并在保留法律原有的规范性价值基础上调整法律以适应变化的技术环境,从而最终诞生出更好的法律制度成果。

有趣的是,由Olmstesd案和Katz案等一系列案件引发的 《第四修正案》有关非法入侵/隐私的问题至今仍至关重要。在2012年Jones案的判决中,最高法院裁定在未被下达搜查令的犯罪车辆上安装GPS应答器是违反 《第四修正案》的。虽然整个法庭都一致认为这样做的确违反 《第四修正案》,但法官们就本案为何违反产生了严重分歧。斯卡利亚等多数法官认为基于陈旧入侵理论 (源于Olmstead案)的规定是无效的,而阿利托和其他三位法官则更愿意采取一个更为广泛的隐私权辩护理由以防止非侵入性的GPS监控。索托马约尔法官被夹在两个阵营中间。⑩United States v.Jones,132S.Ct.945(2012).就像Olmstead案和Katz案那样,Jones案揭示了我们用来看待技术和法律的隐喻至关重要,它可以对法律限制和允许哪些新做法产生重要影响。

四、隐喻的重要性

这个例子揭示了隐喻在法律遭遇新技术时的重要性。当我们设计或者实施新的技术时,必须对我们用来理解这些技术的隐喻持谨慎态度。正如上述案例所示,隐喻在不同层级上发挥着作用。在概念设计层级上,前沿技术的设计者们通常可以凭借其他事物理解问题所在及其解决之道。隐喻选择 (不论隐式或显式)是将一项技术设计为一个既有事物的新版本,这对研究命题的型构和开展均有实质影响,从而扩大或者限缩可被测试或策划的可能结果的范围。例如,一项视频流服务可能将自身定义为影院、书店、图书馆或者电视网。这些理解形塑了这些技术被设计的方式以及工程师们所需预测的潜在问题的可能种类。就这点而言,我们可以思考iTunes这一类下载服务软件和Netflix或Spotify之类串流服务软件的区别。iTunes被设计成一个具有严格数字版权管理保护措施的图书馆。Netflix如同视频商店一样允许用户短期 “租用”视频。Spotify则像无线电台一样,在收取一定费用后向用户不限量开放音乐资源。相似地,当一项技术走出实验室进入外部社会时,用户和法律制度都将尝试使用隐喻理解该技术。以数字音乐为例,在混合磁带的传统下,很多早期用户用mp3音乐文件免费分享数字音乐。相反,版权持有人 (和法律系统)日益将这种分享视为偷窃,类似于版权法上的 “盗版”且带有该术语所需的隐喻装备。在机器人领域,①See,e.g.,A,Michael Froomkin,The Metaphor is the Key:Cryptography,the Clipper Chip,and the Constitution,143 U.PENN.L.REV.709(1995);Dan Hunter,Reason is too Large:Analogy and Precedent in Law,50 Emory L.J.1197(2001);Mark A.Lemley,Place and Cyberspace,91 CAL.L.REV.521(200).尽管本文并非首次论证隐喻的重要性,但选择适当的隐喻尤其重要。我们如何理解和定义机器人,将在机器人的定义、设计、法律和用户等不同层级产生切实影响。在定义阶段,我们怎么思考机器人 (以及它们的人类操作者)将影响对它们的设计。要让机器人成为虚拟管家、虚拟宠物、虚拟孩子吗?这些问题的回答,不仅影响它们在解决特定问题时如何被配置,而且影响其物理呈现。管家和孩子往往不具有进攻能力;而某些宠物则反之。孩子和宠物相较于管家自主性偏低,而孩子和管家 (而非宠物)具有人性。管家、孩子和宠物这个清单也是不可穷尽的;我们可以把机器人设想成个人电脑或带轮子的游戏系统,或者女管家、室友、性伴侣甚至配偶。

在法律层面,隐喻也同样重要。法律人自进入法学院的第一天就被训练 “像律师一样思考”:其精髓是从一个案例到另一个案例进行类推的法律论证活动。②E.g.KARL LLEWELLYN,THE BRAMBLE BUSH(1930);FREDERICK SCHAUER,THINKING LIKE A LAWYER(2009).特别是在科技不断更新的背景下,法律总是将新技术仅认定为既有技术的新形式。像我们在前面看到的,窃听装置一开始被类比为物理搜查,直到后来才被类比为更广泛的隐私侵犯。网站被认为是个人财产 (而不是诸如未被主张的领地、商标、电话号码或其他某种全新的东西),并且经受了反域名抢注制度。③The Anticybersquatting Consumer Protection Act(ACPA),15 U.S.C.1125(d)(1999).在这一制度下,公司拥有的商标类似于统一资源定位符 (Universal Resource Locators,URLs),谁主张,谁就可以获得,除非他们可以证明抢注者恶意淡化了商标。电子信息则被类比为 “e-mail(其内容在既有法律下获得的保护相对较少)”,并且加大保护措施以防窥探,尽管基础的分组交换技术 (underlying packetswitchingtechnology)被认为更接近于明信片。对于自主机器人而言,隐喻的重要性不仅涵盖法律体系如何理解 (并调整)机器人本身,还包括法律体系如何理解 (并调整)半自主机器人的人类操作者。在现有技术能力不能生产全自主机器人的背景下,这些半自主机器人将首先进入市场,弥补空白。

最后,在消费者层面,隐喻也有其重要性。很多研究已经表明,根据相关技术的呈现方式和市场化方式的不同,人们的反应也有所不同。研究表明,面对形体上拟人化 (或非拟人化)、具有(或没有)如人类般可视眼睛、或以人类声音说话 (而非可读文本)的技术,人们的反应是不一样的。这些不同的反应似乎是天性使然,但即便有社会建构在运行,类人技术与非类人技术的明显差异仍将对消费者如何应对、接受和信任家中机器人产生真正的影响。④See M.Ryan Calo,Against Notice Skepticism in Privacy(And Elsewhere),87 NOTRE DAME L.REV.1027(2013);M.Ryan Calo,People Can Be So Fake:A New Dimension to Privacy and Technology Scholarship,114 PEEN ST.L.REV.809,849(2010)(collecting such studies).

隐喻可以限制思维,有时以一种不必要的限制方式 (如果他们依赖已经不复适用的陈旧社会规范或者技术限制),有时以某种体现日积月累的智慧成果的方式。我们在法律和机器人项目中的目标之一,就是发现一个更为宏观的图景——隐喻呈现人们如何理解并应对机器人的运作方式——并通过一种扬长避短的方式来设计机器人。

五、人形机器人 (android)陷阱

我们要警惕具有诱惑力但却危险的隐喻。一提到机器人,我们总是习惯性地把它们想象成人的形象;如星球大战里的斯瑞皮欧 (C-3PO)。即便机器人并未被赋予人类的形象,我们也很难不把人类的特征、意志和动机加诸到机器人身上。即便在实验室,我们也把相机描述成 “眼睛”,提到机器人 “畏惧”障碍,认为它们需要 “思考”如何前进。但当我们尝试为机器人立法时,这种将人类特征投射到机器人身上的做法是危险的。机器人现在是,并仍将是工具。诚然,它们是 (可以)运用复杂软件的高级工具,但本质上无异于一把锤子、一台电钻、一个文字处理软件、一个网络浏览器或者你车里的刹车系统。随着系统自主性的增加,越来越难以型塑输入 (你的命令)与输出(机器人行为)之间的联系,但是,这一联系存在并且确定无疑。内容相同的系列输入每次都会产生内容相同的系列输出。但问题是机器人永远无法看到两次完全相同的输入。拿相机来说,光影的微妙变化以及相机自身的测算错误导致从来没有两个相机影像是相同的。人类或无法发现不同,但是机器人的软件可以。

问题是,这种在相似背景下的不同的行为可以被解释为 “自由意志”或者机器人自身的机构使然。尽管这种心理机构是我们对机器人定义的一部分,但弄清是什么导致了这种机构才是至关重要的。普通人或许不知道或不关心,但当我们进行立法设计时必须常怀心中。否则,将导致立法设计流于机器人的外在形式,不能触及其内在功能。这将是致命的错误。

举例而言,如果我们陷入过度地将人形机器人拟人化的陷阱,就会认为,对于机器人的行为,设计者将会比一个自动化的机器人 (robotic robot)负更少的责任。而它所拥有的自由意志的形式非常有限,我们又怎能期待设计者涵盖所有的可能性呢?另一方面,我们支持汽车的制造商负较高的责任。如果汽车由于设计缺陷在行驶时突然抛锚,这是制造商的过错。汽车只是一个机械装置 (机器),设计者应该预料到在特定情况下它的表现。⑤例如,我们目前正在目睹第一个机器人过失致死案件,这个人的女儿被一个粗心的外科机器人杀害。http://robotland.Blogspot.com/2012/04/did-da-vinci-robot-kill-24-year-old.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A.

在这些设想下,如果我们驾驶汽车行驶在高速公路上,并且在转动方向盘时它没有响应,毫无疑问这是制造商的错误。若一个人形机器人在驾驶汽车,并且当其进行转弯时是它的 “手”在操控方向盘,那么我们可以主张机器人制造者负责吗?也许不能。这意味着,对于汽车异常脱离公路这一相同结果的立法调整是不同的,而其根据在于谁或者什么在驾驶汽车。

当我们将这种观念和论证技术运用到已经嵌入汽车擎罩下的机器盒子里的人形机器人时,就会出现问题。现在,由于该技术是汽车的组成部分,立法将其作为汽车加以调整。而将该技术安置在人型机器人之中时,立法却将它作为人型机器人加以调整。我们已经对 (机器人的不同)形式进行了立法调整,但未关注到机器人的功能。相同的传感器和相同的软件会产生相同的结果,但是从法律角度,我们却将其分别对待。⑥这将会在机械的安排上产生细微的差别,人形机器人将会用它们的手臂来转动方向盘,而车载系统可能会使用电动机。然而我们认为这种差异与我们的论点不相关。

当然,这有些荒诞。我们怎能如此轻易地被误导呢?尽管我们用拟人化的语言来描述并思考它,但人形机器人显然是机器。我们期待人们 (甚至是不具有技术背景的人士)认识到这一事实,并且设计出妥适的立法调整它。或者我们可以这样做吗?一项研究表明,人们将人形机器人更多地认定为人而非机器,⑦Peter H.Kahn,et al.,Do People Hold a Humanoid Robot Morally Accountable for the Human It Causes?PROCEEDINGS OF THE 7TH ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTION,(2012).实验中,人形机器人剥夺了人类受试者20美元的酬劳,65%的受试者认为应向人形机器人进行道德问责。但这种情况不会发生在自动售货机故障的时候。⑧或者至少基本上不经常发生。它们仅是普通机器,是可以发生故障的。而人形机器人有所不同甚至很特殊,应适用不同的标准。尽管这个试验并未直接支持我们的上述示例,但它的确表明人类将人形机器人人格化、归因和设计的做法是不合理的。

我们必须避免人形机器人陷阱。机器人仅是机器,再复杂的机器人也不例外。未来,它们也不可能超越机器的范畴,我们应依此做出相应的立法。陷入 (机器人)人格化的陷阱,将导致我们陷入自相矛盾的处境,就像我们上文谈及的例子。

但是,这里有一个分界线。不仅是立法者,法律适用的社会公众也将受人形机器人陷阱的影响。他们也有 (可感知的)机器人人格化的倾向。但仅因为机动车驾驶员对人形机器人驾驶汽车与对自动驾驶汽车的反映有所不同,我们就必须为人形机器人驾驶汽车起草不同的法律吗?达令(Darling)主张赋予特定种类机器人 (虽然它们是机器)有限的法律权利,以作为保护我们人类社会价值观的一种机制。⑨Kate Darling,Extending Legal Rights to Social Robots,WE ROBOT CONFERENCE(2012).若我们主张机器人仅是机器,为什么没有为烤箱、洗碗机和电动螺丝刀争取法律权利的呼声呢?达令的观点是:因为我们人格化了这些社会机器人,⑩事实上,社会机器人被有意地设计来唤起我们强烈的情感反应,放大我们对人格化的自然倾向。那么法律即应赋予其比作为一般机器更多的权利。我们完全赞同这种观点。相反地,这种观点洞悉普通大众的偏见以及他们陷入人形机器人陷阱的倾向。这一点或许细微但我们仍相信两者还是具有如下区别:我们本不应该仅因为机器人看起来像人就为之单独立法 (陷入人形机器人陷阱),但是,考虑到一般社会大众与这些机器人接触时,在某些特定环境下将遭受人形机器人陷阱之苦,我们即应该为此专门立法,如此我们才能更好地保护人类的社会价值观。实际上,这很可能意味着我们应该将那些社会公众不会过分人格化的机器人 (当有必要立法时)立法为机器,并在将来明确地将人形机器人陷阱纳入考虑的范围。在现实社会中,这两种情况的相对频率 (relative frequehcy)仍然是一个开放的问题,有待继续研究。

六、并发症:解围之神

对于明显自主化或者远程遥控的系统而言,明白如何理解和类比它们已相当困难。当我们开始思考新一代的共享自主式系统时,问题将变得更为困难。在这些系统中,人类操作者 (通常在远处)与机器人里的自主软件合作操控这一系统。当机器人既非完全自主也非完全依赖远程操控时,外界观察者很难判断系统在特定的时间究竟处于哪一种模式 (完全自主或者远程控制)。这使得用来理解这些系统的隐喻选择变得复杂。我们必须谨慎地选择对操作者角色的隐喻,他们实际上仅拥有这些系统的部分控制权。①远程操作员不太可能直接控制一个复杂机器人的所有关节,因为难度实在太大。相反,他们会给出更高层次的指令,比如选择一个对象来抓取,并依靠低级的自主软件来执行这些命令。因此,尽管他们能够完全操控机器人能做什么,但是却控制不了机器人是如何去做这些事的。

机器人对其他领域的专家来说 (比如管道工)是一个入口或化身,还是说人类机器人系统本身就是位 “专家”?当操控者发布命令,而机器人内部的自主软件并未有效执行时,法律责任应当如何分配?如果不知道家用机器人是否被某人远程操控时,又会产生哪些隐私问题呢?我们如何来提供有效的隐私隐喻以及用于保护机器人所有者和远程操作员的措施呢?

七、结论与最后的思考

本文,我们提出了关于法律界应该如何思考机器人的四项基本主张。它们彼此联系,如果要为即将到来的机器人时代设计有效的立法及消费者保护措施,我们必须全盘考虑这些主张以及它们之间的联系。

第一, 要仔细思考我们对机器人的定义。尽管存在大众媒体对 “传统”机器人所做描述的影响,但这种定义因过于狭窄而不付实用。机器人和机器人技术会以其他形式悄然混入我们的生活。对此,立法必须统一,且专注机器人系统的功能而非形式。

第二, 要理解现阶段机器人的技术能力,无论是在现实生活中的还是在实验室里的。尽管绝大多数机器人较它们科幻小说中的表兄弟们差的很远,但许多研究型机器人确实可以做到令人惊奇的事情并且展现出非凡的智力。为创设有效的立法,我们必须清楚机器人目前的水平,以及在将来它们都不能做到的事情。②当然,永远是一段很长的时间,我们采用了 “我死后很久”的实用主义定义。例如机器人将 “永远”(根据我们有效的定义)不会在未经允许的前提下读取人类的想法。我们在被迫玩一个概率游戏,很难断定什么是不可能的。但对其中有用的知识及其缺陷的有效认知,使我们能够做出高概率的预测。这些预测使人类可以将自己 (有限的)的努力聚焦于机器人系统的立法以及未来几年可能发生的问题。

第三, 我们应当汲取网络法的丰富经验,关注其如何向现有的技术和立法适用类比,特别是网络法的成败经验。这将帮助我们在选择合适调整工具的同时,了解我们为机器人和机器人技术所做隐喻和类比的选择。

最后,我们应不惜一切代价避免人形机器人陷阱。并非所有机器人都是人形的,以高度人格化的方式构造我们的类比是危险的。即便尽力去避免,但仍阻挡不了我们对机器人能力做出误判,并认为他们不仅仅只是机器。反过来,这将导致我们运用不恰当的类比,并且设计出糟糕的立法。

机器人正向我们走来,而且来势汹汹。我们要做好充分的准备,并设计出有效的制度和消费者保护措施以迎接它们的到来。我们相信只有理解技术,汲取经验,并且避免那些对新金属霸主迷惑性的人格化陷阱,才能实现这一目的。

猜你喜欢
隐喻机器人法律
法律解释与自然法
成长是主动选择并负责:《摆渡人》中的隐喻给我们的启示
《活的隐喻》
让人死亡的法律
“互助献血”质疑声背后的法律困惑
机器人来帮你
认识机器人
机器人来啦
对《象的失踪》中隐喻的解读
让法律做主