人工智能的法律地位研究

2019-09-10 18:59陈奇琪吴应燕郭红周海燕
锦绣·下旬刊 2019年12期
关键词:法律地位风险控制人工智能

陈奇琪 吴应燕 郭红 周海燕

摘 要:人工智能潜在的风险正在日益显现。短期内,侵权责任分配问题,著作权保护问题亟待解决;长期来看,超级人工智能系统可能会给人类带来不可控的风险。针对短期担忧,本文从人工智能本身、其存在的现实意义以及社会认同度三个角度论证赋予人工智能实体以法律客体地位的合理性,进而用现行法律加以规范。为了合理规避风险,笔者从加强对设计者的伦理规范方面提出了建议。

关键词:人工智能;法律地位;风险控制

一、问题的提出

从Alpha-Go和柯洁的世纪围棋大战,到机器人索菲亚的出现,人工智能正以前所未有的速度和广度,渗透、甚至颠覆、重塑人类的各个领域,成为时下最炙手可热的话题。人工智能的确为人类带来了诸多便利,但也带来了不容忽视的问题。具体而言:

(一)侵权问题

2016年,机器人“小胖”伤人事件引发热议;2018年,优步的一辆自动驾驶汽车撞上了一名行人并导致其死亡,成为全球首例无人驾驶汽车致人死亡的事故。上述案例表明,人工智能产品本身虽然经过安全测试及认证,但是一旦程序出错或操作不当,其破坏力是巨大的。由此产生的侵权责任如何界定,是对现有侵权责任制度的挑战。

(二)人工智能成果的著作权保护问题

《阳光失了玻璃窗》是人工智能机器人——微软小冰出版的一本诗集。除了文学领域,在电影、音乐领域,人工智能的产物都曾让人大跌眼镜,似乎要把人类拉下创作神坛。在这种背景下,学者们开始讨论人工智能完成的内容是否应当受到著作权法保护的问题。有人认为现有的著作权制度无法解决人工智能成果产生的著作权问题;也有人认为,人工智能生成内容的过程是计算,产生的内容不是“作品”,不应获得著作权保护[1]。未来,如果法律制度不对人工智能的创造物加以调整,随着大量人工智能创造物的出现,可能会导致现有秩序的失衡和混乱。

二、人工智能的法律地位

人工智能的兴起给社会带来的冲击不限于上述问题,然而,不论是著作权保护问题还是侵权责任的界定问题,均须以对人工智能法律地位的确定为前提。法律地位决定着其“权利”如何被保护以及责任如何归属。笔者认为,在法律范畴人工智能应被置于客体地位,具体原因如下:

(一)人工智能不具备理性能力

成为法律主体意味着拥有法律人格。我们现代法律上人格的内涵来源于以康德为代表的德国古典哲学。康德哲学认为,人格具有理性与自由的伦理性意义。因此,具备这种理性能力与自由也就成为了人工智能具备法律主体地位的必要条件[2]。如何理解这种理性与自由呢?我们应当承认的是,人类正如实体世界之内的其他同类一般受到因果的影响,例如,人们生病,就会想恢复健康,人们饥饿,就会想填饱肚子,但是,人类具备意志力,而这种意志力是自由的,即使我们很饿,我们仍可否定填饱肚子的欲望,如果我们不自由的话,就无法否定我们的行动倾向。相比而言,人工智能依靠人类为其编制的程序来运作,它仅仅有做这件事的能力,而没有不做这件事的自由。它可以基于人类为其设定的程序进行深度学习,但它并不具有理性能力和自由。

(二)与法人概念之比较

纵观人类社会历史的发展,从原始社会、奴隶社会,封建社会到现代社会,法律人格经历了从“人可非人”到“非人可人”的演变历程[3]。法人概念的出现便是一个例证。人工智能与法人一样同属“非人”范畴,是否赋予人工智能法律主体地位可以与“法人”概念进行比较。赋予非自然人之法律人格,其价值在于解决非自然人参加法律关系时的人格和能力问题[4]。相较而言,人工智能虽然在某些领域能够超越并取代人类的工作,但即使赋予其法律人格,它也不能像法人一样独立地行使权利并承担义务。因为从目前来看,人工智能无法独立承担其行为后果。考虑到责任承担方式,无论是民法、刑法、行政法等实体法的规则,还是程序法相应的强制与执行措施,对人工智能来说都不具备实质性意义。

(三)社会认同度

赋予一个客观存在的事物以何种社会身份,除了取决于其自身的本质特征,还取决于能否得到社会上的其他群体的认同。在古罗马城邦时期,奴隸制盛行,被贴上“奴隶”标签的人在当时的社会社会中不能被称为“人”。这反映了社会认同对一个事物社会地位的重要作用。基于此,本团队以西南某大学学生为总体调查对象,采取抽样调查的方式,发放了159份问卷,调查大学生对人工智能的社会认同度。本文选取了比较有代表性的题目进行分析说明。从调查结果中看出,目前,大部分同学未从心底里将人工智能与其自身置于同等地位,例如:56.6%的同学认为人类没有必要赋予每个机器人独立身份,只有14%的同学表示能接受和机器人结婚,且只有6%的同学认为人工智能实体应该被赋予法律主体地位。

三、人工智能的风险防范

目前,人工智能的客体地位意味着我们不需要为其单独制定一套法律程序,而是进一步明确责任承担机制,在知识产权领域明确权利归属。但必须指出的是,随着人工智能不断地“智能化”,强人工智能系统的出现也许只是时间问题。霍金曾警告称如果智能机器缺乏监管,人类将迎来一个黑暗的未来。法律作为维护人类社会秩序的工具,应当具有敏锐性和前瞻性来面对此种风险。具体而言,法律应当规范设计者。只有程序的设计者能对机器人行为机制产生直接影响。我们应该树立风险防范意识,加强对程序设计者的伦理规范,实现对AI的风险控制。

四、结语

目前的人工智能虽然只是在特定功能领域超越了人类,但我们仍然要理性对待人工智能的兴起,积极应对人工智能带来的挑战,在研发过程中提高风险意识,避免智能爆发的出现。

参考文献

[1]王迁.论人工智能生成的内容在著作权法中的定性[J].法律科学(西北政法大学学报),2017,35(05):148-155.

[2]沈建铭.论人工智能实体的法律主体资格[D].华中师范大学,2017.

[3]徐文.反思与优化:人工智能时代法律人格赋予标准论[J].西南民族大学学报(人文社科版),2018,39(07):100-110.

[4]史际春,胡丽文.论法人[J].法学家,2018(03).

作者简介

陈奇琪(1997—),女,蒙古族,内蒙古兴安人,本科,研究方向:法学。

基金项目

西南科技大学大学生创新基金项目精准资助专项资助,项目编号JZ19-009。

猜你喜欢
法律地位风险控制人工智能
2019:人工智能
人工智能与就业
数读人工智能
完善我国现行合伙制度的构想
从“成路15轮”看保险经纪人的法律地位和义务
论间接义务
论增强企业经营管理的风险意识
医院财务管理风险及改进措施分析
下一幕,人工智能!