特殊物格视角下人工智能法律主体资格的法理证成与规则展开

2023-01-05 12:43黄绍敏
中阿科技论坛(中英文) 2022年12期
关键词:主体资格法人意志

黄绍敏

(广西大学法学院,广西 南宁 230004)

2016年3月,在同世界著名围棋选手李世石的对局中,阿尔法狗(AlphaGo)以4:1取胜,成为第一个战胜围棋世界冠军的机器人。这是继1997年IBM深蓝战胜卡斯帕罗夫后,人类在人工智能领域取得的又一个里程碑式胜利。人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的技术科学。人工智能是计算机科学的一个分支,旨在了解智能的实质,并生产出新的能与人类智能相似的方式作出反应的智能机器。其研究领域包括智能机器人、语言识别、图像识别、自然语言处理、问题解决和演绎推理、学习和归纳过程、知识表征和专家系统等。目前,人工智能已经广泛应用于自动驾驶汽车、医疗辅助等领域,直接为普通人的日常生活而服务。然而,人工智能给人类带来便利的同时,也存在着风险,如果这种潜在风险不加以管控,将会给人类带来灾难性后果。因此,人工智能法律主体资格的法理证成以及相关法律规制,已成为当前无法回避的课题。具体而言,明确人工智能的法律地位是进行法律规制的前提。本文通过参考自然人与法人的赋权逻辑,对人工智能法律主体资格进行了否定性证成,以构建特殊物格视野下的规制路径,以期对人工智能法律规制问题研究有所裨益。

1 人工智能法律主体适格的法理论争

人工智能能否被赋予法律主体资格是学界长久以来争论的焦点,并由此衍生出“肯定说”“否定说”“折中说”等派别。事实上,对人工智能法律主体资格赋权的不同态度反映着“人类中心主义”在面对新生事物的疑虑与恐惧,也是对我国现行法律主体资格赋权逻辑的一次全面检视。基于此,有必要先梳理学界对人工智能法律主体资格的争议现状,解读不同派别学者的论证内容,总结论争焦点并进行剖析。

1.1 肯定说

持肯定说的学者认为,随着人工智能技术的成熟,应赋予人工智能法律主体资格以解决社会矛盾和纠纷,让人工智能更好地服务于人类。例如,郭少飞(2018)认为,人工智能具有自主性和主动性特征,并非完全受主体支配,因此在法律上应赋予其“电子人”地位[1]。杨清望、张磊(2018)则主张涉及人工智能的法律纠纷,要从人类权利优先的立场出发,运用法律拟制的立法技术赋予人工智能独立的法律人格[2]。至于赋予人工智能法律主体资格引发人们对其风险的担忧,徐慧丽(2020)认为只要对其进行合理设计,并完善人工智能的伦理规范,就可以避免人工智能给社会带来的危险[3]。也有学者从反面论证,拒绝承认人工智能成为法律主体不仅会阻碍人工智能的发展,也会造成法律秩序的混乱[4]。此外,国际上已有赋予人工智能法律主体资格的先例,2017年沙特阿拉伯赋予“索菲亚”高级智能机器人本国国籍,确认其公民地位[5]。不难发现,持肯定说的学者对人工智能尤其是强人工智能抱有极大的期望,认为其将拥有类似自然人的意志、感情、思考等类人化特征,赋予其法律主体资格正当其时。

1.2 否定说

持否定说的学者认为,人工智能不具备自由意志、道德感情等人类固有特征,人工智能只能是法律客体,不具备成为法律主体的条件。例如,刘洪华(2019)认为当前的人工智能并不具有理性意识,不能赋予其法律主体资格,即拟制法律人格对社会问题的解决没有现实意义[6]。冯洁(2019)主张从法理论的角度来看,法律上的“人”一方面应当拥有享有权利和履行义务的法律资格,另一方面应该事实上具备享有权利和履行义务的能力,若无法满足这两个条件,则不能享有法律主体地位[7]。皮勇(2018)认为人工智能不具有独立的主体性,不在现行法律所规制范围内,赋予其法律主体地位极易与现有法律体系产生“排异反应”[8]。同时有学者指出,若承认人工智能的法律主体地位,人类将承担不必要的风险,甚至可能会威胁到人类的生存[9]。现有法律坚持“人类中心主义”立法理念,陈嘉敏、朱健(2020)指出,法律调整的对象是人,并没有为人工智能成为法律主体留有余地[10]。

1.3 折中说

持折中说的学者既不肯定也不否定人工智能法律主体资格的地位,而是认为其处在一种“中间状态”,即有限人格。人工智能具有一定的自主控制能力,可赋予其一定范围内的法律主体资格,即有限的法律人格,但由于人工智能行为能力有限,应适用特殊的法律规范[11]。司晓、曹建峰(2017)从利益平衡视角,提出赋予人工智能法律主体地位只是解决问题的一种方式,实现法律利益的平衡才是根本目的[12]。质言之,人工智能是处在人与物之间的一种特殊存在,根据其智能化程度的强弱区分是否具有法律主体资格,弱人工智能属于一般客体,而强人工智能则应该赋予其有限人格,具备法律主体资格的条件。综上,折中说只是对强、弱人工智能法律主体资格的类型化设计,其本质上依然是肯定说。

综上,法律主体是指可以享受法律权利、能够承担法律义务的一种资格,当前立法语境中的法律主体主要包含自然人与法人两种,人工智能是否具备法律主体资格也需要参考上述两类主体的赋权逻辑。其一,人工智能是否具有自然人的理性意识,持肯定说的学者从技术理性角度论证了未来强人工智能会发展出理性意识从而应该赋予其法律主体资格,而持否定说的学者则从“人是目的”角度反驳人工智能具有理性意识的观点。其二,基于理解与遵守法律规范的考量,肯定说学者从人工智能的深度学习能力论证了未来人工智能可以理解和遵守法律规范,而否定说从人工智能只能机械理解法律,更无法遵守法律方面,驳斥了肯定说。其三,人工智能是否具有社会文化属性,肯定说观点从社会文化角度论证人工智能具备社会文化属性,否定说则从人工智能的机械原理属性上驳斥这种观点,人工智能无法具备社会文化意义上的自我意识。

2 人工智能法律主体资格的生成逻辑与否定证成

如前所述,赋予人工智能法律主体资格不能理想化,而是应当基于现有法律主体资格的赋权逻辑,并通过对比人工智能自身的特点,从而实现对其法律主体资格的理性证成。事实上,参考自然人与法人的赋权进路,人工智能并不具备法律意义上的理性,赋予其拟制人格同样无法发挥应有的社会价值,因此,当前并不具备承认其法律主体资格的现实条件。

2.1 人工智能法律主体资格的生成逻辑

2.1.1 自然人主体的赋权逻辑

自然人不仅是具有生物学意义上的人,更是具有社会文化属性的人,即人具有自然和社会双重属性,而社会属性是人和动物的本质区别。人之所以具有法律主体的资格,在于同时具备资格条件(规范条件)和能力条件(实体条件)。资格条件是形式要件,赋予法律主体资格需要法律规范予以确认,但反过来确认法律主体资格又需要具备一定能力条件为前提,即需要主体具备自我意识和自由意志,因此,法律主体资格的取得需要资格条件和能力条件同时具备。需要指出的是,法律中的“人”并不等同于生物学意义上的“人”,因为法背后承载着统治阶级的意志。例如,奴隶制社会中的奴隶就不具有法律主体资格,他们只是奴隶主的财产或者工具,并且服从于主人的意志,因而不是法律意义上的“人”。

能力条件则是能否被赋予法律主体资格的关键,法律规范目的在于调整人的行为,而法律调整人的行为则是通过设定权利和义务来实现,只有具备意识和意志的自然人才能享有法律权利、履行法律义务以及承担法律后果。因此,具有法律意义的行为,既要以法律规范为依据,又要以意识和意志为基础。一方面,由于人具有自我意识和自由意志,能够理解法律规范赋予的权利和义务,行为人可以明白哪些行为能为、不能为及其法律后果,权利和义务是一个规范问题,而行使权利和履行义务却要以意识和意志为基础,这是成为法律主体的实质要件。另一方面,违反法律义务会产生相应的法律后果,通过法律制裁使行为人知道哪些行为是不能做的,进而规范自己的行为,并根据法律规范作出选择和反馈。

2.1.2 法人的赋权逻辑

法人是通过立法技术由自然人为了某种共同目的而组成的一种拟制法律主体,是立法创造的一个法律概念。虽然法人没有生命特征,但揭开法人的面纱可以发现,其具有独立的意志,能独立承担权利义务,因而享有法律主体的资格。

第一,法人具有意志性。人类诞生以来就过着群居生活,因为个人的力量是渺小的,必须联合起来才能共同生存,于是在一定范围内就形成部落,部落成员有着共同的目标,部落内部会有明确的分工,也会有部落首领,这大概是法人的滥觞。法人尽管是由自然人组成,但法人成立以后就具备独立于自然人的意志,其意志体现在法人章程里,是自然人意志一致性的结果,且这种意志具有单一性。如果意志不一致,就如同一盘散沙,便无法实现法人的共同目的。因此,自法人成立之时,法人的意志就与自然人的意志相分离,个人意志必须服从法人的意志,且不能随意干预法人的运行。

第二,法人可以承载权利义务。权利与义务是法律的灵魂,只有法律主体才能承载权利义务,法人同时具备成为法律主体的资格条件和能力条件。法人的章程规定了其权利义务,只不过要通过机关内的自然人来实现,但机关的自然人所实施行为的法律后果却要归入法人,即法人的责任和自然人的责任相分离。例如,刑法对单位犯罪的规定,既处罚直接负责的主管人员和其他直接责任人员,也对单位判处罚金。

第三,法人本质是辅助人实现目的。法人是由具有意志的自然人组成的团体,但不是自然人简单拼凑,而是具有一定目的性的团体组织。社会分工的精细化决定了法律关系的复杂化,而设立法人制度目的在于简化法律关系,即利用法人,收集个人的意志并进行输出,实现交易效率与群体效益的最大化。再者,法律本身也要追求精简而非复杂,因为法律需要写在人的心中而不是文本上,如果法律关系复杂难懂,那么法律将难以推行。因此,法人本质上是为人类利益服务的,能够创造社会文化价值以实现人的目的,但又不能否认其独立的法律价值,因而赋予法人主体资格。

2.2 人工智能法律主体资格的否定证成

2.2.1 人工智能缺乏意志能力

人工智能与法人不同,法人因为立法技术将自然人的意志凝结在法人之中从而具备独立的意志,究其根本是法人背后体现自然人的意志,从而可以独立承载权利义务,成为法律主体。其一,人工智能不是虚拟物而是人造物,其行为虽然具有一定自主性,但其贯彻的是人的意志,本质上是服务人类的工具。意志是一个综合性的概念,它涉及认知、情感、道德等方面,更与伦理学、哲学、社会学等息息相关,而人工智能运行逻辑单一,数据的输入与结果的输出事实上都是代码与算法相结合,无法与复杂无比的人脑相提并论。其二,人工智能最大的迷惑性在于大数据使其具有深度学习能力,使人们误以为人工智能具有理性意志。其实不然,大数据来源人的收集和整理,一旦人工智能离开大数据的支持,那么人工智能也无法进行深度学习,更谈不上意志。其三,情感缺失。情感是先于理智存在的,人工智能只有智力,没有情感,不是真正的智能[13]。人工智能的诞生就是弥补人类的理性,但却忽视了情感和道德,因此只有智商没有情商称不上真正的意志,充其量也就是机械意志。

2.2.2 人工智能无法实现法律规制目的

法律规范通过设定权利义务及法律后果来维护社会秩序,首先,法律规制的目的都体现在权利义务之中,由于人工智能没有规范认识和理解能力,让其承担法律责任没有任何意义。例如,让人工智能机器人赔礼道歉或者判处刑罚,人工智能是机械体,施加惩罚也无法感知,也没有承担财产责任的能力,即使对人工智能施加惩罚,仍然无法避免再犯,反而会给自然人利用人工智能规避法律责任提供渠道。另外,法律规制的目的在于通过惩罚和预防来实现,如果仅有权利和义务的规定,却没有违反义务的法律后果,那么法律也将成为一纸空文。但人工智能不会认识到所犯错误,更无法承担法律后果,因而不能实现特殊预防和一般预防目的。因此,透过现象看本质,法律本质上是调整人与人之间的关系,而非人与人工智能的关系。

2.2.3 人工智能不能承担社会责任

基于法人的赋权逻辑,法人之所以可以成为法律拟制的主体,不仅在于法人具备相对独立的意志,能够承载权利和义务,更重要的是法人在社会中可以扮演重要角色,承担社会责任。因为法人实质上是人的物理组合,由众人联合成为一个法人,这中间发生的是物理变化而非化学变化[14]。法人拥有独立的财产,在社会中维持社会的高效运转,例如通过招聘劳工、发放薪资、职员管理、社会保障等维护社会稳定的价值。人工智能作为人造物,具有一定的自主能力,尤其是超人工智能,但无论其多么智能,它也只能作为一种人类工具,因为人工智能没有独立的财产,也不具备理性意识承担社会责任,它更多的是在执行人类设计好的程序,是人类工具的延伸,因而无法承担社会责任,故而不能赋予法律主体资格。

3 人工智能法律层面的应然定位——特殊物格

在应然层面,人工智能不具备法律意义上的理性意识,也无法发挥法人应有的社会价值。在实然层面,目前乃至很久的将来,人工智能也只是人类智商与行为简单、机械的延伸,属于工具范畴。因此,基于人工智能法律主体资格的预设破灭,当前应在民法客体范围内为其寻找归宿,特殊物格便是值得考虑的进路。

3.1 特殊物格的基本内涵

随着人类支配能力的增强,物的种类呈现出多样化趋势,物格的内涵也在不断丰富和发展。物格是相对于人格而提出的一个概念,人格仅有人作为法律的主体能够享有,除人之外的物只能作为法律的客体为人所支配和利用。物格是指某种物在法律中所享有的资格或者地位,我国现有法律中并无“物格”这一法律概念,但随着人工智能的兴起,期待物格理论的回归以解决法律困境。根据物的性质和特点赋予其物格,目的在于物的类型化保护,一方面可以使立法者根据法律主体的需要确定保护程度,制定不同的法律予以规制。另一方面,对于以人工智能为代表的新兴事物不能视而不见,无论是赞成还是否定其法律主体资格,都必须做出法律层面的回应,而特殊物格则为人工智能预留了制度设计的缓冲区,既不至于出现颠覆法律秩序的局面,又可以填补法律漏洞规制人工智能所带来的风险。杨立新(2008)根据物的不同类型,把物划分为“伦理物”“特殊物”“一般物”三种类型,“伦理物”是指具有生命伦理价值的物;“特殊物”是指具有特殊法律属性并应建立特殊法律规则的物;“一般物”是指除伦理物与特殊物以外的其他物[15]。

3.2 人工智能特殊物格的应然定位

如前文所述,人工智能不具备成为法律主体的条件,又不同于民法中的普通物,因此,根据人工智能的性质、特征以及它与人的关系将其纳入特殊物格范围比较妥当。

第一,特殊物格本质上仍然属于法律客体的一种,为人所支配和利用,因为人是目的而非手段,且具有理性和意志,能够作为法律主体承载法律权利与义务,将人工智能定位为特殊物格划清了人与物的界限,既回应了人工智能法律地位的困惑,又能实现对人工智能的特殊保护。

第二,赋予人工智能特殊物格地位,便于区分人工智能与其他物,因为在人工智能产品上具备人的某些人格要素特征,能在社会中独立扮演某些角色,如果只简单将人工智能定性为“一般物”,就会抹杀其独特作用。因此,特殊物格的属性定位明显区别“一般物”的保护思路,使得人工智能在符合人类最低伦理道德观的前提下,充分得到应有的重视。

第三,明确人工智能特殊物格地位,便于划分和明确法律责任。人作为法律主体支配人工智能,意味着最终的法律责任应该由作为主体的设计者、制造者和使用者来承担,不至于让人工智能成为违法甚至犯罪的工具,损害人类社会秩序和利益,使人工智能的发展始终处于安全可控的范围内。

综上,特殊物格的规制思路与人工智能“类人性-工具性”的复合属性高度契合,法律客体的定位不仅可以延续传统民法的人物二分理论,又能在保证人类自身权益的基础上,实现对人工智能的有效规制,契合了人工智能的发展需求。

4 特殊物格视野下人工智能法律规制构想

如前所述,人工智能难以被赋予法律主体资格,而通过特殊物格的定位可以划清人与物、人工智能与一般物的界限,同时利于明确法律责任。对于特殊物格视野下人工智能法律规则如何具体设计,笔者以为应从立法嵌入、人工智能利用原则、类型化区分以及责任分配四个层面予以考量。

4.1 法律定位的立法嵌入

传统民法坚持主客二分理论,即自然人为法律主体,自然人以外的物为法律客体。随着社会文明进步,法律中的主客体呈现相反的发展趋势。一方面,作为主体的人从多层次走向单一化,法律面前人人平等观念深入人心,法律人格的平等不再把人区分为三六九等。另一方面,人类的认知能力和创新能力极大增强,不断涌现出新兴事物,物的类型由单一化向多元化发展,这些具有新特征的事物需要法律作出回应。而物格理论的提出给我们带来启发和借鉴,根据多元化新兴事物的属性来确定它们在法律中的地位和资格,进而可以确定法律主体对不同物的支配规则和保护规则。因此,物格制度可以有效满足多元化物的规制需要。

人工智能是被人支配的客体,在这一基本法律定位前提下从物格理论中寻找人工智能的法律定位并据此构建相应规则,可以实现法律效果和社会效果的统一。然而现行法律中并无特殊物格的规定,使得人工智能仍等同于一般物,缺乏法治化指引,立法者需要在法律中嵌入特殊的规则对其进行规制。需要指出的是,人工智能虽然具有特殊属性,对是否应该赋予人工智能法律主体资格存在争议,但人工智能的特殊法律属性并非要赋予其法律主体资格才能对其规制[6]。立法者将人工智能定位为特殊物,赋予其特殊物格地位,既保证了法律秩序的统一和稳定,又能实现对人工智能的有效规制。比如,可以在未来修订《民法典》时,在总则编设专章规定一般物、伦理物和特殊物,对物的支配和规制进行类型化区分,为人工智能发展预留制度空间,同时在《民法典》各分编中增加更为具体的物权、侵权等方面的规则。

4.2 明确人工智能的利用原则

人工智能技术的发展可以给人类带来巨大好处,但也存在风险隐患。霍金曾多次表示,“彻底开发人工智能可能导致人类灭亡”。这并非杞人忧天,必须引起高度警觉。人工智能是人类智慧的产物,但生产什么样的人工智能?怎样生产人工智能?如何利用人工智能?都必须明确法律底线和利用原则。人工智能作为人造物,人对其应该享有绝对的控制权,绝不能出现凌驾于人之上的人工智能。人工智能的法律规制不仅是对其本身进行规制,其本质还是在规制人的行为,因为人工智能是由具有意识的人生产和使用的。而法律规制人工智能主要在制造和应用两个方面,其中在制造阶段对人工智能的设计将决定其功能和作用。因此,人工智能的设计制造阶段的法律规制极为重要。否则,一旦“潘多拉魔盒”打开,将会造成灾难性后果,无论应用阶段的人工智能法律规制多么精确缜密都无济于事。技术是中立的,没有好技术和坏技术之分,关键在于人如何利用技术。爱因斯坦曾指出,“科学是一种强有力的工具。怎样用它,究竟是给人类带来幸福还是带来灾难,全取决于人自己,而不取决于工具”[16]。人是主体,主体支配客体,而不能出现客体支配主体的情况,必须确立人工智能以人为本的最高技术发展原则[6]。因此,人工智能的发展必须明确其利用原则,使人工智能造福人类。

4.3 特殊物格下的人工智能类型化区分

人工智能经过多年的发展,已经形成形态和功能各异的智能机器体,因此,对其进行分类才能达到有效法律规制。人工智能通常划分为弱人工智能、强人工智能和超人工智能,但并非所有的人工智能都需要特殊规制,比如像智能扫地机器人等弱人工智能,其技术原理简单并不需要特殊法律规范,根据“奥卡姆剃刀原则”,只需按照一般物规制即可。随着大数据、云计算等新技术的不断发展,在不远的将来,大量强人工智能和超人工智能将充斥在人类社会中。而具备一定自主性和行动自由的人工智能则需要特别的法律规制。例如,一些秘书助手、情侣机器人、老人陪伴等人工智能与人类生活密切相关的,而且具备人的外形和某些人格要素,这些高端人工智能宜将列为“特殊物”范畴,属于最高等级的法律客体。区分人工智能类型的目的在于有针对性地进行规制,在法律保护、致人损害的法律责任等方面有所区别。

4.4 人工智能侵权责任类型化设计

人工智能具有惊人的计算、信息存储等能力,在某些方面超过人类,但由于不具备规范理解能力,这意味着人工智能不能对其行为负责。在特殊物格定位下,需要对人工智能的侵权责任进行类型化设计。而承担法律责任首先要明确责任主体,即人工智能的设计者、使用者以及人工智能本身的法律责任。人工智能侵权情形可以大致分为三类:一是人工智能的设计者,在交付产品之前就存在缺陷,侵权损害发生在使用阶段,但使用者不存在过错,这类侵权责任应该归属设计者,设计者应该对其设计的产品负责,只有产品质量责任让设计制造者承担,才能最大程度保障人工智能产品的安全可靠[6];二是人工智能设计完全符合规定的质量标准,在应用阶段由于使用者操作失误造成侵权损害,那么这一类侵权责任应该归属于使用者;三是人工智能在设计和应用上均存在问题,那么这一类侵权责任应该由设计者和使用者按照各自过错共同承担侵权责任。在这三种侵权情形下,承担责任的主体应当有所不同。

基于人工智能的产品属性,产品质量致人损害,应该适用产品质量法相关规定,当然应由产品制造者承担最终责任,这是来自产品质量法理论的解释[17]。人工智能产品定位为特殊物格,其侵权责任应该由设计者或者使用者承担无过错责任,而不能把责任转嫁到人工智能本身上。至于未来可能出现的超人工智能,其具有极强的自主能力,如果造成侵权而把责任完全归咎于设计者和使用者,势必会阻碍人工智能的发展,但可以采取删除数据、永久销毁等方式使其丧失价值。

5 结语

虽然人工智能具有过人的能力,但终究是人造物,只能是为人类所支配和利用的客体,不具备成为法律主体的条件。人工智能技术是一把双刃剑,关键在于我们该如何理性利用。法律不应滞后于时代发展,而应主动紧跟时代发展前沿对可预知的未来做好法律设计。借助特殊物格理论,人工智能可以在法律中找到自己的归宿,赋予其特殊物格地位,以促使人工智能更好地服务于人类社会。

猜你喜欢
主体资格法人意志
时代新人与意志砥砺
论法人的本质
浅析我国法人人格权现状及立法建议
About the bug of the theory of evolution
创新法人治理结构 建设一流事业单位——三峡日报传媒集团事业单位法人治理结构初探
环境污染侵权案件实务中的问题研究
环境公益诉讼主体存在问题及对策
《西厢记》中的理性意志与自由意志
法人和法定代表人有什么区别?