算法、权力与法律:时代挑战及回应*

2023-01-08 07:30钭晓东欧阳恩钱
政法论丛 2022年4期
关键词:权力法律算法

钭晓东 欧阳恩钱

(1.宁波大学法学院,浙江 宁波 315211;2.江西师范大学政法学院,江西 南昌 330022)

算法、数据和算力是人工智能的三大要素,凡有人工智能应用的地方就有算法,智能手机、网络搜索、个人征信评估、人脸识别,甚至我们利用计算机编辑文字等等,都离不开算法。相应地,人们也开始就算法的影响,尤其对法律制度的影响,进行分析和研判,推出了不少的研究成果。不过,大多文献从宏观角度展开。事实上,算法在不同领域的应用带来的影响并不相同,如就商业领域而言,算法引起的歧视、大数据杀熟、对隐私权的侵犯等等只是人工智能时代的一种新的现象,它们会引起法律理论的变革,需要创制制度安排,但不会对法律理论与实践带来根本性影响。但算法在法律制度中的应用,算法成为法律的内容,则会直接冲击法律理论与实践。再者,因算法的自动化程度不同,由其带来的影响也不同。比如算法用于检索法律法规和裁判文书,带来的影响就是轻微的;而如果从对证据事实的识别到法律的适用全由算法自动完成,就会彻底改变司法审判的性质。

当然,不管怎样,算法的应用总会带来影响。正因为如此,学界普遍认为算法即权力,并指认算法是新的权力形态,[1]或者是一种社会权力,[2]或认为它是可以影响和改变社会秩序的软性权力。[3]有的学者还概括出算法的权力基础与特征,包括机器优势、架构优势和嵌入优势,以及由之生成的跨越性和隔离性两个特征。[4]p38然而,如果算法即权力的话,那么,就必须将之置于权力理论的解释框架之内。进而,就必须阐明算法与法律的关系。

有学者将算法等同于法律,算法权力就是法律权力,[5]因它有能力通过技术手段规范人们的行为。由此得出算法权力下法律无用或功能消亡的结论。[6]阿尔图·考夫曼援引温弗里德·哈斯尔也写道,法律的语言及法律的解释与运用,只有当法律规范在其语法学和语意学的范围内,被翻译成象征性符号语言,才有可能。如此,一个走向“判决”的电脑是可能的。此时,所产生的法律是另外一种“法律”,与法官通过判决所说出来的法律是不同的。[7]p143

诚然,我们现实生活中的算法应用例子,如滴滴打车、外卖平台,在新冠疫情应对中的健康码、行程码等等,算法都似乎在创制规则,都在用它创制的规则支配人们的行为,都给人一种算法即法律的感觉。如果行政执法和司法裁判也由算法自动完成,人们更会觉得完全生活在算法的统治之下。然而,学术研究仅仅停留在感觉,或者仅仅依据感觉是不够的。任何的技术的发展始终有着哲学理论的支撑,正是理论为它描绘了方向,为它划定了边界。因此,如苏力教授说的,法律与科技的问题若作为法理学问题,就应当对其中的根本性问题做出哲学思考。[8]

这里所说的根本性问题无疑就是算法的性质。我们只有在权力理论的框架内阐明算法的性质,才能够准确地回答算法会不会取代法律的问题,才能够客观地评判算法给法律理论与实践带来的影响,进而才能正确地指引算法时代的法律变革。

一、算法与权力:算法即权力的谬误澄清

(一)算法:计算机程序解决问题的方法

“算法”并非人工智能时代才有的新生事物,其实它有着悠久的历史。在原始社会,人们使用结绳、枝条、鹅卵石等作为辅助计算或计数的工具,以此解决一些实际的问题。比如,在处理纠纷的时候,当事人每陈述一个理由就投放一颗玉米粒;部落战乱时,用鹅卵石记录双方伤亡的人数并在战后根据清算的卵石数量进行赔偿。在此过程中每一个步骤都是一个运算,直至完成最后一步得出所要的结果,而“算法”则表示数字或符号的运算规则。

随着数学的发展,演绎推理的逻辑步骤也演化成为算法,计算和推理统一在“算法”术语之下。算法不再是单纯的计算规则,而是解决实际或科学问题中概括出来的、一般性的计算程序,并且通常力求规格化,便于机械化的重复迭代,它们是一种归纳思维能力的产物。[9]p5所以,如果从数学角度来定义,算法就是以数学符号和方程式作为基本形式,通过对数据进行一系列的计算和推理步骤而得出结果的过程。

计算机的问世使得机器的运行成为可以被计算的函数,同时为科学研究解决问题提供了新的途径和方法。算法也突破了传统的数学应用而进军至计算机领域,逐渐成为技术和场景应用的核心力量,从日常通讯、天气预报到城市规划、环境监测等方面,算法作为一种科学计算方法被广泛地应用。此时,算法被定义为“解决某一特定问题而采取一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法,是计算机科学的基础” 。[10]p1

毫无疑问,今天被人们热议并引起担忧的正是这种意义上的“算法”。人工智能是计算机科学的一个分支,主要研究“人的智能”理论和实质,并试图开发出能够模拟甚至超越“人的智能”的技术或应用系统,比如智能机器人、计算机视觉、机器学习和知识获取、自动推理和搜索方法等方面的专家系统。当前人工智能技术主要以机器学习算法为核心驱动,机器学习算法是使机器具有智能的根本途径。算法的基础是数据和算力,海量数据和强大的计算能力为机器学习算法的发展提供了基础。尤其是机器的深度学习使算法实现了更高层次的智能化和精确性,通过将简单低层的样本组合形成更加抽象、高层并能够表示类别属性的模型。例如,无人驾驶汽车能够识别停车标志或场景以及电子设备实现语音控制,就得益于深度学习技术。机器深度学习的先进性在于不同应用场景下能够实现自主预测和自动化决策,并且达到其他技术工具难以企及的精准度。

归纳起来,“算法”作为用计算机程序解决问题的方法,有着三个崭新的特征:第一,可重复性。机器的基本特点就是可复制性,算法编写好后可运行于任何一台计算机,可不知疲倦地反复运行。只要是合法的输入,就会输出结果。可重复性意味着算法严格遵从规则,或者说它本身就是规则。同时,可重复性还意味着计算机程序能够解决大规模的、复杂的问题。人脑也可反复计算诸如2*3=6这样的简单问题,但对于复杂的问题不仅总有可能出错,而且在具有创造性的活动中(比如写作),基本是不可重复的。第二,高度形式化。在计算机技术中,计算就是晶体管的关开活动,“信息论之父”克劳德·香农首先发现了这一点。某个晶体管在另一个打开时也打开,或者在另一个打开时关闭,这就是两种不同的逻辑计算。如果问题复杂就用更多的晶体管,形成更复杂的关开组合。所以,佩德罗·多明戈斯说,任何算法都能分解为三种逻辑运算:且,或,非。通过结合逻辑运算,就可以进行任何复杂的推理。[11]p4第三,精确性。一种算法是一套简单而精确的指令,只有精确的指令计算机才能执行。[12]p5第四,有效性。智能既是一种实现复杂目标的能力,同时也是一种时间性的能力。如果算法不能在毫秒或者微秒级内完成复杂的任务,就不能称之为革新的力量。一个能给出正确输出但耗时很长的算法几乎是没有什么价值的。[13]p67

(二)算法不具有权力的基本特征

权力是政治与社会哲学中古老和核心的概念,但对权力的认识差异巨大。如霍布斯说权力就是“人们追求一切显而易见的未来的利益而采用的一切现实手段”。[14]p62马克斯·韦伯认为权力指“一个人或很多人在一种共同体行动中哪怕遇到其他参加者的反抗也能贯彻自己意志的机会”。[15]p246拉斯韦尔认为“权力是施加影响力的特例”。[16]74伯特兰·罗素则说,权力是“若干预期结果的产生”。[17]p26显然,权力定义中的核心要素即对人的影响,包括影响意志或思想,也包括影响行为。所不同的是,罗素认为这种影响的实际发生是权力定义的构成要素;而其他学者则认为只是一种潜在性、可能的影响。丹尼斯·朗赞同“潜在性”或“倾向性”是权力的基本特征,坚持权力是一种关系,即权力拥有者与权力对象之间的关系,他将权力定义为“一部分人在另一部分人身上产生预期的和预料的效果的那种能力。”[18]p3我国学者也倾向于将权力理解为能力和关系,如认为“权力是特定主体将他的意志强加于他人使之产生压力,进而服从的一种能力”,[19]p188“权力是合法确认和改变人际关系或处理他人财产或人身的能力”,[20]p111“权力是一个人根据自身需要,影响乃至支配他人的一种力量,是一种关系范畴,是一种强制力量”。[21]p202将权力视为一种关系,能够将权力和那种纯粹的物理力量(如体力)区分开来。不过,上述对权力的界定,除罗素以外,都将权力视为人们的“拥有物”,即“A-B模式”或“利益—冲突模式”。帕森斯和阿伦特批评“利益—冲突模式”混淆了权力与强权,提倡“权威—媒介模式”。在他们看来,权力是“能够为有效的集体行动调动资源的一般化媒介”,“权力从来不是个人的财产,它属于一个集团”。[22]p314然而,“权威—媒介模式”显然也并非是“A-B模式”的替代。“权威—媒介模式”所针对的主要是那种源于规范的集体性权力,比如法律权力,道德权力,以及其他基于组织规则制度而产生的权力。对于个体性权力,比如医生的专业能力(权力),唯有“A-B”模式才能解释。

认识可以获得知识与拓展知识,但对于认识的对象而言,认识就是“再发现”,它不能提供任何更多的东西。所以,对权力的不同认识,必定是权力本身包括这些不同的方面。如此,可以认为,权力作为一种关系,它包括意图、潜在性、有效性等属性或要素。在最广泛的意义上,我们可以把权力定义为:社会关系中意图对人施加的潜在影响。并且,从学者的不同认识中,可以看到权力包括这样两种基本的类型:集体性权力与个体性权力。

显然,算法不具有权力的基本特征,算法给人们带来的影响不同于权力的影响。算法有着明确的目的性,但算法的目的是设计者设定的目标——解决问题。即使算法发展到能够自我更新、自我演进,生成自主的规则的程度,如同佩德罗·多明戈斯说的计算机开始自主编程,算法的目的也还是设计者设定的目标。比如在基于学习算法的中国象棋游戏中,不管你如何玩花样,算法都只会快速地取胜。如果不吃子就能够取胜的话,它绝对不会乱费时间去吃子。算法解决问题必须遵从规则,但这种规则只是计算的规则,构成和约束算法自身。算法是解决问题的现实方法,也就不具有潜在性。计算机程序员编写好算法,如果没有实际投入运行,则没有任何意义,甚至可视为算法根本不存在。所以,算法的有效性指的是“实效”,不同于权力将有效性指向效力。

算法本质上是用计算机代替人类的推理或计算,但算法不是个体性权力。个体性权力相对于集体性权力在于社会将权力赋予个人,权力是现实个体人拥有的能力,依附于他的身体。因此,个体性权力的意图是个体人影响他人的主观意愿;个体性权力也有着潜在性的特征,但在其实现之前谈论权力的存在是没有实质意义的,个体性权力的有效性也往往和实效性结合在一起。然而,算法本身具有无主体性,算法编写好之后便可自动运行,算法的拥有者(包括程序员)无法对计算的过程施加任何控制,所有人都只能就计算的结果选择接受或不接受。

(三)将算法等同权力的根源在于混淆范畴

依据上文可发现,算法根本上是事实的范畴,只有在具体实践中才有意义。而权力始终是规范的概念,不同范畴之间的事物不会有矛盾,但绝不会等同。

区分事实与规范是新康德主义的执念,施塔姆勒、拉德布鲁赫、凯尔森是我国学界比较熟悉的代表性人物,后来者还包括费尔德罗斯、肯普斯基等。其中,凯尔森最为“极端”,他将立法、行政命令、司法裁判、私法行为等严格置于事实范畴,而法是附着于这些行为的意义。[23]p38约翰·塞尔被认为是质疑事实与规范二分的学者,他举出许诺的例子说明可以从“是”推出“应当”。[24]p177不过,塞尔说的许诺事实是一种以言行事的言语行为,属于基本的制度事实,暗含权利与义务。而制度,不仅指“能让我们创立制度性事实的集体接受的规则系统”,具有“在背景C中,X被视为Y的逻辑形式”,还要具备基本的条件,即地位功能和道义权力。在《行为合理性》中,他进一步说道:包括语言事实在内的所有制度性事实都牵涉到道义力量,因为语言把地位功能附加在无情的事实上,我们自由而合理地创造了制度性事实,我们受附加的承诺和义务束缚。简言之,你的承诺束缚着你,因为是你的承诺。[25]p180这也就是说,塞尔之所以能从“是”推出“应当”,是因为“是”是一个制度事实,包含“应当”的意义。如此,塞尔关于事实与规范的观点其实与凯尔森的差别并不是太多。

二、算法的应用使权力从规范性转向事实性

(一)算法:权力行使的新方式

然而,人工智能时代,算法能够以其运行逻辑为依据来支配个人以及社会朝着既定方向发展从而实现预期目标,显然具有权力的外观,给人一种实在的“权力感”。以算法平台对骑手的控制为例,从订单自动分配、设置送达时间到规划配送路线,算法控制着整个流程,包括根据骑手的绩效评估决定对其实施奖惩。骑手只能听从算法程序的指令和支配,自己毫无选择的余地。至于新冠疫情防控中的“健康码”的例子,更是人人熟悉。2020年2月4日,中央网信办颁发《关于做好个人信息保护利用大数据支撑联防联控工作的通知》,鼓励有能力的企业在有关部门的指导下,积极利用包括个人信息在内的大数据为疫情联防联控提供支持。随后,各地政府纷纷与技术企业合作推出“自己”的健康码。技术企业在行政机关的授权下对个人的基本信息、健康状况、位置行踪等相关数据进行采集和分析,个人在线上提交申领后,算法系统根据评级模型和行政机关的评判标准自动生成决策结果。目前最普遍的是以绿码、黄码、红码来表示疫情风险等级,不同颜色标识的健康码对应着不同的管控措施。如江西省要求“红码”持有人员由相关机构和社区严格管控;“黄码”持有人员严格落实居家隔离医学观察要求,自觉接受社区管理;“绿码”人员体温检测正常可以出行和复工。

不过,必须看到,在算法的权力外观和“权力感”背后,起基础性和支配性作用正是独立于算法的权力。外卖骑手之所以服从于平台算法的控制,基于公司对他们的管理权力,如果公司的管理松弛,算法再如何精准分配订单、严格限定时间和规划配送路线,骑手完全可以置之不理。新冠疫情防控中的“健康码”背后则是我国政府对疫情防控强有力的行政权力,可以设想,即使没有“健康码”但采取严格的人盯人监视措施,同样可以达到疫情防控的效果。在其他例子中,可以看到同样的结论,比如“算法歧视”,如果平台经济实体没有经济性权力,歧视无法产生。

既然如此,人们的 “权力感”又是如何产生的呢?权力是人类社会自始就存在的现象,为何人们在算法应用中才感受到它? 答案显然在于算法本身。如果将权力类比自然界的力,那么,算法应用中的权力方向、作用点并没有改变,但大小发生了改变——算法使权力变得更为强大。申言之,算法不是权力,但却是权力行使的新方式。正是权力通过算法这种新的方式行使,使其被放大而被人们实在地感知。

前文指出,权力包括意图、潜在性、有效性等属性。权力的意图即目的性,权力的目的简单地说就是希望他人服从,或者是服从个人的意志,或者是服从确定的行为模式。权力的潜在性将权力本身与对他人的实际影响区分开来,如果并没有产生实际影响,也就有权力行使的概念,权力的行使可以是个体人行使也可以通过机器自动化行使,在理念层面都是为实现权力的目的,但由于现实条件的限制有可能达到的实际效果和权力本身的目的会有所差别,尤其是个体人行使权力时不可避免地会受到利益、能力和情绪等等因素的影响,这样就完全有可能偏离权力本身的目的。而当权力由算法行使时,不仅完全避免了个体人的这些缺点,而且,它的可重复性、高度形式化、精确性和有效等特征几乎能够消除权力的潜在性与现实性之间的区别。所以,当算法主义主张任何事情、人、人际关系、文化、社会价值等都能够还原为不同的算法,一切皆可算法化,所有决策和评价的标准将由算法构建时,那些散见在社会毛细血管中的细微权力也能被人们深刻地感觉到,当人们几乎无法逃避权力的监管时,权力的强大感也就由然而生。

并且,算法应用的两个基本条件也对权力有着明显的放大作用:第一,算法的稳定性。算法编写好之后需要经过复杂的测试,只有在它性能稳定时才会投入应用,而一旦投入应用也就意味着除非出现系统错误才会停止运行。因而,算法具体的运行就成为黑箱,算法本身不需要也无法解释它推算的过程,对于复杂的算法,甚至程序员也难以明白它究竟是如何运行的。所以,当权力由算法行使时,权力具有隐蔽性,实现了“隐身”。[26]“隐藏”起来的权力更具神秘色彩,被这些新技术“约束”的人们,自然而然地有一种强烈的被沦为客体、被宰制的感觉。第二,算法应用必需具有规模性。只有针对大规模的对象才有编写算法的必要,算法才能实现它的效率价值。由此,必然使得权力呈现弥散化。算法应用下的权力成为福柯说的“无处不在的权力”,权力的总量被放大。

(二)算法对权力性质的改变:从规范性到事实性

不仅如此,算法行使权力也改变了权力的性质。前文阐明权力是规范的范畴,不论是源于规范的集体性权力,还是作为能力的个体性权力,规范性都是其基本特征。在哲学层面,规范与事实的对应也即可能性与现实性的两分,就如康德在《判断力批判中》得出的:知性不可避免地要在事物的可能性与现实性之间铸出鲜明的区分。[27]p245康德并非要以实证的和独断的方式来断言确实存在着一个神的理智、一个创造性的直观,而只是利用这样一种“直观的知性”概念来描述人类理智的性质和范围。人类理智是一种“推论的知性”,它依赖于两种异质的要素:我们不能离开表象而思维,也不能离开概念去直观。“概念无直观则空;直观无概念则盲”。在康德看来,正是知识的根本条件这方面的二元论,构成了可能性与现实性的区别的根源。类似地,卡西尔也说到,人类知识就其本性而言就是符号化的知识,符号化的思维在现实与可能、实际事物与理想事物之间做出鲜明的区别,是必不可少的。现实性与可能性的区别并非形而上学的区别而是认识论的区别。即便是经验主义者所推崇的“科学的事实”也总是含有一个理论的成分,亦即一个符号的成分。[28]p81

对权力的规范性理解最大的困难在于两个方面,一是对权力强制性的规范证成;二是对权力存在的本体论证明。权力无疑具有强制性,权力希望或者要求人们为或不为某种行为,并且都预设了不服从的可能性,即考虑到了人们不一定按照权力预期行动,因而有法律责任或强制性措施。但是,强制本身并非权力的意图,严格来说,强制和权力密切关联却并非权力规范理论的内容。丹尼斯·朗在对“强制性权威”的论述中清楚地表达了这点,他说道, 如果A欲以武力威胁B使他服从,并且,使B确信其具有对他使用武力的能力和愿望。那么,就可认为A拥有强制性权威。A可能通过语言或行动、或工具使B相信他具有这种能力,比如警察将手枪挂在腰部,街头混混光着上身露出发达的二头肌。当用这种方法无效时,就可能使用实际的武力,但其目的只是在权力对象的心中建立起可信性,从而创造基于武力威胁的未来权力关系。[18]p48对权力存在的证明,在各种权力定义的分歧中就可看到复杂性,比如对罗素来说,如果没有出现权力追求的实际效果,也就不能认为存在权力。这种看法尤其对于个体性权力具有直觉上的解释力,病人如果没有听从医生的意见,人们往往当然地认为医生不拥有权力。然而,将可能性与现实性混同不仅违背人不同于神的根本指认,也和我们对专业能力的定义相左。对于医生来说,即使他在睡觉也不影响我们说他拥有作为专业能力的权力。

当然,权力不可能永远停留在规范层面,追求它的实际效果是权力的本性。权力从可能性到现实性的中间环节就是权力的运行或行使。权力从其规范性特征出发,本质上能够“自发运行”,即人们能够自愿服从于它。而可能性与现实性的区分又表明这种自愿服从始终只是追求的方向,对权力的反抗才是具体生活的现实。由此,权力的行使不可缺少。正是权力的行使能够保证权力从可能性向现实性过渡。然而,前文也提到,当权力由个体人行使时,因为总会受到个体因素的影响,可能偏离权力的目的,从而使得权力对现实性的追求悬空。算法行使权力则完全避免了这些缺点,正是算法确定地保证了权力不偏不倚地实现它的目的。因而,也可以说,只要算法行使权力,可能性与现实性之间的差异就不再重要,权力其实一开始就因为算法而拥有了现实性。

(三)权力的事实性对法律的影响:事实权力的生成

至此,我们可以整体洞察算法应用对法律制度的真正影响。前文阐明只有算法在法律制度中的应用,才会直接冲击法律理论与实践,尤其是全自动化的算法应用,还会彻底改变司法审判的性质。因而,对于算法、权力与法律的有意义的探讨,其实必须锁定于此。相应地,权力概念也需要置于法律的理论层面,从中我们可以看到,算法对法律制度的根本影响,乃在于使得法律权力现实地表现为事实权力。

权力是法学的核心概念,哈特说,“如果不能深入理解权力,也就不能理解现代法律制度的结构,以及法律的若干重要特点”。[29]p195然而,法哲学或法理学的基本传统却是一种法律与权力的二元论。其又有两个不同的版本,一是福柯说的启蒙时代之前法律作为权力的附庸,二是法律实证主义以来开端的法治传统认为权力受法律的限制。颇具悖论性的是,法律实证主义抛出权力与法律的二元论,却也从另一侧面突出了“法律权力”。从奥斯丁到凯尔森都将立法与法律严格区分,同时强调法律的秩序价值。如施塔姆勒说的,“法本身表现为一种有别于伦理、规约或专断意志的人类意志,意味着不可违背且至高无上的、起联合作用的意志。”[30]p92如此,“立法者不存在,法律依然存在”,不仅法律的权力特征一览无遗,法律权力也完全独立于立法权力与行政权力。

事实上,既然无人能够否认法律本质上是一种社会规范,也就必须将法律本身理解为权力——一种源于规范的集体性权力。正是从法律权力推导出法的效力、概括性守法义务等概念。并且,正因为法即权力,法律才能构成对行政权力的制约。而从权力角度,我们也能深层透析法律规范及其运行的特点,法律规范的基本内容就是规定“不得”“应当”“禁止”等行为模式,也即创设“义务”。义务意味着对行为人的约束,但它并非物理性的约束。霍布斯将义务作为自由的对立面,就人与天、地以及万事万物都服从造物主而言,这种义务就是物理性义务。不过,霍布斯表示这种用法只是为了使自由的概念和上帝的全能不相冲突。[14]p164就人们服从市民法而言,霍布斯主张在危及自我保全时,可以不服从。并且,霍布斯认为义务的概念本身蕴含有效条件,当义务在逻辑上不可能时,人们不负义务。[31]p99对法律义务影响最大的是康德的义务理论,康德的义务是出于对法则敬重的一个行动的必要性,是理性的绝对命令。但义务概念只针对作为有限理性者的人类,对非理性的自然界与动物以及完全理性的上帝都无义务可言。[32]p407、421所以,义务指“应当”,不等同于“必须”,更是根本区别于物理法则支配的“必然”,义务在本质上始终与自由以及选择相容。只有在人们拒绝履行义务时,法律强制或制裁才得以适用,而强制或制裁的目的主要指向未来——希望人们在将来自觉履行义务。

算法的应用给人“强制感”,但算法本身并非强制。新冠疫情应对中的“健康码”排除了人们的判断和选择,无论是质疑或反抗,都必须服从。但是,实际性的强制措施,比如对“黄码”持有者的限行、对“红码”持有者的隔离,显然是由实实在在的个体人完成的。所以,就算法本身而言,它在权力行使中的作用主要是判断或决策。只有在严密且高效的权力网络中,算法的应用才会形成对人的一种事实支配效果。算法的判断或决策在本质上也即将法律义务“代码化”、“确定化”,虽然并非创造一种新的义务,却因为严密且高效的权力网络使得义务在事实上如同物理性的约束。相应地,法律权力实际上体现为事实权力,表现为一种具有事实支配效果的物理性力量。

“事实权力”术语在我国首先是学者对地方政府财政自主权的研究中提出来的,认为地方政府根据非正式制度分派的财政自主权不是规范主义下的法定权力,而是一种指向事实效果的事实权力。[33]在西方国家,学者们通常在对权力与权威的区分中,将权力等同于“事实权力”(威)。如沃尔夫区分权力与权威,权力是做出并实施决定的能力,权威指发布命令的权利以及相关的得到服从的权利。在沃尔夫看来,权威的正当性唯有因被统治者的同意而得到证明,因而,现实中政府在绝大多数情况下都是在行使事实权威。“事实权威”即那种使自己的权威主张得到它所针对的人群接受的能力,因而也是一种权力。[34]p97-99沃尔夫承认“事实权威”也源于法律的规定,但它指向的是事实效果,排除服从者的自主选择。

本文这里的“事实权力”也着眼于它指向事实效果,而不从价值角度评判其合法性。并且,算法的应用使得法律权力现实表现为事实权力,并非指本体论意义上的权力本身改变,而仅是其表现出来的性质变化。所以,一方面我们可以直观地看到,算法的应用实在地增强了权力的效果,无论是商业领域、还是公共管理与法律实务中的应用都有着明显的效率价值;另一方面算法应用也必然对法律整体产生重大冲击。

三、事实权力下算法对法律的深层挑战

(一)对法的价值冲击

算法的应用颠覆了传统价值观念,将事实判断和价值判断的等同。事实权力下的算法技术理性开始驱逐人的理性,形成了黑箱伦理、效率伦理和工具伦理等算法价值,法律价值受到冲击。

首先,算法对自由价值的冲击。从权力角度,关于自由价值的争议主要体现在权威与自治的冲突之中。沃尔夫最早提出权威与自主性的矛盾,他从康德那里借来“自律”概念,自律就是自我立法,自我选择和自我责任。道德自律是自由与责任的结合,是一个人对自己所立之法的服从。所以,按照沃尔夫的观点,如果一个正常的社会是一个自律的社会,在这种社会中似乎没有办法解决个人自律与权威之间冲突。在沃尔夫之后,众多学者尝试以各种方法解决这种权威悖论,付出努力最多的是通过弱化权威使之能够与自治相容,然而,这必然从根本上动摇权威在于发号施令的本质。斯科特·夏皮罗认为拉兹通过两个独特主张为解决权威悖论提供了思路,从而有对权威之理性服从的可能性。但是,夏皮罗同时也发现,如果将自治理解为自决,那么,权威与自治之间的冲突就不可避免。一个自主决定的行为,就不是由权威决定的。[35]p445-449恩格斯也论述过权威与自治(自主性)的关系,他指出:把权威说成是绝对坏的东西,把自治说成是绝对好的东西,都是荒谬的。权威和自治是相对的,它们的应用范围是随着社会发展阶段的不同而改变的。[36]p276-277与之类似地,罗素也说控制和自主性是各自的领域,一个健全而进步的社会既需要集中控制,也需要个人和群体的积极性;没有控制,会出现无政府状态;没有积极性,则会出现停滞。[37]p71既然如此,算法的应用、尤其是在算法主义之下,当法律权力无一例外地体现为事实权力,人们无一例外地没有自主选择的机会,在此基础上型构的社会必然不是法治社会的应有状态。

其次,算法对平等价值的冲击。法律的平等是主体能够在平等的规则下获得平等的机会和待遇,包括形式平等与实质平等,平等要求排除特权和消除歧视。算法决策在本质上必然是“千篇一律”的,其为简单平等提供保证并和事实权力契合保证了效率。然而,法律追求的平等是理想的,也是现实的,法律本身始终是理想与现实之间的中间王国。所以,法律所促进的公平必然是一种复合的公平。乔治·费雷德里克森认为,一个复合的社会公平至少包括单纯的个人公平、分部化的社会公平、集团公平、机会的公平等等,在任何致力于实现社会公平的努力中,不仅要确定公平适用的领域,而且要确定公平的类型。[38]p108广为人知的罗尔斯正义二原则所设计的其实也是一种复合的公平。在商业领域中,算法对海量数据的收集、分析、处理和反馈催生了算法个性化推荐机制,能够实现“千人千面”、“精准推送”。然而,这种个性化的背后其实是高度形式化的、可复制的消费者。所谓的“个性”只是算法设计者构想的个性,是经过层层符号化处理的简单特征。

(二)对权利义务基本范畴的挑战

从算法角度来说,任何个体人都只是算法处理的对象,是透明且标签化的数据体。算法“反客为主”将人变成支配对象,必然会使权利义务范畴受到侵蚀,个人权利难以抵抗强硬的事实权力而屡被侵犯,甚至有瓦解的可能;义务在算法事实权力支配下失去现实意义而面临消解的风险。

首先,权利概念被瓦解的可能。权力的正当性在于其是否能够向权利合理转化并反作用于权利,使得权利与权力相互调和,从而平衡社会的利益关系。而权力的不合理转化则易使其侵犯性显现,对权利产生潜在风险或实质损害。事实权力下的算法实现了对个人和社会的强制支配,个人权利面临着随时可能被侵犯的风险。比如,算法歧视下对平等权的侵犯、大数据收集对隐私权和个人信息权的侵犯。不可否认,正是数据和记录,让人类社会中一些精细的、微妙的、隐性的难以捕捉表述的关系和知识,得以显性化。因为数据和记录,人类能够清晰、精确地管理自己的生活,能够在前人经验之上继续探索新的文化;因为数据和记录,事实能够超越时空界限被保存再现,人们的侥幸心理得到抑制,人性的幽暗之处得以变得光亮。与之同时,传统的隐私权或个人信息保护制度则协调着数据记录过程中的利益冲突,维护着公与私的平衡。然而,算法时代数据搜集与存储的海量、记录能力的超强,它克服了人类智力的有限性,事实上使得传统隐私权或个人信息保护制度难以继续发挥平衡作用,甚至使得权利的概念有瓦解的可能。

其次,义务概念面临消解的风险。按照康德的观点,普通人的理性承认一件事情的道德价值不在于它的实用性,而在于行为者的“善良意志”,也就是说人的理性是为了实现包含了“善良意志”的概念——义务。换言之,义务本质上体现为人的有限理性和自由意志的选择。所以,前文指出,义务在本质上始终与自由以及选择相容。而算法排除人的理性判断和自由选择,所有结果严格按照算法程序规则输出,行为的“应然”与“实然”等同。虽然并未创造出新义务类型,但传统的义务概念显然面临着消解的风险。

(三)法律主体制度危机

如果从摩尔定律和图灵机来看,技术方面并不存在“能不能”的问题,而只是“如何做”的问题。尤其是对于计算,斯蒂芬·沃尔夫勒姆认为,只要一两行代码,就可以产生巨大的复杂性,甚至生成整个宇宙所需的代码也可能只有几行长。[39]p27沃尔夫勒姆的说法是煽动性的,但是从算法作为思维方式而言,本身必然是无界限的。今天的智能算法不再局限于计算机处理数据或执行指令的运行模式,而是依托大数据和机器深度学习,能否具有人的思维能力成为检验人工智能发展的标准。这种发展趋势在某种程度上使人工智能算法越出了客体的范围,因而,当算法使得事实权力成为社会普遍支配力量时,势必形成对人的法律主体地位的挑战。

尽管塞尔的“中文屋”例子到目前为止还难以有颠覆性的批评,智能算法模拟人始终只是模拟,无法成为真正的人。在法律领域,学界公认形式化的法律推理存在局限性,图尔敏是较早认识到这种局限性的人之一,提出著名的“图尔敏论证模型”。考夫曼认为三段论的涵摄模式是将法官视为计算机,只会进行“0,1”、“非此即彼”的二值运算,法学的方法并非完全是理性逻辑推论过程,法律获取程序的科学性并不在于将所有非理性要素都掩盖起来,而只能在于对非理性要素也坦率地进行理性分析。[40]p16不过,法律决策的核心无疑就是形式逻辑,算法仍然抓住了法律决策的核心部分。法律的实践面对的多样性的、理性与情感并存的人。然而,算法的发展似乎也正在向这些被认为专属于个体人的领域进军,2021年微软推出的第九代智能小冰,注重模拟人类思维和情商拟合,能够在交谈、演唱等场景中,进行高度拟人的实时交互。所以,当我们必须承认,法律中的人就是以形式逻辑定义的人,而人类的情感判断本质上也可用形式逻辑呈现时,算法模拟与真实世界之间的界限事实上模糊了。我们甚至必须承认事实权力所支配的那种高度形式化、可复制的人其实正是我们法律中定义的人,尽管我们的内心依然在抵抗这种理论的趋势。

四、迈向未来法:法律的反思性回应

纵观历史,技术前进的步伐从未停止,人工智能发展已是一个不可逆转的趋势。事实权力下算法对法律的挑战显然并非算法与法律的对立,勿宁说正是算法与权力、法律的结合构成对法律的挑战。我们应该清醒地认识到,所有对算法应用的担忧,任何算法应用下的 “权力感”、“压迫感”,根本上源于算法背后的法律规范、源于现代社会日益缜密与强大的权力。既然如此,当前学界主张通过法律规制算法的手段不仅不符合未来发展趋势,也未从根本上解决问题,算法时代所真正需要的是法律的反思性回应。

(一)以规划法学作为未来法学的方法论

反思性回应是一种结构性回应,不同于对策回应的根本特点在于从整体结构上进行调整以适应时代的变化。算法的应用使得法律明显强调目的,强调目的-手段的工具理性,由之必然引起法的合目的性、安定性和正义之间的紧张。如拉德布鲁赫说的,正义就是平等,法律的平等要求法律原则的一般性,正义在任何层面上都能得以概括。但是,从合目的性角度所有的不平等都是根本的,合目的性必须尽最大可能去适应自己的需要。而法的安定性要求实证性,想要在不考虑正义性和合目的性的情况下具有有效性。[41]p75为此,未来的法律既要适应突出强调合目的性的特点,也必须发展起调整性理念。

规划法(Planning Law)是美国耶鲁大学教授斯科特·夏皮罗提出的一种新的实证主义法学理论,他从法哲学奠基性问题——法律权威来源中的鸡和蛋悖论开始,认为如果法律权威源于规范的话,那么制定规范的人必然需要拥有同样的权威,而他的权威又只能源自于规范。为了防止坠入无效循环,必需一个“终极权威”。自然法学将之归于上帝或道德规则,背离不正义的法律也存在的事实,面临“邪恶难题”;实证主义法学,如奥斯丁的“命令说”和哈特的“实践说”将之归于社会事实,则遭遇从事实推出价值的“休谟难题”。为此,夏皮罗循着“私人规划-小规模共享规划-法律规划”的思路,将法律看成社会规划,法律规则构成规划的内容。私人规划首先就是明确设定目标,然后确定实现目标的手段。但我们不需要也不可能对任何详细步骤或行动进行设定,因而,规划通常是部分性的,当我们确定实现目标的手段之后,再将手段作为目的规划新的手段,通过这种方式我们使整个行动在目标指引下结成统一整体。规划是人类自主性的核心构成和基本实现方式,它能够让我们从容应对未来的不确定性、减少临时决策的失误,但我们欲求的目标众多,彼此之间往往冲突,因此规划必然内在要求协调。法律是一种大规模群体共享规划,有着私人规划同样的益处,并且充分蕴含协调功能。不过,如果每个成员都参与大规模共享规划的协商制定,必然成本高昂。所以,夏皮罗归纳了政策、习惯和等级制三种低成本缔造共享规划的办法。政策即一般性规划,根据这种一般性规划制定具体规划可能带来次优结果,而习惯具有非目的性只能是类似规划,因此,降低规划成本的主要方法就是等级制。但等级制带来服从的问题,夏皮罗意识到这点,认为在涉及等级制共享活动中,共享规划是自我调节的(Self-regulating)。“自我调节”也就是民主与法律的关系问题,人们通过民主选举授予官员制定规划的权力。所以,夏皮罗说,法律制度本身是共享规划,也由共享规划所构造,这些共享规划由官员制定出来,确定水平和垂直的社会劳动分工,具体确定谁有权提出、采纳、拒绝、影响、适用和执行规划,并指导所有的人如何参与到这些不同层次的社会规划之中。[42]p229由此,规划法学也就避免了法律权威来源的鸡和蛋问题。并且,规划法学不依赖道德事实,无需借助道德规则证成法律的正当性和权利义务话语。在规划法理论中,从规划制定到适用的陈述都是描述性的,是从“是”推出“是”,因而,也符合休谟法则。

显然,规划法学保留着实证主义法学的基本特征,主要的不同在于它坚持法律的目的指引下的整体性或共同性。规划法学将社会看成是规划建构的整体,将法律置于社会中,从社会角度将法律理解为一种弥补合法性环境下其他形式规划不足的规范性规划。从整体而不是系统角度看待法律,不同于卢曼和托依布纳将法律看成是封闭的自创生系统,而是主张法律体系的开放性,法律作为规划是调整性的。因而,规划法学能够在法律的自治性与开放性之间保持平衡。规划法学主张法律是将个体组织起来实现高效合作的手段,但不同于庞德将法律视为社会控制的工具,借助规划共享的事实避免了法律的工具化。

具体而言,规划法学从确定的目标出发组织实现目标的手段,通过“目的-手段”的多层结构形成统一的法的整体。同时,规划法学要求法律坚持一种调整性的理念,从而,可望在法的合目的性、安定性与正义的冲突中能够保持平衡。并且,规划法学是建立在规划实证主义与规划理论二者的结合之上的,因此,算法作为权力行使的方式可望与其他法律措施的选择不会再有实质性的分歧。算法应用下事实权力的刚硬性与法律的弹性到相互支撑。

(二)法律价值与技术理性相互融合

规划法学强调法律的目的指引,侧重从整体视角和实质层面考虑法律问题,因而也就有将法律价值与技术理性结合的可能。技术理性只有在价值理性的引领下才能更好地作用于人类社会福祉,而价值理性只有在技术理性的支持下才能与时俱进。近代社会以来在工业革命推动下,技术理性日益突显且逐渐与价值理性从一体走向脱离。在人工智能算法时代,技术理性被人们强势推崇占据主导而价值理性却日趋衰微,以至于“技术理性-价值理性”格局失衡。必须调适技术理性与价值理性之间的张力以推动价值理性的复位、回归理性天平的本初,才能发挥理性作为一个整体应有的作用和功能。事实权力下算法权力对法的价值造成冲击,但正因为如此,制度和价值遭受冲击之后却带来了技术价值和法律价值的整合与重塑可能性,传统价值和既有理论在新问题、新挑战下得到突破与发展。我们应当以此为契机,将法的目的和价值纳入算法系统中,而算法技术价值也应在法律目的中得到体现,法律价值和技术理性的融合将使实质正义得以实现,推动事实权力向上、向善运行。

(三)构建算法应用背景解释制度

“规划法学”要求法律具有灵活性和互动性,以协商代替强制,以实际有效性作为追求目标。因此,通过强化个人权利来制约权力从而实现“权利-权力”的动态平衡也是其应有之义。为了应对算法黑箱问题,学者提出“通过赋予算法相对人算法解释权来抗衡算法使用者的算法霸权”,[43]也有学者对西方国家的相关规定进行探讨,[44]针对我国2021年颁布的《个人信息保护法》第24条,学界也以“算法解释权”为名展开讨论。[45]然而,在现实中,算法解释权事实上难以发挥人们期待的实质效用。这主要体现在:第一,即便算法服务提供者进行了说明解释,用户也未必能够理解。目前各大APP都发布了个人信息保护政策或隐私条款,其内容冗长、专业术语繁多,理解其内容要求用户有足够的时间精力以及专业知识背景。第二,用户对侵权行为不敏感。由于算法黑箱的隐蔽性,用户难以察觉算法歧视等行为。

为此,学者提出了重构算法解释权,认为应该结合正当程序原则和沟通信任原则。算法解释权应当被视为一种动态、沟通、相对性的程序性权利。在要求算法运行透明的同时也应给予其和用户之间一定的沟通空间,听取用户的意见,让用户适度地参与其中。比如应考虑解释的程度及标准、解释的时间及方式等,以保证这种解释是能被用户理解的,并且对于用户存在的质疑和意见是有实际解答意义的。[45]然而,就算法本身而言,其自动化运行的基本特点就是从不需要与人进行沟通和商量,这一点既是算法“权力感”产生的重要原因,也是算法效率的保障机理。因此,所谓的“信任”只可能是算法拥有者与相对人之间的人际信任。这种信任的产生基础,本质上无关算法,而只是算法应用的背景。

因而,有理由认为学界提倡与立法规定的“算法解释权”,真正有着实际效用的并非是对算法本身的解释,而是对算法应用的背景解释。从目前学者对算法解释权的定义来看,不论是着眼于“要求提供对具体决策的解释”,[43]还是侧重于决策机理的解释,[46]p80-82其实主要也是要求说明算法应用的背景。从立法规定来看,更加可以认为解释的对象就是背景,而不是算法本身,如欧盟委员会2018发布的《一般数据保护条例》新增规定,“算法相对人有权要求算法使用者向其提供与非完全自动化算法决策的目的、处理逻辑以及可能产生的影响等相关信息”,我国《个人信息保护法》第24条规定“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明”,这里的“说明对象”显然不仅仅指算法本身,至少包括具体决策的相关系统功能、决策过程中使用的个人数据和其他的决策理由,包括但不限于每种指标的功能权重、机器定义的特定案例决策规则、起参考辅助作用的信息等。[47]

并且,正如前文我们强调算法对人们的影响根源在于其背后的权力与法律制度,算法的高度形式化紧紧抓住了人类思维的最核心部分,因而,需要解释的并且能够解释的,事实上也就是权力与法律制度的运行机理以及合理性。

结语

算法应用对人类的影响是现实而广泛的。毫无疑问,算法的广泛应用引起了人类社会结构和生产生活方式的深刻变革。本文仅从权力角度展开,重点针对学者担忧的算法将取代法律做出回应。鉴于权力理论的复杂性,并且,算法在不同领域应用所产生影响的差异性,本文试图抓住最一般的原理,既认识到算法给人类带来的巨大益处,也意识到其对法律构成的挑战。正如尼葛洛庞帝所说:“我们无法否定数字化时代的存在,也无法阻止数字化时代的前进,就像我们无法对抗大自然的力量一样。”[48]p229因而,在智能时代人与算法和谐的命题背景下,片面强调法律对算法的规制并非明智之举。法律应从本身进行反思以回应时代需求,不仅采取积极态度主要做出调整,而且,必然认识到算法所产生的问题根源在于现代社会的权力与法律结构自身,需要采取行动平衡社会权力格局,进而正确看待算法的影响,尊重算法价值及其运行规律,注重法律价值与技术理性相互融合,这也是未来法治和“算法善治”的应有之义。

猜你喜欢
权力法律算法
哪种算法简便
法律解释与自然法
法律讲堂之——管住自己的馋嘴巴
不如叫《权力的儿戏》
Travellng thg World Full—time for Rree
进位加法的两种算法
一种改进的整周模糊度去相关算法
让人死亡的法律
权力的网络
与权力走得太近,终走向不归路