生成式人工智能辅助司法裁判的可能及边界限度

2024-01-21 13:00李俊强
关键词:裁判法官司法

徐 辉,李俊强

(湘潭大学 法学院,湖南 湘潭 411105)

一、问题的引出:生成式人工智能辅助司法裁判的时代契机

生成式人工智能(Generative AI)是指基于算法、模型、规则生成具有相关性、精确性、创造性的文本、图片、声音、视频、代码等内容,从而实现类似人类创造力的技术。从2014年第一个通过“图灵测试”的人工智能尤金·古斯特曼(Eugene Goostman)至2022年11月,OpenAI公司推出生成式人工智能ChatGPT,并且仅间隔4个月的时间就完成了到GPT-4的迭代改进,其展示的显著性能以及多模态生成能力,短时间内就吸引了超1亿用户[1]。ChatGPT的成功也引发了新一轮的AI科技竞赛,继ChatGPT、谷歌Bard及微软Copilot后,我国的百度、华为公司也相继推出了“文言一心”和“鲲鹏”等生成式人工智能工具。总的来说,以大语言模型为代表的生成式人工智能的崛起得益于三个要素的组合,分别是海量数据优势、强化学习算法优势和持续超强算力优势[2],其技术原理可以用“海量数据投喂+深度学习+模拟训练+微调变换+加工输出”予以简单概括[3]。

随着数字司法改革的逐步推进,以ChatGPT为代表的生成式人工智能凭借其深度合成领域的重大技术革新与强大算力,对传统司法裁判实践的理念、构造和运行带来了新的发展机遇与风险挑战,也为司法裁判实践的适应性调整创造了历史性契机。2023年1月30日,哥伦比亚的一名法官首次借助ChatGPT做出了一份法院裁决,被誉为“全球AI审判第一案”。该法官表示,通过ChatGPT可以生成通俗易懂的判决文书,并且可以根据以往的相似案例对本次法院判决进行预测,能够极大地缩短司法的反应时间[4]。

事实上,有关人工智能应用于司法领域的实践,早有先例可循。在20世纪60年代末,联邦德国就着手开展计算机在法律实务中应用可能性研究,并于1973年构建了名为JURIS的司法数据系统[5]。我国最初将人工智能应用于司法裁判领域是在1986年,朱华荣、肖开权主持建立了盗窃罪量刑数学模型。1993年,赵延光教授开发的计算机辅助量刑系统,具有检索、咨询法律规范和对形式个案进行推理判断、定性量刑的功能,被多家法院、检察院所采用[6]。近年来,随着人工智能技术的发展,数字司法改革也逐渐加快进度。2015年最高人民法院首次提出建设“智慧法院”。2022年12月8日,最高人民法院发布《关于规范和加强人工智能司法应用的意见》指出:“要建成具有规则引领和应用示范效应的司法人工智能技术应用和理论体系,为司法为民、公正司法提供全流程高水平智能辅助支持”。实践中,北京高院的“睿法官”、上海高院的“206”系统,以及宁波的“AI法官助理”等审判智能辅助办案系统建设取得了积极效果,减轻了法官事务性工作30%以上,庭审效率提升20%以上[7]。

与此同时,伴随着人工智能技术在司法裁判领域的应用场景和范围不断拓宽,在提高了司法效率,缓和了诉讼案件与法官人员比例失调的关系,减轻了法官的工作量,实现技术赋能的同时,也引起了学者对司法公正的担忧。艾伦教授很早就对人工智能在司法裁判领域的应用表示了忧虑,认为其存在相当的不确定性、模糊性和开放性[8]。王禄生教授指出,人工智能在司法领域的应用可能导致司法改革陷入“技治主义”的路径,“司法改革的复杂性被化约为简单计算,司法改革的难题被通过技术性手段回避,最终导致司法改革发生‘目标被替代’的风险”[9]。孙海波教授也认为:“生成式人工智能在司法裁判中只能发挥一种有效的辅助型角色,过度夸大甚至神化其作用都不可取。”[10]

本文认为,从发展角度看,生成式人工智能辅助司法裁判已然是一种无法回避的客观事实,因而在探讨其应用于司法领域的可能时,亦要详尽剖析其风险,在人工智能的技术理性与司法裁判的价值理性之间找到平衡点,控制技术治理的工具主义缺陷,为其辅助司法裁判建立必要限度与价值边界,以实现智能化司法裁判迈向可信。

二、机制探析:生成式人工智能辅助司法裁判的运用前景

根据人民法院司法审判工作数据统计,2023年上半年,全国法院新收各类案件1 696万件,同比增长11.01%;审结案件1 526.2万件,同比增长9.65%[11]。伴随着立案登记制和法官员额制改革的推进,案件数量的激增与法官数量的比例失调,以及司法资源的错配,造成“案多人少”,出现案件的质与量无法兼顾的情况。因此,通过生成式人工智能工具辅助实现类案推送、证据认定、偏离度预警,能够有效提升司法效率,把法官从机械劳动中解放出来,缓解当前法律适用不统一、案多人少等难题。

(一)智能化类案推送,实现类案同判

“制定法本身隐含着产生司法裁判冲突的风险。”[12]法律适用统一是司法裁判的一种重要的现实约束和目标状态,也是法律效力具有一致性和普遍性的逻辑所在。但是,随着社会经济的快速发展和急剧转型,日益复杂的社会矛盾和裁判文书经由互联网的“放大效应”,导致对司法裁判的争议频发。因此,法律适用不统一成为困扰我国司法的突出问题[13]。“类似案件类似对待”是“正义的最简单形式”。让人民群众在每一个案件中感受到公平正义,是法律适用统一的最终价值目标,也是“法律面前人人平等”的宪法规定。运用生成式人工智能技术辅助类案同判、保证刑罚裁量的一致性和实现类案裁判标准的普遍化是当前数字司法改革的方向之一。

生成式人工智能辅助智能化类案推送,实现类案同判的技术路径是通过接入关键信息、案件事实等数据,然后系统自动匹配检索案件专题库,进行类案比较智能标引,从而实现精准类案推送;并以海量的类案裁判数据为坐标系,模仿法官对待决案件进行预测判决,提供相对规范、一致的量刑建议,辅助法官进行量刑。智能化类案推送不仅可以将法官从重复的机械劳动中解放出来,节省法官在案件检索过程中付出的劳动,提高审判效率,缓解“案多人少”的问题,还限制了法官在司法裁判过程中的权利任性,避免同案不同判、司法腐败和司法不公的情况发生。

(二)智能化裁判偏离度预警机制,降低法官职业风险

《中共中央关于全面深化改革若干重大问题的决定》在论及“推进法治中国建设”时指出,落实司法责任制,“让审理者裁判,让裁判者负责”。当前我国对错案实行终身负责制,既要保质又要保量,无形中会给法官造成巨大的心理压力,而智能化司法裁判技术的出现能够为法官提供可视化的类案裁判结果参考,通过“中间线标准”“平均值标准”对存在较大偏离度的司法判决进行及时预警,以便法官对其所做出的司法裁判进行修正,纾解法官的审判压力,降低法官的职业风险。

(三)智能化证据审核,辅助证据认定

生成式人工智能技术本身的中立性、客观性、明确性和经验性(大数据分析)能够在一定程度上弥补甚至替代主观性较强、相对不确定性的经验法则判断,减轻刑事印证证明模式下的法官印证压力[14]。作为一种科学证据,生成式人工智能对证据能力和证明力的审查内容主要受真实性、关联性和合法性三个属性,以及《中华人民共和国刑事诉讼法》规定的相关证据规则的影响。当前,生成式人工智能对证据智能审核经由四个阶段:阶段一,对案件事实、人员、证据等信息的采集、存储、检索、挖掘分析与归集,建立相应的业务专题库,包括案件卷宗库、证据标准库、案件证据模型库等;阶段二,借助生成式人工智能的深度机器学习和强大算力,进行场景文字识别、证据瑕疵手动标注等分析校验;阶段三,针对诉讼文书卷、证据材料卷等证据文书材料生成若干项校验规则,通过规则模型生成、关键要素分析、逻辑推理等技术方式,构建证据规则校验引擎,实现上述校验规则的自动校验,分析推断证据的真实性、合法性、关联性;阶段四,智能构建可视化、系统化、数据化的案件完整证据链条、案件知识图谱,辅助法官进行证据认定。

智能化证据审核的优势在于能够将司法证明的认知过程构筑于科学证据的数学语言的表达之上,将数学话语上的概率关系与待证案件事实在主观上的信念程度表达为一组数字;通过统一证据的认定标准,辅助法官相对准确、高效地运用证据获得对案件事实的确信,以克服“真实故合法”“印证故合法”“稳定故合法”等不当思路。但是,由于算法可解释性存在不足,如果严格执行生成式人工智能的证据标准追求形式正义,亦有可能会陷入形而上学的“法定证据制度”误区。因此,这种认知路径也存在着不足之处,需要法官在对人工智能证据的证据能力进行实质性审查时,起到“守门人”作用。

三、理性审思:生成式人工智能辅助司法裁判的风险研判

当探讨生成式人工智能给司法裁判领域带来技术性变革时,不能不谈“方式”,生成式人工智能的计算机模型评估事实和预测判决是一种技术活动,其算法黑箱、算法歧视和算法偏见等技术隐患是技术使用不规范所造成的;也不能只谈“方式”,正是因为生成式人工智能无限的创造力和指数级的进化可能,使我们见识到算法伟力的同时,易忽视司法裁判的本质,进而陷入了康德的“纯粹理性批判”的危机。

(一)算法黑箱引发司法公信力的质疑

“正义不能隐居,不能示人之处更容易藏污纳垢。”[15]司法裁判是法官在与双方当事人的论辩过程中,通过法律论证、法律推理对其做出的司法决策进行释法说理,中立解决当事人的矛盾纠纷,进而修复社会关系,维护法的安定性。从这个角度出发,司法裁判的功能在于通过推理或论证的方式达成关于特定正义的解决方案,实现定分止争[10]。膨胀会导致贬值,对司法公信力也是一样,无法被充分理解的司法裁判将成为不会被充分遵守的司法裁判,导致社会的不安定性大大加强。职是之故,就需要法官对生成式人工智能辅助司法裁判的技术、过程,以及结果的有效性、可靠性进行合理解释。但是,受制于算法的复杂性、技术性及专属所有权的存在,“输入—输出”的算法决策过程中存在着我们无法窥探的隐秘,因而智能化裁判面临着司法决策的透明度与可解释性风险。例如,在2016年“卢米斯诉威斯康星州”一案中[16],被告埃里克·卢米斯以COMPAS量刑算法侵犯其正当程序权力为由抗辩,但是该算法的母公司北点以受商业秘密的专有权保护为由成功拒绝披露该算法的评分计算方式。这一开创性的案例引发了算法黑箱如何影响司法裁判透明度的思考。

算法黑箱的存在,不仅使得当事人、辩护人的知情权与抗辩权无法得到保障,也导致法官无法充分地对其所做出的裁判结论进行公平性和准确性的权衡与说明,使得生成式人工智能辅助司法裁判的正当性、有效性、可靠性更具有挑战性,也引发了对司法公信力的质疑。

(二)算法歧视与算法偏见引发司法公正危机

大数据和深度机器学习算法为生成式人工智能技术辅助司法裁判提供了客观性、中立性和经验性的参考或者决策依据的可行性,但是随着时间的推移,已有批判性学者的研究证明,机器学习算法再现了“算法压迫”的形式[17]。当前,生成式人工智能的算法歧视与算法偏见来源于两个层面。一是后天性算法偏见,输入的预训练数据存在偏见或歧视引发了算法歧视与算法偏见。例如,算法在刑事案件中对罪犯量刑时考虑的法定情节和酌定情节,以及适用缓刑时对罪犯再犯罪的风险等进行计算预测时,忽视了罪犯在社会中“暴露的风险”往往是过分歧视和劣势的结果。这些数据往往与风险变量相关,从而带来“更高”的风险评分,尤其是对社会的边缘化群体更是如此。二是先天性算法偏见,算法本身存在歧视与偏见。当前智能裁判工具通常是法院外包给其他企业,如果企业通过技术手段在算法底层逻辑上故意“夹带私货”,预先人工标注算法歧视与算法偏见,法官又不容易察觉出其错误,无疑将会进一步引发司法公正的危机。这种算法歧视与算法偏见对于生活其他方面而言似乎并无大碍,但对当事人的权利与义务造成实质性影响的司法裁判而言,这种歧视与偏见却十分有害,它在客观上会强化“智能化裁判”的错误可能,导致当事人的处境更为不利[18],进一步造成法律主体之间的诉讼地位不平等。

(三)智能化司法裁判无法兼顾实质正义

在法律与司法的语境中,正义的概念已然超出了计算机及统计学科中通常使用的数学计算或定义[19]。事实上,正义不仅仅是一种客观认识,更是一种主观感受。司法裁判仅仅宣示正义是不够的,还需要让民众感受到正义。如何实现个案中的实质正义?这离不开价值判断及法律原则的运用与理解。事实上,法的适用不仅仅是事实判断的过程,也是价值判断的过程,不光包含了法律规则的适用,也包含了法律原则的适用。虽然为了法的安定性,应该优先适用具体的法律规则而不是抽象的法律原则,但是当适用具体的法律规则将导致个案不正义时,为了实现个案正义就需要优先考虑适用法律原则。例如,美国的“里格斯诉帕尔默案”(Riggs v. Palmer)一案中[20],法官就援引了“任何人都不得从其错误行径中受益”的法律原则,剥夺了帕尔默的继承权。近年来,我国司法实践中频发存在较大争议的案件,如深圳鹦鹉案、许霆案、赵春华案及王力军案等。这些案件的审理结果为何难以被社会公众所认可和接受,难以产生更理想的司法和社会效果,很大程度上就是因为法官在司法裁判中施展的价值判断太少,而机械适用法律规则的情形太多,忽视了法律原则的运用,导致了结构性的失衡,即法条主义。但遗憾的是,当前司法实践中,还是以法律规则适用为主要的司法裁判方式。因此,就目前阶段来说,智能化司法裁判还无法真正地兼顾实质正义,体现在如下方面。

其一,从法律条文本身看,相较于逻辑上拥有完整的假定条件、行为模式和法律后果的法律规则,逻辑上缺少明确的假定条件、行为模式和法律后果的法律原则对于生成式人工智能而言更为难以理解与运用,尤其是拥有明确的法律规范三要素是法“可计算性”理想的前提。另外,由于人类语言自身的多样性,在不同的语境、上下文中完全可能呈现出不同的含义、用法,导致立法语言的语义在一定程度上也是模糊、不确定的。总的来说,立法所使用之语言不可避免地具有一个“语义空间”[21]。这就容易导致生成式人工智能对法律规范背后的立法目的和意旨产生误解。

其二,从价值判断看,生成式人工智能无法进行理解与进行价值判断。正如海德格尔所指出的那样:“真理的本质和存在解释是由作为真正主体的人来规定的。”[22]作为规范人们行为总和的法律制度,必然是以人性作为其存在的土壤[23],但对于生成式人工智能来说“法律就是一串‘0’和‘1’二进制的排列分布组成,一种公理,所谓的法律推理是一种纯粹的数学推理公式”[24]。从这个角度出发,生成式人工智能不能感知,也不能理解,其所能起到的作用就是事实层面的判断即“真”“假”之分,无关乎“善”“美”的价值判断[25]。因此,生成式人工智能面对价值判断时要么选择回避,要么将其转化为事实判断。然而,正如康德所指出的,从实然当中不能推导出应然。也就是说,从一个单独的事实当中,不能获得何为实质上正当或不正当的根据。一言以蔽之,通过智能化司法裁判固然能够实现形式正义的价值追求,但是如果过度地依赖于生成式人工智能追求类案同判,必然会回到“机械主义法学”的老路上来,走向实质正义的对立面,严重背离司法与法治的目的。

其三,从案件事实的认定看,生成式人工智能对新型、疑难、复杂的案件理解不能。不可否认,生成式人工智能辅助司法裁判在一些简易案件上,如盗窃、诈骗、民间借贷等案件中,确实能够起到相当大的作用。但是,随着社会经济的快速发展,各种新型、疑难、复杂的案件也层出不穷。面对层出不穷的新型、复杂的疑难案件,法律本身也存在立法空白、内容不全面、规定模糊等问题,规范之间的内容冲突也在所难免。例如,仇某明侵害英雄烈士名誉、荣誉案。两者共同导致了法律在个案中的指引会出现中断,甚至面对新型、疑难、复杂的案件这种指引会被用尽[10]。“生活的丰富多样性不允许法律为所有的个别情景都提供抽象、明确,同时又适当的规整。”[26]这种“开放性的结构”从法的安定性(也即法的可计算性)角度看乃是一种缺陷,但是从法的适应性(Schmiegsamkeit)角度看却是一种优势。它使一般的立法语句对被规整之生活情景具有一定的适应能力。然而,这种“开放性的结构”对于AI来说却是致命的,Open AI大语言模型的核心成员Jack Rae在《压缩带来通用人工智能》(《CompressionforAGI》)一文中指出,生成式人工智能的“智能”是一种压缩(即简化)[27]。面对无法律规范适用的新型、疑难、复杂案例时[28],生成式人工智能的计算过程有两个必经步骤:一是基于语言“统计概率”对案件事实进行压缩、抽取案件要素并转化为相应的数字代码;二是从相同语言模型里根据概率大小强制性匹配相对符合的法律规范进行关联,预测司法裁判结果的概率分布。这种“强制性”的修正、压缩还原及概率判断必然会扭曲事实,机械地推导出不合理的司法裁判结果。这本质上是一种“随机正义”,与抛硬币、掷骰子并无二致。申言之,对于生成式人工智能而言,输出结果的正确与否并不重要,最重要的是保持与提示词在统计学上的一致性。凯尔森就曾先见之明地指出具体规范无法按照逻辑或数学原理从根本规范演绎出来[29]。波斯曼也独具慧眼,对滥用统计学的现象予以批判[30]。

其四,从法官的自由裁量权看,生成式人工智能不可避免地会侵蚀法官的自由裁量空间。司法裁判需要法官的目光在事实与规范之间往返,正确对待存在与当为之间的对应关系,寻找具体的、真实的法,而这离不开法官的自由裁量。如前文所述,智能化裁判这一技术的核心在于通过全数据定量分析的方式呈现量的整体把握[31],进而统一司法裁量基准,抑制权力寻租、司法腐败,以及克服裁量的随意性。这虽然形式上满足了“法律规则面前人人平等”的普适性要求,但也不可避免地造成了司法的僵化、创新性的贫乏及实质上不平等,陷入“自动售货机式法官”的陷阱。正如庞德所指出的“没有一个法制体系能够做到仅仅通过规则而不依靠自由裁量来实现正义,不论该法制体系的规则系统如何缜密,如何具体。所有的实施正义的过程都涉及自由裁量与规则两方面”[32]。另外,当面对无规范适用的场景时,在“禁止拒绝裁判原则”下,法官的自由裁量也能够进行“法律续造”,填补制定法漏洞,弥补法律滞后的缺陷,然而生成式人工智能的“幻觉”(Hallucinations)的缺陷,使其根本无法担当如此大任。此外,司法裁判不仅要放眼于案件事实,法律规则等可以“量化”的信息,还要超越规范与事实。对那些埋藏在规范与事实之下的道德伦理、善良风俗、惯例等非量化信息予以顾及,都离不开法官的自由裁量权。这些“非量化”的信息对于人工智能而言,却是一种无法理解的奢望。

(四)算法权力对司法责任制的冲击

风险与责任之间具有必然的因果联系,当社会向一个人为的不确定性风险,以及利益博弈下所支配的未知领域移动时,就必然出现对责任的讨论[33]。在风险现实与治理规则无法调和的现实矛盾下,人工智能成为司法工作人员转移和分担责任的对象,为司法卸责提供了便利。

在司法责任制的总体构架中,法官依法独立行使司法裁判权是确保可问责性的前提和基础。但是,随着人工智能越来越多地被使用在司法实践,在诉讼爆炸、年底考核、审限制度刚性规定等多重压力的影响下,势必会造成法官过度依赖生成式人工智能的倾向。法官一旦在司法决策中产生技术依赖,“算法权力”的风险就无从避免,进而造成司法权独立性的权力配置和运行机制分崩离析。此外,生成式人工智能辅助司法裁判也势必会造成审判主体适格性的异化,以及庭审结构的坍塌,事实层面会出现算法的设计者和法官共同做出司法裁判的局面。当审判权转移给其他人或物时,审判主体不能确定,那么责任链条的分配就会产生追责难题,出现“动因迁移”(agentic shift)的可能性就大幅度提高,致使司法责任制难以得到落实。

四、迈向可信:生成式人工智能辅助司法裁判的风险纾解

智能化裁判在提高司法效率,实现类案同判和审判可预测性的同时,亦不可避免地引起公众对司法公信力与司法公正的质疑。针对生成式人工智能工具存在的算法黑箱、算法歧视及算法偏见等技术性风险,可以通过数据治理、算法治理、控制治理三个维度予以缓解。

(一)数据治理

海量、准确、一致、规范的司法数据集是生成式人工智能预训练和微调的“富矿”,也是生成式人工智能更智能化地辅助司法裁判的先决条件。已有研究证明,生成式人工智能基础模型的生成内容与训练数据存在相关关系[34]。

1.开源增量:拓宽司法数据来源

当前,中国裁判文书网、北大法宝、威科先行数据库等案件信息检索数据库为生成式人工智能深度学习训练提供了较为全面、系统的司法数据支撑和来源,但是距离全面数据化的要求仍然具有较大的差距。有学者指出当前我国裁判文书公开具有“伪公开”的现象[35]。例如,涉及个人隐私的案件、调解结案、离婚诉讼等无法完全上网。除了“伪公开”的问题之外,当前裁判文书公开的数量上也呈现急剧下降的趋势,可能只有审结案件的一半数量[36]。笔者统计,仅就民事案件而言,2022年全国民事裁判一审文书公开量为4 388 998份,相较于2021年8 155 478份,下降了46.18%。因此当前亟须全面、及时地提升裁判文书的公开量,拓宽司法数据的来源。第一,就特定不宜公开的裁判文书可以采取隐名条款措施,通过隐去、删除相关信息后予以公开。第二,出台相关裁判文书公开实施细则,通过细化裁判书、裁定书与决定书之间的差异,列出详细的公开类目、具体情况及标准等方式,强化裁判文书上网的可操作性。第三,司法数据流通上,通过完善不同地域、层级法院之间的案件数据信息及时共享机制,以便生成式人工智能即时联动响应处理数据信息。

2.提质增效:提升司法数据质量

保障数据质量是正义的要求,保障正义能预防人工智能带来的极端分化[37]。裁判文书形式的规范化、格式化,以及充分说理能够有助于生成式人工智能工具对司法行为的分析、学习和理解,保障智能化裁判结果更加精准、公平、公正。司法数据的质量可以通过形式与实质两种途径予以提升。一是统一裁判文书内容的表达形式,避免生成式人工智能的错误理解。通过统一裁判文书内容的表达形式,不断提升裁判文书的格式化、规范化程度,从源头上减少少录、错录的现象。例如,字词、标点、表述、语法等错误。二是明确裁判文书理由阐述的具体要求,加深生成式人工智能对司法规律的学习把握。裁判文书说理必须坚持以事实为依据,以法律为准绳。针对具体对象与问题,做到思路清晰、层次分明,符合案件客观事实,充分地论证、阐明法律规范与案件证据事实之间认定过程的正当性与合法性,加强裁判文书说理的法理性、逻辑性,实现理由、事实及判决结果相互一致。

(二)算法治理

1.元规制:算法伦理的嵌入

“伦理先行是智能算法应用于社会生活领域的首要,也是科学技术健康发展的重要保障。”[38]在算法设计上嵌入算法伦理规范,有助于判断算法行为是否符合伦理道德的标准,进而从价值层面将算法歧视、算法偏见等算法风险列为禁止行为,进行矫正与规训,实现“元规制”。具体要求应该包括以下几个层面。一是研发层面,虽然在技术层面算法是价值中立的,但算法自研发之初就掺杂了算法设计者的价值取向,具有明显主体属性。因此,需要加强对人工智能研发相关活动的约束机制,强化研发人员的自我管理、自我约束意识,规制其不从事违背伦理道德规约的算法研发。二是理论层面,监管部门或行业协会出台具有一定前瞻性、兜底性、灵活性的算法伦理标准,揭示其中可能侵犯的实际利益,以应对日新月异的算法风险变化,弥补算法伦理标准滞后的缺陷,加强实际应用,引导算法向善。三是制度层面,通过建立算法备案、算法安全评估、算法问责、算法治理、第三方监管等具体制度,明确算法设计者的义务边界和权责定位,从内到外实现对算法伦理的全方位审查,以此避免算法滥用。

2.内核优化:从算法黑箱到算法可释

有学者指出:“相对于算法的透明度,算法的可解释性才是目的。”[19]不难理解,算法的透明度固然很重要,但是考虑到参与诉讼的当事人面对如“天书”一般的复杂代码,算法的透明度所起到的效果收效甚微,根本无法打消社会公众对智能化裁判司法公信力的质疑。但是,通过恰当的算法解释方式,至少能够实现大部分智能化司法决策环节的信息留痕,最大程度地复现智能化司法决策的过程、结果和应用,从技术层面揭开算法内部的歧视与偏见的面纱,实现算法的“去黑箱化”。因此,增强算法的可解释性是当下促进智能化裁判迈向可信,获得公众“算法信任”的关键。具体的解释方法如下。

一是以问题为靶向的局部解释。一般情况下对司法裁判的不认同往往集中于其中某个点,很少情况下出现对整个判决的否定,因此相较于动辄将整个算法背后的复杂逻辑及其系统的工作机制进行全面详解的公式化全局解释,以“问题为靶向”的局部解释则更为直观、简洁、省力,更能够提升公众的理解程度。其基本思路是在生成模型预测结果的同时,同步设计一个模型生成对该结果的说明。常见的局部解释方法包括敏捷性分析解释、局部近似解释、梯度方向传播解释,以及激活映射解释等[39]。

二是根据不同的受众进行区别解释。专业知识、公众预期、工作背景等均可能对算法的理解和信任产生影响,因而面向不同的主体强调算法解释的不同方式,是提升算法解释效果的必然选择[40]。例如,对缺乏相关技术知识认知背景的当事人可以采取模型蒸馏解释方法、可视化的图片解释法等被视为技术上不完备、不彻底的解释方法,反而实际上可能更有效果。

(三)控制治理

当前,无论是学界还是实务界已经形成了统一的共识:司法的效率绝对不能以牺牲司法公正为代价。无论人工智能如何发展,其永远无法代替法官。在这场机器与法官对司法决策权力的“逐鹿”中,以人类大获全胜为告终。因此,为了合理确定生成式人工智能工具辅助司法裁判的边界限度,保障智能化裁判健康发展,应始终以彰显与强化法官的主体地位、统筹案件繁简分流机制下分层应用、严格落实司法责任制为出发点。

1.以人为本:彰显与强化法官的主体地位

司法活动的本质是人类实践理性的具体应用。从这个角度出发,司法裁判不可能也不能成为纯粹的技术,过分盲从、依赖、不加节制地使用人工智能技术会必然会动摇法官的地位,进一步压缩法律议论的空间。事实上,依据法理、人情、伦理道德,以及对案件事实细致入微的洞察,并通过法官的自由心证与“法感”形成内心确信,最终做出妥善处理的司法裁判实际上是一种超凡“艺术”,不亚于写作、绘画与演奏等艺术活动。即使生成式人工智能具有强大的深度学习能力,也无法完全替代法官独立做出兼顾法律效果、社会效果和政治效果统一的司法裁判;并且数字司法改革的初衷也不是让生成式人工智能代替法官独立裁判,而是让生成式人工智能在司法决策领域中扮演辅助性的角色,辅助法官依法、全面、规范地收集和审查证据,统一法律适用标准,保障司法公正,实现法律面前人人平等。特别是当前,生成式人工智能仍有许多技术难题需要攻关,司法改革也处于稳步扎实推进的阶段。因此,就需要始终彰显与强化法官的主体地位,把握好智能化裁判的尺度,确立法官对司法裁判的最终话语权。

2.程序分流:统筹案件繁简分流机制下分层应用

可以看到,生成式人工智能辅助司法裁判在法律关系明确、事实清楚的简单案件中展现出强大的效率优势。但是如前文所述,其在疑难案件中存在着无法识别、理解的困难。因此,在当前繁简分流机制下,根据简单案件与疑难案件的性质分层适用人工智能辅助司法裁判,能够更好地平衡司法公正与效率之间的关系。一是突出简单案件的效率要求。简单案件的法律关系相对单一、明确,事实清楚,且诉讼程序上一般都为速裁程序、简易诉讼程序、小额诉讼程序,所以生成式人工智能可以凭借其指数级的算法处理能力和反应速度,辅助法官进行要素化审判,包括证据审核、案例分析,预测判决等,实现了案件全流程快速审理,同时亦尽可能地减少错误。二是削弱疑难案件的标准化控制。疑难案件的法律关系、案件事实,以及相关证据材料相较于简易案件更为复杂,对此生成式人工智能存在类案识别困难,造成无法实现精准地推送和预测判决的困境。因此,在疑难案件中应当弱化生成式人工智能在司法裁判中的标准化控制,适度运用智能化[41]。

3.揭开人工智能面纱:落实司法责任制

韦伯认为:“一个人或很多人在一种共同体行动中哪怕遇到其他参加者的反抗也能贯彻自己意志。”[42]就现阶段而言,生成式人工智能还不具备具有责任能力的现实基础,还不能实现法律意义上的“人格化”。从审判地位来看,生成式人工智能亦不可能挑战法官的主体地位,用与不用、接受或不接受完全取决于法官自我意志和选择,法官依旧把控着司法审判的全过程。因此,需要揭开人工智能面纱,严格落实司法责任制,“让审理者裁判,让裁判者负责”。此外,严格落实司法责任制也能使法官更加审慎地依赖人工智能,“有思考地服从”人工智能,加强法官对裁判结果的自我检验与审查,增强法官的责任担当意识,保障司法的公正。

在明确了严格贯彻司法责任制后,还需要结构化地分析智能化裁判致损时的状态与原因,进一步划分司法责任与司法豁免权之间的边界,明确法官的责任范围,构建权责一致的责任分担机制。若是由生成式人工智能运算逻辑错误引起的决策错误,法官尽到合理的审查注意义务之后,仍未发现错误的,则法官不用承担责任;若是由法官自身过失或者渎职致使生成式人工智能决策错误的,则由法官承担主要责任;若是由生成式人工智能的设计者的原因引起的决策错误,则由设计者承担主要责任,法官不用承担责任。

五、结语

从发展角度看,随着生成式人工智能发展“奇点”的到来,生成式人工智能与司法裁判领域的融合注定是无法回避的客观事实,但我们应当始终保持“技术谦虚”的态度,即要有全局意识,既不要断定,也不要妨碍技术的具体功能。一方面,生成式人工智能辅助司法裁判在一定程度上确实能够通过类案推送、辅助证据认定、偏离度预警等方式实现形式正义的可视化与提升司法效率,具有积极的一面;另一方面,生成式人工智能现阶段仍有许多技术风险需要攻关,其算法黑箱、算法歧视、算法偏见等依旧是无法绕过的客观存在,且其“诱人的正义”不可避免地会造成法官过度依赖生成式人工智能,导致人被机器所“奴役”。

正如魏泽堡竭力所指出的那样:“人的智能是不能移植的。”[43]反思司法裁判事业是以人的情感、理性、经验为基础的价值判断。因此,在司法裁判这样开放的场域中,不应完全放手由生成式人工智能去操作,法官在司法裁判领域的主体地位始终不能被动摇,需要审慎地应对技术权力与司法权力的共建,避免“人在环中”(human in loop)的情况发生。

猜你喜欢
裁判法官司法
制定法解释中的司法自由裁量权
法官如此裁判
法官如此裁判
法律裁判中的比较推理
司法所悉心调解 垫付款有了着落
清代刑事裁判中的“从重”
非正式司法的悖谬
做“德法兼修”的好法官
当法官当不忘初心
论司法公开的困惑与消解