司法人工智能对权利保护的挑战与应对

2023-10-01 16:51曹晟旻
江汉论坛 2023年9期
关键词:权利保护

摘要:权利保护对于司法人工智能的应用至关重要。在这个权利保护过程中,既要防止技术侵权导致司法公信力降低,又要避免技术引发主体间权利的不平等,还要警惕技术蒙昧主义对权利意识的消磨。从内外两种视角来看,司法人工智能的构造在本质上属于技术赋权,同时还要跟创新系统、秩序系统形成有机整体。针对司法人工智能可虞的权利保护风险,应透过技术把握问题的本质与核心,而就权利保护的责任来说仍要遵循司法的基本规律。在价值导向上,司法人工智能应用中的权利保护必须反思权利优先论,通过构建“善”的维度来破解其间涉及的道德伦理问题;在实践要求上,司法人工智能应用中的权利保护必须立足不同主体与场景提出相应准则。权利保护对司法人工智能而言绝非在是与否之间作出选择,而要努力将其从物性的机械能力提升至人性的认知能力上来,并辅之以具体可行的操作方案。

关键词:司法人工智能;案件审判;权利保护;技术赋权;新兴权利

基金项目:国家社会科学基金青年项目“美好生活视域下新兴权利生成与保护的法治路径研究”(22CFX001)

中图分类号:D926 文献标识码:A 文章编号:1003-854X(2023)09-0120-11

长期以来,人工智能发展相对缓慢,在司法领域的应用尚未起步,由此引发的权利保护问题并没有引起重视。但是近年来,司法人工智能迅速推进,在案件裁判中的应用渐次增多。司法人工智能内含高度复杂化、专业化的技术设计,有助于摆脱物理形态的束缚,塑造无形化、超时空、扁平化的结构,以便降低主张权利的成本支出,从而更好地保护权利。但是,“从现行司法过程的制度和文化以及审判各方的权利关系来看,必须作出足够的调整才能恰当地容纳和利用这些‘新人’。”(1) 仅凭司法人工智能虽未能完全化解权利冲突,却可借此为该问题涉及的内心确信、经验法则、不确定性概念等提供数据支持与参考,以促成权利冲突衡量规则持续演进。人工智能的深度学习更是为确权催生出新的法律共识达成机制,而维权的手段和方式亦会网络化,更强调互联网行为的能力水平。例如,“人民法院运用最新的技术工具提升司法能力,探索重构网络司法制度内的权利分配和程序设计,让司法规则接纳互联网规则、司法内容涵盖互联网内容、司法效率跟上互联网效率。”(2) 毫无疑问,司法裁判对人工智能应秉持开放接纳的积极态度,以着力推进智慧法院建设,用人工智能的深度学习带动司法系统的深入学习,建立智能化辅助办案、协同配合、监督管理的全方位架构,但同时相伴而来的技术侵权问题亦愈发凸显,需要加以关注。

一、司法人工智能对权利保护的挑战

在司法人工智能狂热追逐功用与效率的同时,难免让人担忧司法公正尤其是程序公正何以实现,以及权利保护是否会受到消极影响。例如,司法人工智能的“信息倾倒”行为,不仅直接侵害阅卷权和对质权等具体权利,还有故意转移举证责任之嫌,使无辜者行权担责的潜在隐患明显加大。再例如,司法机关借助人工智能抓取信息的速度远超过绝大多数诉讼参与人,获取信息的范围也远大于传统意义上的证据和诉讼材料,导致诉讼参与人在行使权利时力所不逮。诸如此类,显性或隐性的技术侵权均会使司法公信力受损。除此以外,司法人工智能的应用还可能使权利主体之间的关系陷入不平等,甚或利用技术蒙昧主义来消磨主体的权利意识。

(一)技术侵权使司法公信力降低

司法机关借助人工智能,完全有能力掌握诉讼参与人的诸多信息,作为案件裁判的有效依据。一旦诉讼参与人察觉司法机关有可能是个人隐私的泄露渠道,必定产生不满情绪乃至提起维权诉讼,甚至引起全面的司法信任危机,有时这种担忧、恐慌、茫然乃至悲观的情绪会先于司法人工智能而出現。另外,对于算法主导的司法人工智能自动决策来说,正当程序原则适用的传统条件不再具备,该原则注重保护的各项权利及其要素均遭到严重侵蚀。(3) 对此,立足个体的权利救济模式并不能切实应对司法人工智能的复杂性,不但难以把握算法的准确性与偏差值,而且很难对算法进行评估或审核。在刑事诉讼中,人们对司法人工智能的普遍担忧,还在于公检法之间可能借此实现互联沟通,不利于强化监督制约、阻断恶意串通,极易使控辩审三方的关系走向失衡,进而降低权利保障的实际水平。

司法人工智能本身包含准公权力,其技术性与资本性不应被忽略。在司法领域内,权力与权利的资源分配原本就有不均衡之隐忧,随着人工智能技术的引入,则更要防范这种不均衡现象。至于司法机关与诉讼参与人之间的技术鸿沟,不仅会影响个人行使实体权利,还会削弱个人的程序权利,致使个人在诉讼过程中寻求权利保护显得有些被动。尽管根据实体正义与程序正义的双重要求,只有为诉讼参与人明确规定知情权、参与权、抗辩权等应有的权利,才能使其真正知悉司法人工智能裁判的论证逻辑。但司法人工智能的技术门槛使个人行使某些权利的难度陡然增加,加之司法公开的效果因流于形式化而遭受减损或侵蚀,随之而来的便是诉讼参与人的权利克减。特别是司法人工智能使用的数据信息处于垄断、封闭状态,诉讼参与人缺乏可行的获取途径,他们对司法的认同度就会因权利受损而降低。

如果人工智能在司法中的应用可能导致权利与权力的失衡,或阻碍主体对权利的行使,那么最终会损害民众对司法人工智能的信任,而是否可信赖既是司法人工智能应用的关键所在,也是权利保护的应有之义。“考虑到AI将在证据审核、法律信息检索、法律论证和证据推理等方面深入介入到案件审判流程,必将对当事人的权利造成重大甚至是决定性的影响,可解释性对构建可信任AI至关重要,也是司法公信力的体现。”(4) 有鉴于此,可解释性应被纳入司法人工智能裁判的评估指标,确保诉讼参与人有权获取相关信息。但值得注意的是,非国家力量经由人工智能进入司法程序,也会对权利保护构成严重威胁。在人工智能被应用于司法裁判之后,权利保护面临的主要隐患不只是纵向上的国家权力,还包括横向上的非国家力量。司法人工智能的运行伴随着决策权的让渡,由于诉讼参与人并不知道人工智能是否实质参与司法裁判,以及发挥作用的范围与限度,所以他们对裁判结果的异议会被不自觉地归于审判人员,使之成为司法人工智能的替罪羊。如果司法裁判对人工智能产生深度依赖,那么审判人员和诉讼参与人都会陷入“技术沉溺”,直至沦为司法人工智能系统的奴隶或附庸,而民众对司法裁判可能的负面评价在很大程度上都源于人工智能本身。

(二)技术导致权利主体间不平等

人工智能的应用离不开算法,而算法黑箱引起的偏见是多层面、多视角、多维度的,必会波及到司法领域。“在这样的场景中,算法控制者经其掌握的算法从而对个人了如指掌,但反过来,算法于个人而言却是‘黑箱’,这将导致个人与算法控制者之间权力与信息显著的不对称。”(5) 这种权利主体间的不平等必然会反映在算法控制者与普通参与者之间,智能化的司法裁判体系极有可能造就数字弱势群体。“随着算法将人类挤出就业市场,财富和权力可能会集中在拥有强大算法的极少数精英手中,造成前所未有的社会及政治不平等。”(6) 即使司法人工智能演进为便捷实用的诉讼工具,但当事人接近正义(7)的平等性也很难改善,其间定有主体刻意减少数据释放、隐藏数据足迹或拒斥数据共享,乃至打造出迎合司法人工智能裁判系统的数据指标,借此在诉讼中获得优势。对此,有学者曾表示过担忧:“当事人对影响诉讼结果的因素有权利提出救济诉求,但算法的参与会产生当事人难以质疑的隐性因素,诉讼的公平和正义无法获得保障。”(8) 由此可见,人工智能的运用可能会打破诉讼参与人原本平等享有的多项法定权利,尤其是知悉诉讼进程、参与诉讼过程、举证与质证、参与法庭辩论等多项诉讼权利。

近年来,智慧法院建设蓬勃兴起,旨在以高度信息化的方式,依托人工智能支持司法裁判。然而,既定诉讼权利难以适应新的裁判机制,不但妨碍诉讼参与人行使程序性权利,并会对审级制度造成冲击。“对于诉讼参与人而言,寻求司法救济的能力也因智慧法院而加剧分化。从应然性的角度来看,智慧法院很重要的功能就是提升司法服务效能,保障公民接近司法的权利。但是大数据的技术壁垒和应用成本可能在事实上形成新的数字鸿沟,进一步拉大而非缩小诉讼参与人诉讼能力的不均等。”(9) 虽然由于技术发明或知识应用造就的主体间不平等,早在原始社会的工具制造与使用过程中就已有之,并非当下出现的新鲜事物。但司法人工智能设计要对机器的自主式深度学习有所警觉,在解读数据与处理信息时应避免偏见引发的技术侵权。技术发展未必自觉遵守全民原则,因此要防止司法人工智能沦为技术强者独享的特权与乐园。相反,司法人工智能作为辅助工具,应保障享有诉讼权利的各方的地位平等,而非片面增强个别主体的诉讼实力,否则便会违背包括诉讼权利平等在内的诉讼基本原理。当然,平等关切的要点在于使所有诉讼主体平等地享有技术与知识带来的便捷和高效,而非对司法人工智能应用的直接拒斥。

(三)技术蒙昧主义消磨权利意识

以高新科技的综合发展为背景,人工智能逐渐强大的典型表现就是大规模进入人类社会的生产生活。人与智能机器的进化正在“相向而行”:一方面,人的身体不再是完全自然的,而是将被改造、编辑或重组;另一方面,智能机器通过模拟人类智慧,逐步获得像人那样行动和思考的能力。随着人与智能机器的思维、行为趋于协同或一体化,对“人是什么”的回答便日渐模糊,原本如思想、劳动、制造或使用生产工具等区分两者的评判准则均受到严重冲击,都不再是人的“专利”。当前人工智能的自主性特征与优势越来越明显,对人独享的主体地位必将造成严峻挑战,不排除人工智能倚仗自身的强大能力,要求被赋予平等的人格、身份或权利。在人机关系的重新定义中,人所占据的主体地位很可能被颠覆,具有的权利意识也很可能被消解。

人工智能的不断强化直接或间接地改变着人的主体地位,容易使人类降格为多种理性存在者之一,猛烈冲击着历尽艰辛建立起来的权利意识。在司法领域内,人工智能蕴含的解放力量,转而成为个人获取权利与自由的桎梏和阻力,使审判人员面临被工具化的风险,逐步丧失对司法裁判的否定、批判与超越。相对于诉讼参与人来讲,司法人工智能对审判人员的考验更为严苛,因为“人工智能技术引入司法程序中,侵蚀诉讼等边三角结构进而造成当事人权利的损害还可表现为法院在對人工智能技术以及各种其他信息化辅助办案系统的接受和运用熟练程度较当事人更高。”(10)如果审判人员不能在司法人工智能中占据主动,那么就会受制于人工智能技术。长此以往,司法人工智能便在生产关系中完成对自然的统治,在意识形态中实现对社会的统治。在某些情形下,人工智能对司法裁判形成的宰制还是极为隐蔽的。司法人工智能不仅未能演化为人类智慧般的存在,反倒使裁判者不自觉地被操纵、被控制而趋于单向度,直至对权利保护构成威胁。

司法人工智能遵循嵌入逻辑,在强调效率优先的同时,易使权利主体的范围变得模糊,权利内容出现异化,行使具体权利的可操作性降低。司法人工智能较之于传统裁判的优越性在于,过度推崇其替代性将引致技术蒙昧主义盛行,使司法裁判异化为经由自助操作输出证据演算的胜负结果,而诉讼参与人的知情权与选择权等均被剥夺,或因没有救济渠道、投诉无门而失去参与感。马尔库塞认为,虽然人们已利用技术达到免于匮乏的自由,但独立思考、意志自由和政治反对权利的基本批判效用却被逐渐剥夺。(11) 司法人工智能内含的算法权力是隐形的,其并非从主体视角看待个人,而是将个人看作可被计算、预测和控制的客观物加以对待,并巧妙绕开作为权利主体的个人,通过消解人的主体地位来侵犯个体权利,因而有使其陷入客体化的风险。这不免让人担忧司法人工智能被打造成强硬而蛮横的裁判者,以致引起权力专断与权利消解。

权利体系具有某种程度的开放性,同时考虑到新兴权利的不断涌现,权利冲突是司法裁判时常面临的现实难题。尽管现有审判规则能够缓解权利之间的紧张关系,但仍需努力发挥法律智慧来应对层出不穷的复杂案情。对于司法人工智能来说,“机器裁判颠覆了许多司法的基本预设,消解了人的自主权,违背了人类发明人工智能的初衷,而诸如推动类案类判、限制自由裁量等辩护理由都是难以维系的”。(12) 自主性被界定为人类的根本特征,其具有双重含义:一是相对于其他个体而言的,二是相对于其他理性存在者而言的。自主乃是某种资格和权力,与自主性相伴随的是未决状态。但针对权利纠纷的司法裁判多是依据法律原理与自然正义而作出的,已远超出人工智能的能力范围。将人工智能引入司法裁判,可能会使纷繁复杂的司法裁判趋于简单化、机械化,权利保护被确立为重要考量指标后也会受到机械或刻板的对待。诉讼参与人不能被简单地理解为司法人工智能的处理对象,法律规范也不能被简单而粗暴地套用。面对不同的社会结构场景,司法人工智能的运行方式多少存在差异,这取决于权利保护的具体要求。否则,司法裁判者与诉讼参与人之间就会出现信息不对称,乃至引发公共权力与个人权利的失衡。到底是法律驱动技术,还是技术驱动法律,关系到诉讼参与人的权利是否会遭到侵蚀,以长远眼光来看,这关乎权利意识在人类文明中的发展走向。

二、司法人工智能赋权的系统构造

在现代国家治理体系中,司法系统主要用于塑造和维系社会秩序,是权力与权利之间以及权利相互间的校准器。人工智能要在其间发挥功用,必须以恰当的方式嵌入其中,而程序性权利的享有与保护无疑是很好的观察角度。鉴于不同案件纠纷指向的法律关系有所差别,反映到生活层面有物理层、内容层与规则层等类型之分,人工智能进入司法对程序性权利造成的影响也各不相同。对此,司法人工智能尚未有系统的理论探讨和制度安排加以回应、引导与规范。但法治乃权利与义务的平衡之治,所以应明确司法人工智能赋权的运作机理,力求完成权责协调的司法人工智能模式建构。

(一)司法人工智能赋权的内部建构

在传统观念中,自由意志、主体意识、责任观念等是享有程序性权利的基本要素,且遵循全有或全无的绝对表达。暂且不论当代神经科学能否证实人类大脑里有所谓的中心控制区域,但至少能够肯定现有审判活动坚持立足人本主义的基本立场,对程序性权利的规定、行使和保护均带有主观认知成分。但人们有理由怀疑无主体角度更能反映案件的真实情况,关乎程序性权利的惯常做法实乃陷入自我指涉的幻想或怪圈,而主体性视角的先入之见极易演变为理解司法人工智能赋权的根本障碍。至于司法人工智能如何影响程序性权利,有必要再从万物平等的客观主义维度来阐释。为此要区分“复制”和“模拟”这两个概念,也就是基于物理层面还是功能层面来认识司法人工智能赋权,以此判定程序性权利在司法人工智能中的呈现究竟是生命机理的机器再现还是心智效用的技术达成。很显然,模拟不是刻板复制人的生理构造与行为方式,而是在实质意义上的创造性达成。尽管司法人工智能的出现使程序性权利存续的某些条件不再具备,却不妨碍做到功能模拟,而不必依赖相同的现实存在。只要司法人工智能可以达致程序性权利的预设功用,就表明机械还原的做法是不必要的,切不能以人的组织结构和行动习惯来评判智能机器的运作机理。

司法人工智能源于人的认知与行为活动,但发明问世后又会酝酿出自身的特殊逻辑,挣脱人的控制、偏离预定轨道,有时甚至较为“任性”或具有颠覆性。在此背景下,程序性权利亦会随之改变,具体表现为由“具身”到“离身”的演化,也可以说是从形式与内容相结合到内容脱离形式的演化。按照符号主义、联结主义与行为主义的划分,(13)目前司法人工智能最常用的是推算逻辑,相应的程序性权利既不具身也不具境,最容易形式化、程序化、简约化、单纯化,与之对应的是符号人工智能,旨在模拟论证严密的理性思考。但传统意义上的程序性权利离不开重返人类心智的强人工智能,不单受制于表达物性能力强度的“算力”,也不只取决于表现容量密度的“贮力”,而集中体现于表征智慧能力的“算法”。

随着科学技术的不断进步,司法人工智能注定要回应公共结构的变化、公正理念的塑造与社会组织形式的调整。若认为任何权利的增长都源于这些因素,那么司法就必须以满足在此背景下的公正诉求为使命,否则正当性的获得与合法性的确证都将成为空谈。这就要求司法人工智能裁判与既有的诉讼法规定有效衔接,科技研发人员为程序性权利编写代码应遵循增量赋权的变革策略,原因在于各类主体在诉讼过程中被司法人工智能激发出很多新的权利诉求。对于程序性权利的保护,司法人工智能既要符合公平正义的价值理念,更要为诉讼参与人提供自我赋权(Self-Empowerment)的切实渠道。区块链的分布式结构恰好能够促成这种赋权,将程序性权利资源以去中心化、非主体性的方式分配给各个主体。这种司法人工智能赋权不再直接经由制度安排来实现,而是在规则之外通过技术手段来获取,其速度与深度都将有显著提升。

司法人工智能赋权直接指向程序性权利,建立在人权司法保障与现代科学技术的深层次融合之上,但主要停留在技术层面,因此还要注意三个方面的重要问题:一是司法人工智能赋权要坚持目标导向,使程序性权利保护的预设期待契合于案件审判的价值追求;二是司法人工智能赋权理念要坚持问题导向,使程序性权利保护的努力方向对应于机器裁判的全新问题;三是司法人工智能赋权要坚持结果导向,使程序性权利保护的实际效果不低于传统诉讼的基本要求。对于司法人工智能赋权来说,科学而合理的程序性权利设置既能为其主张提供事前规制,又能为其实施提供事中指引,还能为其评价提供事后标准。程序性权利的领域和边界是由占有资源的比例和份额所决定的,但面对智能机器这个新型利维坦,诉讼参与人要真正享有程序性权利,信息和技术资源无疑是关键的考察因素。随着人工智能进入司法的程度越深、范围越广,如果人在这类资源的占有上处于劣势,那么主体地位就越有可能被削弱,而程序性权利本身亦难免受挫。然而,全球范围内科技革命的狂欢浪潮则会淹没这种潜在的忧虑与担心,人们原本期盼的司法人工智能带来的红利、便捷与高效不仅没有出现,等来的还可能是原有程序性权利面对诉讼利益维护难以做到对症下药,其原因在于仅凭权利来保护利益并不周延。在行使权利与保护利益之间,不能缺少的中介和桥梁是他人行动,理由是“利益需要通过他人行动予以保障的情形多种多样,不同情形中利益保障所要求的行动内容、行动主体表现不一。”(14) 但是,并非每项义务都有对应的权利。与此同时,该问题在很大程度上还是由司法人工智能赋权存在于技术而非制度或价值层面所造成的,以技术层面获得的程序性权利来破解司法人工智能侵权问题,不免有被技术操控而又无还手之力的深切忧虑,也会有以借自由之名压制自由的重大嫌疑。

司法裁判关乎自由与秩序、权利与权力,在本质上会触及个人与国家的关系。对于程序性权利的保护来讲,自由主义的权利优先论必然是一剂猛药。更为复杂的是“一国有效法律体系的执行者在当前无疑仍然是国家,但在越来越多的领域、非国家组织体、私权利主体事实上在行使本应由国家掌控的权力”。(15) 人工智能应用于司法裁判后,将程序性权利保护的义务履行和责任承担全部施加于权力机关、政治国家的格局被打破,享有私权的行动者也被纳入其中,成为侵犯程序性权利的防范对象,所以司法人工智能还需警惕横向水平上的权力(利)侵犯。司法人工智能中的权利保护上升至宪法层面,就会触及基本权利问题,第三人效力或水平效力随之凸显。“当旧的国家行动按照市场方式组织起来时,私有化就构成了新的挑战,因为威胁基本权利的如今不再是国家行动,而是私人行动。” (16)例如,在掌握智能科技方面占据优势地位的诉讼参与人、提供司法人工智能服务的科技公司都可能将拥有公共权力,而程序性权利面临的风险和威胁也将扩展到该主体上来。与此同时,司法人工智能赋权使公权力与私权利的界限越来越模糊。传统司法裁判的有序开展以公域与私域的划分为基底,私域的概念有特定界限,可被视为涵盖自我决定、隐私保护、抵制干涉、尊重人格、维护尊严等内容的现代法律制度,以防范公权力对私权利(包括程序性權利)的侵蚀。但当人工智能应用于司法裁判后,与现有司法制度配套的程序性权利保护举措还能在多大程度上奏效,是否还有理论探讨与规范建设的必要,确实值得深刻反思。事实上,人工智能在司法裁判中的应用使私主体具备参与乃至干预的能力,在事实上介入了审判活动的诸多环节。虽然司法权力在人工智能的推动下趋于分散化,甚至有旁落的可能性,但程序性权利保护的要求却越来越高。

(二)司法人工智能赋权的外部协作

从外部视角审视司法人工智能赋权,必然涉及人机关系问题。如何使司法人工智能赋权兼具理性的普遍化与智能的多元化,关系到诉讼参与人的程序性权利能否得到恰当保护。总体来看,人类智能与人工智能的发展会相互影响,两者各有所长,均不具有绝对的完美性,因此不能也不必使两者完全趋同。人类在发明、设计和制造司法人工智能的同时,也在不断强化、拓展和升级自身的综合能力。但人工智能与人类智能都不是对方的仿照对象,这种差异意味着人机之间要追求合理分工:那些数据计算量大、目标明确单一的任务,尽可能交给人工智能去做;那些关乎价值和意义的活动,则应发挥人的智慧来解决。智能融合乃是最为理想的司法人工智能赋权所必经的基本步骤,主要由人类的自然智能加上人工智能的外延增益智能所构成。如果两者未能做到各司其职、界限分明,那么诉讼参与人的程序性权利就会以消极或积极的方式受到侵犯。

作为技术的人工智能具有封闭性,但真正意义上的司法人工智能赋权之所以能够成行,有赖于从智能机器到权利主体,即从司法人工智能的内部到外部的视角转换,期间需整合理性主义、经验主义和具身主义,与之对应的是功能模拟、结构模拟和行为模拟,以便从“分而治之”走向融合,在融会贯通中迈向更高的能力水平,而司法裁判中程序性权利的保护必须注重人机间的有效协调,以兼顾演绎与归纳、感性与理性、经验知识与规范知识。三种认知类型划分对应不同范式的人工智能赋权,任何单调的模拟都处于弱人工智能阶段,而达到强人工智能需要对其进行整合,通过彼此交织、相互渗透,不断过渡转化,并进入对本能认知的模拟。实际上,司法人工智能赋权的实现本来就是从内部到外部的推进,应循着“自上而下”的发展进路,从形式化的抽象符号推算,使之逐渐接地嵌入环境并更加灵活。否则,任何人工智能赋权均是刻板或僵化的,而对程序性权利的保护也会流于形式。

当然,司法人工智能赋权应被放到更大的视野中进行观察,除赋权系统外,还包括创新系统和秩序系统。其中,赋权系统尤为依赖司法资源分配。“无论是对公民个体所需的公共物品的满足,还是对公民各项权利的保障,都要建立在生产力高度发达的基础之上。”(17) 虽然人工智能所代表的创新系统能够促成赋权,并助推程序性权利保护的方式、程度和范围不断完善,但有时却会异化为威胁或侵害诉讼权利的负面力量,或是导致公平问题凸显,使赋权系统遭到重创。例如,司法裁判中个别诉讼参与人滥用人工智能可能引致数据暴政,使对方在审判过程中由于技术劣势而处于不利地位。除非是技术开发者或权威管理部门,不然根本没有能力进行监督,也没有辩驳、解释和补充的程序性权利。若双方都属于技术强势的类型,则会呈现为新型的权利冲突状态。在威斯康辛州诉卢米斯案(State v. Loomis)中,利用自动化决策结果量刑就有侵犯正当程序权利之嫌,而司法机关未能担负起个人权利保护及救济的最后屏障。(18) 很显然,赋权系统与创新系统的关联颇为微妙与复杂。

此外,司法人工智能的证据适用规则为纯粹的法定证据制度,缺乏基于直接原则和言辞论辩原则的自由心证功能。司法人工智能完全可以脱离现实庭审与言词证据,这无助于诉讼参与人的权利保障,较为封闭的信息整合分析类似于卷宗主义的做法,很容易将有效的外部监督拒之门外。在人工智能的司法应用中,不但诉讼参与人的程序性权利被人为地简单化,而且智能裁判的手段太过多元化,有别于司法机关遵守相应程序和规则的传统做法,所以不具有很强的可预期性,甚或引起程序性权利限制的关联效应,较为典型的有北京互联网法院推出的弹屏短信送达。因而,赋权系统和创新系统都要时刻警惕并留有余地,其关涉权利保护与科技创新的平衡。在司法裁判中,人工智能所代表的创新系统并不会对秩序系统构成压力,因为程序性权利的设置本身就是某种共识,反倒是创新系统的维护需仰仗稳定的秩序系统作出鼎力支持。与此同时,人工智能越是发展进步,对赋权系统提出的要求就越高,而只有司法人工智能在程序性权利保护上安排妥当,才能使稳定的秩序系统真正建立起来。

依照理性类型的划分,不难发现人工智能和现代法律都具备形式理性的显著特征。“而法官在案件裁判过程中,则存在着‘法官造法’的建构理性和自由裁量的经验理性,他们力图寻求逻辑一致、唯一正确的司法结果,进而维持法律的形式理性。”(19) 如何在确保形式理性的同时,将建构理性和经验理性融入司法人工智能赋权之中,直接关乎程序性权利的保护实效。“司法人员过于偏重运用人工智能自动生成刑事证据裁判的结果,以达到错案防范的效果,会在一定程度上挤占司法裁量权的空间,有违司法权之本質。”(20) 毫无疑问,这种观点在民事案件裁判中同样成立。面对建构理性、经验理性与形式理性的交织,司法人工智能中程序性权利保护的方式、程度和范围都应视情况区别对待。对于已形成相对固定的审判模式、操作标准程度较高的案件纠纷,司法人工智能对待程序性权利不会引起太大质疑,但这类情况终归较为有限,形式理性与建构理性、经验理性的不谋而合不会总是发生,至少其彼此间尚未对“人是目的”的基本论断达成共识。但实际上,

“人工智能技术运用于司法裁判,同样应当始终强调人工智能技术服务于人的理念,即人工智能技术运用仍应以保护人的权利和福祉为其伦理基础,从而实现‘工具理性’和人类福祉的再平衡。”(21) 从这种意义上说,司法人工智能对待程序性权利保护问题采取何种态度,在很大程度上取决于各种理性的有机融合。

三、司法人工智能权利保护的本质与核心

尽管司法人工智能关涉诸如数据信息的收集、储存和利用等技术问题,又会触及权利的平等保护到底是形式还是实质的、隐私权是否会受到侵犯以及从权利出发推及义务的惯常逻辑是否依然适用等法律问题,但究其本质来讲,还是要解开人工智能的技术面纱,从更深层次来准确把握司法裁判中权利保护的基本规律。

(一)透过技术把握权利的司法保护

在成文法背景下,司法人工智能的诉讼逻辑依然是,根据当事人的诉讼主张确定请求权,在找到实体法规范后进行要件解构,并明确证明责任分配与法律效果。当请求权对应的基础规范为完全法条时,由于构成要件与法律效果较为完备,只需司法人工智能结合自然语义识别即可;但面对不完全法条的情形,司法人工智能则需其他法条作为补充,其前置任务便是从法律本体库中精准选取补充法条。在要件事实论指引下,司法人工智能的流程便可用权利话语拆分为权利发生事实、权利阻碍事实和权利消灭事实。尽管人工智能对传统法律权利义务形成严峻挑战,但司法人工智能不会像各类新业态那样塑造出新的权利义务关系,而是将新兴权利纳入既有的权利义务关系之中,如当事人对抗司法权的知情权和抗辩权等并非新鲜事物,其所要做的无非是解构实体法规范的构成要件,并将程序法律规范改写为分阶段的实施步骤。“在制度变革的历史进程中,大凡主张更改规则、重建法律关系的,都会提出要么基于应然权利保护、要么基于现行制度缺陷的正当性理由,但在变革前一般都不会僭越现行规则。”(22) 在司法领域内,现行制度规定不会对人工智能在这方面的应用构成直接阻碍,反倒是事后对“破窗”行为的制度追认太过危险,所谓的创造性做法极易引发严重的合法性危机与正当性质疑。

随着人工智能以技术面貌呈现于司法过程当中,案件裁判的数字化、信息化程度显著提升。在此过程中,人工智能技术的不当使用可能危及诉讼参与人的权利保护,以权利来限制权力的目标则会落空。该技术有时将以第三方的身份介入司法裁判,导致“权利—权力”的关系失衡。此处所说的权利主要是指各项具体的程序权利,而权力主要是指司法权。如果借助司法人工智能裁判的案件中争议焦点涉及实体权利,同时程序权利在这个过程中也应当予以保护,那么就要防止两种权利在这类案件裁判中发生混同,并分别进行妥善处理。以民事案件为例,实体权利多以请求权的形式出现,程序权利则通常表现为知情权、抗辩权等形式。依照要件事实型民事裁判论,此类案件均循着“识别请求权基础规范—请求权基础规范要件的分析与解构—请求权基础规范的争点整理—证明责任分配—争议事实认定—涵摄得出裁判结论”的逻辑顺序展开,其间程序与实体不断交错而核心环节则是根据请求权基础规范,将待证事实解构为若干要件。因此,司法人工智能的知识积累应从请求权基础规范的解构开始,对解构后的要件事实进行标注。(23) 只有请求权基础规范的各个要件事实均为真时,才能发生相应的法效果。的确,司法人工智能更加便捷、高效,但不变的还有诉讼参与人维权的习惯和偏好,以及传统的纠问式查明方法。在此期间,知情权与抗辩权是公民个人对抗司法权运作的基本权利,乃正义原则的应有之义。若非赋予受司法人工智能不利影响的诉讼参与人获得解释、寻求抗辩的权利,则极难保证他们得到公正对待。如果当事人要享有知情权,那么他们必须被告知哪些要素被用于司法裁决;如果当事人要享有抗辩权,那么他们必须能够看得出错误。否则,信息不对称必定使这些法律权利的设置变得毫无意义。总而言之,规制司法人工智能也要遵循基本的司法规律。

(二)权利保护需尊重司法规律本身

毫无疑问,人始终是司法人工智能的设计者和决定者。司法人工智能并非简单重复人的活动,而是在外推的过程中有所创新。特别是隐性知识如何被形式化、程序化,这对司法人工智能来说确实是个极大的挑战。除了照章办事以外,司法人工智能还要面对新情况、新问题,作出创造性的处理活动。“今天大数据挖掘与深度学习的进展虽然推进了人工智能的智能化,但仍然尚不具备推动人工智能从因果推断的观察层级上升到干预层级的能力。因此,只有发展出一种超越规则性因果‘知识语言’的‘实践语言’,才有可能赋予人工智能认知能力。”(24) 但在认知层面,人与人工智能呈现出难易互逆的基本特征:对人工智能来说最难的,对人来说却是最容易的;对人来说是最难的,对人工智能来说却是最容易的。依照人本主义的要求,司法人工智能的权利保护必须立足人本身加以思考。

如果司法人工智能开始使用反事实的语言和行为进行交流,那么它就具有某种程度的自由意志。反事实因果意味着在数据缺失的情况下,依然可以推断出事实的整体状态,对其追责便可顺理成章,而追责的标准取决于其运用何种算法。反事实作为假设世界中陈述为真的事实,是人创造可能世界的重要方式。反事实推理是人类独有的思维能力,是对实际情况的反思否定与可能世界的逻辑推定,能够从根本上将人类智慧与人工智能区分开来,其代表的主观虚构与理性想象远高于观察能力的认识论意义,旨在构造非现实的现实,作为自由意志与社会责任的基础。例如,符号推理和概率推理属于机械行为,仅承担较少责任;因果推理和类比推理可被歸为创造性推理,所要承担的责任较重。“智人祖先在后天掌握的因果想象力使其能够以一种我们谓之‘规划’的理智过程(Tricky Process)来有效完成诸多事情。”(25) 因果推断是人们拥有观察能力、想象能力和行动能力的心智结构与意识基底,包括作为肯定性观察的规则因果和作为否定性改造的干预因果。

若认为司法人工智能有独立自主的行为能力,有资格在特定限度内行使法律权利并承担责任,则一般会倾向于主张司法人工智能应具备有限的法律人格。在理论层面,暂且不论人工智能是否具备法律主体资格,至少对人工智能在司法裁判中的地位是主导还是辅助,理论界和实务界还是基本能够达成共识的。“司法领域的人工智能绝不会取代法官办案,而是在法官办案过程中提供实质性帮助,既不允许人工智能的发展使法官被动让出审判领域,也不允许法官对人工智能形成心理依赖主动放弃审判领域,法官在审判领域的主导地位以及判断权和裁量权始终归属于法官本人。”(26) 既然如此,那么司法人工智能理应踏实履行应有之职,如刑事案件审理中的司法人工智能仅限于量刑环节,因为这类案件涉及公民的自由、生命、财产等基本权利,社会的容错率极低,因须万分慎重。由是观之,人工智能对司法裁判的帮助有其限度,仅能涉足某些机械化、形式化的法律领域,所处理的只是那些简单的技能性事务。

既然人工智能在司法裁判中仅起到辅助作用,那么就没有必要单独明确人工智能法律主体的权利与义务。更何况,司法人工智能遵循的是数理规则,不论其是否复杂,最终必定要投射到现实规则上。在实践层面,目前多数国家否认人工智能有独立的法律人格和意思表示能力,主张人工智能缺乏情感与肉体特征,作为不知疲倦的机器并无休息需要。司法人工智能的权利能力缺失,也能成为推脱责任承担的理由。权利义务相统一显然是司法人工智能的理想状态,而欠缺体系性思维必定有失偏颇,这样的主体在法律意义上是不完整的。赋予司法人工智能法律主体地位,只能实现授予权利(力)的效果,却无法保证司法人工智能独立承担相应的责任与义务。即使将人工智能视为产品侵权,也有悖于司法裁判的客观实际。因为司法人工智能的责任承担须将公共利益保护放在優先位置,特别是失误责任的承担应适用过错推定原则,而依照过错责任原则确定承担责任之主体,必将损害司法的公共性特征。

四、司法人工智能权利保护的价值导向与实践要求

赋予当事人以全面可行的救济权利是塑造司法人工智能的理性路径,但司法人工智能必然设有特定的行动目标和价值选择,由不同价值目标得出的裁判结果总会存在差异。人工智能代表的技术习惯于追求效率优先,与权利保护在法律层面追求的公平正义难免有龃龉,严重时甚或招致激烈的权利冲突,如技术自主权与个体隐私权、算法知识产权与当事人知情权之间的紧张关系。(27) 如何使技术规则服务于法律规则,在很大程度上取决于法律价值对技术价值的归化吸收,以及技术价值对法律价值的有效切合。“智能司法的客观化、模型化思维特征与司法裁判人文性、主观化的判断权属性存在冲突,使之在适用中受到诸多限制,仅能定位于辅助裁判、裁判参考的功能,但司法裁判本身也存在‘寻求客观化却又难以客观化’的悖论,在经验法则、证明标准等领域尤为明显,这种悖论又为智能司法的应用提供了可能,‘以人为主,人机结合’便成为今后司法建设的方向之一,也将对法学教育与法律思维养成产生影响。”(28) 司法人工智能要破解权利冲突难题,必须重新回到价值位阶,而不能寄希望于借由量化来发现优先顺位。

(一)司法人工智能权利保护的价值导向

面对现代科技的强大功能、复杂结构和异质发展,之前获得广泛认同的技术价值中立说正在发生深度变化。司法人工智能不仅是某种中性手段,还将作为决定性力量从根本上支配人们理解世界的方式,其关键在于回答人类到底需要珍视何种价值。从基本概念来看,“能够”与“应该”是截然有别的,前者属于事实范畴,后者属于价值范畴。司法人工智能在事实与价值之间是分裂的。随着司法人工智能“能够”做的事情不断取得突破,值得反思的是这些“能够”都是“应该”的吗?想要回答这个问题,就必须审视人工智能所追求之目的究竟是什么。对此,有学者认为“作为一种‘解决问题的能力’,智能不可避免地具有价值属性,因为它包含了一种与目的性的自然关联,即智能服务于生物体的生存这一根本目的。也就是说,必须将智能放在‘有益于生物体的生存’这一目的性背景中,我们才能真正理解智能,才能理解智能的多元性。智能与目的的内在关联不是凭空的,其根基在于生命。”(29) 人的心智乃是认知和感受的统一,尤其是价值和规范离不开感受及其所指向的自治,感受是生命对他者或环境的刺激所作出的主观反应。没有感受,司法人工智能将无所适从。人工智能只能助推个体完成复杂的分析和计算,却不能帮助人们作出选择,因为选择要以感受赋予的价值偏向为指引。人工智能是逻辑而理性的,并不蕴含感受,其无非只是机器或工具而已。

司法人工智能极易忽视审判人员的文化传统与心理特征,尤其是他们作为具体的人而特有的情感。即使作为技术的司法人工智能无所谓善恶,价值评判取决于人们采取的应用方式,但司法人工智能的人文主义关切,意在将人的性质纳入认识视野当中,旨在确认和提高人在世界上的地位与价值,促使人的潜力得到最大限度发挥,而任务使命、评判标准、操作方案的调整则能够反映社会发展对价值导向的反作用。针对司法人工智能的各种应用场景,需要确立相应的实施细则,使司法人工智能内含的道德伦理与社会发展之间紧密关联,而不是完全割裂的空中楼阁。但是,人文主义理想的形而上学公设,并非简单走向贬低或压制人的观念的对立面,以此来理解人的性质。开放意义上的人文主义,从来不是固定化或永恒化的。在减轻高强度且重复的体力或脑力劳动的同时,司法人工智能要让人的智力更多用于创造性活动,扩宽情感和认识的广度与深度。针对司法人工智能的权利保护问题,权利的优先性能在有限范围内奏效却不够全面彻底。“权利之所以超越利益是因为它被赋予了更高层面的道德意义。”(30) 司法人工智能面临的价值评判疑难在于,权利交织中的各种思辨性要素都会被排除在人工智能的判断标准之外,以及如何用数理逻辑、概率统计、代码运算等从道德价值层面对权利进行定义,在此期间还要确保人的伦理能够被如实转化为机器伦理。可以肯定的是,唯有司法伦理能够提供程序规范意义上的道德标准,推动权利保护机制的适时转化。

对于司法人工智能而言,权利边界的划定仅凭单纯的司法裁判技艺显然不够,还要关涉权利内容的多重属性,那些有悖于人类伦理、公正标准和平等理念的司法人工智能必须被坚决摈弃。如果司法人工智能过于强调权利的优先性,必将走向个人主义的目的论和方法论,以致给现代道德伦理带来巨大挑战。然则,人工智能对道德目的论将产生严重冲击,并试图动摇支撑现代道德伦理的主体性理念、权利优先论和个人主义原则。除了按照权利义务的固定表述外,在“当为”与“不可为”的规范表述之外,还应辅以“善”的伦理维度。“同一种善可以包容不同的权利,同一项权利也可以适应不同的善,从而反映出两者间的复杂关联。”(31) 随着法律场景发生深刻变化,仅强调权利优先不足以应对司法人工智能带来的弊病与隐患,而从善的维度进行重建则迫在眉睫,以便用“义务本位”来矫正“权利本位”,防止出现权利失能的消极后果,与之相伴随的就是从个人正义观到集体正义观、从正义逻辑到超越正义逻辑的转向。

(二)司法人工智能权利保护的实践要求

为充分发挥人工智能对司法裁判活动的积极建构作用,司法人工智能应推进人与技术的双向建构,通过增智赋能加快“人”的进化步伐,培育用技术武装的人,而不是用技术替代人,形塑人机协同、和谐的新型智能司法格局。但理想的司法人工智能不可仅满足于具备某种功能,更要力求生成智慧。司法人工智能要具备因果推断能力,应从观察描述、操作干预和反事实情形三个层面逐步推进,包括对既成世界的被动观察、对现实世界的主动干预以及对实践后果的反事实反思。真正意义上的司法人工智能必须符合因果的数学模型,包括规则性因果和因果的反事实理论,两者在本质上分别对应于归纳推理与演绎推理:前者基于实际发生事件的彼此关联,将原因定义为有其他对象跟随的对象,且这种跟随关系能通过对象间的相似性不断推广;后者基于非实际发生事件的彼此关联,意指若在先的对象不存在,则在后的对象也不存在。因此,司法人工智能必须内化人的历史性实践,兼顾“大数据—小任务”的稳定性与“小数据—大任务”的灵活性。

在权利保护问题上,司法人工智能所要考虑的,不能只是“个体尊严”的保护,而应是对“人的尊严”的保护。为此,仅从制度层面努力仍不够充分彻底。要想使司法人工智能中的权利保护取得良好的防御效果,必须证明这种权利是道德意义上的,而非仅是法律意义上的。“这不仅仅是因为这种权利是建立在人性尊严这个道德概念的基础上的,也是因为实在法体系通常不太容易事先已经包括这种权利。”(32)虽然权利具备的是道德基础,但还要保持开放性,为其注入法律强制实施的具体内容,进而推动其演变为法律权利。

当下从司法人工智能出发探讨秩序创生仍为时过早,但该发展趋势需由司法机关、当事人及诉讼代理人等主体共同推进。对于司法人工智能带来的权利保护诉求,司法机关应认真甄别并及时回应,推动相应的法律制度实施,在必要时还可引入攻防辩论程序、举证质证规则和国家赔偿制度等,并创设司法人工智能的管理与追责机构,以应对司法人工智能对权利保护带来的潜在风险,在权利保护与技术进步之间寻求平衡;自主乃人之本质特征,任何人都有自主思考、自主决定、自主行动的权利,面向未来的责任承担亦由此生发,将这些交由人工智能来实施明显违背其发明初衷,而作为主体的当事人应享有监督权、事前知情权、实质参与权和获得解释权,保证被充分告知并理解人工智能司法裁判工具的运用方式、算法编排和优劣评价等,以便行使自主选择权来表示接受或退出,而司法作为社会公正的最后防线,理应将个人自主同意确立为基本目标;而法律的任务就是从迫切要求认可的权益中筛选出哪些应被确认为权利。法律的介入要在国家权力与公民权利之间达到最佳的平衡状态,应呈现为分配性而非管理性的法律秩序。

鉴于司法人工智能的专业性特征,个体维权的成本太过高昂,不妨激活第三方力量来平衡裁判决策者与诉讼参与人的关系。如果司法人工智能因设计导致偏差,那么诉讼参与人的权益损害应由设计人员负责。至于监督司法人工智能的内容和方法,应结合对诉讼参与人权利的影响来通盘考量。司法人工智能的制度与实践构想,核心在于运用现代法律主体制度,赋予司法人工智能相应的主体地位来解决权利保护、责任承擔等问题。实际上,权利本身亦可以部分破解人工智能算法难题。只不过基于权利保护理念的司法人工智能,不但要设置算法论证程序、增加案件纠补机制、确立请求解释规则,还要限定技术应用空间、构建司法商谈环节等。

司法人员要使用人工智能技术,应当告知诉讼参与人,因为他们拥有是否使用司法人工智能的决定权,有权获知司法人工智能的研发、应用、评估是否有助于权利创制、权利保护、权利发展等,以促成人工智能与司法裁判的有效衔接。在此过程中,司法人工智能研发主体承担解释责任,而这建立在司法人工智能的可解释性与可解释权之上。人工智能在发挥司法功用的同时,还要对诉讼参与人的权利予以补强,如强化案件审理中的信息开示制度,并有针对性地改造相应权利,如将刑事案件中的阅卷权调整为数据访问权等。人工智能介入司法裁判后,法律权利的功能及其保障模式都要作出相应调整,以防局部问题引发整个权利体系的连锁崩塌。面对司法人工智能,是否需要从权利本位转向义务本位,需要区分两个层面,包括思想理念与制度规范。在思想理念上仍要坚持权利本位,在制度规范的安排上则要以义务规范为主。对于阅卷权的行使来说,权利主体即为当事人,而诉讼代理人就是协助其行使该项权利的人,以防造成权利主体不明的问题。较之于原有的阅卷权,基于数据访问权行使的主动性特征,既可免去阅卷程序的繁琐,又可通过设置时间、方式、范围等限制条件来减少权利滥用。

五、结语

人类社会发展始终身披科技福泽,而司法人工智能将是无机世界与有机世界的联姻。“话语的轰轰烈烈并不等同于实践的有效展开,况且,这种热闹背后也许隐含的是司法人工智能研究的空泛化、泡沫化。”(33) 虽然人工智能以指数级的速度狂飙突进,但要获得当事人、诉讼代理人等主体的认同与遵从,关键在于认真对待司法过程中的权利保护。在“国家—个人”的基本架构下,司法人工智能要促成审判权与诉讼权的协同配合。在司法人工智能中,诉讼参与人从来不是被动的。良好的法律秩序要保证司法裁判者对决策负责,并赋予受影响者抗辩的权利,特别是当司法人工智能对诉讼参与人作出不利结果时更应如此。这时对抗是诉讼的基本要求,此举亦能在某种程度上避免审判人员采信错误的司法人工智能决策结论。从域外制度来看,司法人工智能应为诉讼参与人提供退出机制。以数据权利保护为例,《一般数据保护条例》已赋予数据主体免于自动化决策的权利,以防出现算法黑箱和程序的非正义,(34)该条例第21条明确规定:“数据主体有权根据其特殊情况,在个人数据被处理的过程中行使反对数据画像的权利。”该条例第22条进一步指出,如果数据画像等自动化决策对数据主体产生法律效力,那么数据主体有权选择不受该决策限制。司法人工智能解决的最棘手问题是合理安放私权利,因为司法效率决不能以牺牲私权利为代价,不然便是舍本逐末、得不偿失。“智能决策的内涵价值也不仅在于优化司法治理,还在于更好地保障公民的司法人权,实现法律面前人人平等。”(35)所以,司法人工智能从来不需纠结技术本身的运用到底是促进权利保障,还是导致相反的结果。因为从认识论出发,人们将人工智能理解成什么,在技术层面就会将其做成什么,而只要努力以正义引领技术发展即可,其根本在于反思人的局限与弱点,所以人工智能要从物性的机械能力提升至认知的人性能力上来。

注释:

(1) 盛学军、邹越:《智能机器人法官:还有多少可能和不可能》,《现代法学》2018年第4期。

(2) 李占国:《网路社会司法治理的实践探索与前景展望》,《中国法学》2020年第6期。

(3) See Danielle Citron, Technological Due Process, Washington University Law Review, 2007, 6(85), p.1249.

(4) 李晓楠:《可信赖AI司法:意义挑战及治理应对》,《法学论坛》2020年第4期。

(5) Jack Balkin, The Three Laws of Robotics in the Age of Big Data,  Ohio State Law Journal, 2017, 5(78),  p.1226.

(6) [以色列]尤瓦尔·赫拉利:《未来简史》,  林俊宏译, 中信出版社2017年版,第290页。

(7) 接近正义是现代司法的本质属性,其重要表现指标是主体数量,以体现对当事人诉权——程序参与权的保障程度,作为行使处分权的前提和基础。参见洪冬英:《司法如何面对“互联网+”与人工智能等技术革新》,《法学》2018年第11期。但人工智能可能使社会公众参与司法的能力出现分化,在接近正义上带来差距,以致违背诉讼权利平等原则。参见肖艳雄、颜美群:《网络信息内容规制领域行政约谈的法治化困境与进路》,《贵州师范大学学报》(社会科学版)2022年第4期。

(8) 李训虎:《刑事司法人工智能的包容性规制》,《中国社会科学》2021年第2期。

(9) 徐骏:《智慧法院的法理审思》,《法学》2017年第3期。

(10) 陈俊宇:《司法程序中的人工智能技术:现实风险、功能定位与规制措施》,《江汉论坛》2021年第11期。

(11) 参见[美]赫伯特·马尔库塞:《单向度的人:发达工业社会意识形态研究》,刘继译,上海译文出版社2008年版,第7页。

(12) 宋旭光:《论司法裁判的人工智能化及其限度》,《比较法研究》2020年第5期。

(13) 其中,符号主义人工智能将认知的本质理解为理性推导,界定为基于知识表示的智能系统,遵循规则在先的理性主义认识论;联结主义人工智能将认知的本质理解为经验学习,界定为基于人脑神经网络的智能系统,遵循规则在后的经验主义认识论;行为主义人工智能将认知的本质理解为人与环境的互动,界定为基于感知—行动的智能系统,最典型的特征是自适应、自学习、自组织。司法人工智能必须兼具符号主义、联结主义和行为主义的基本特征,否则就可能走向机械唯物主义。

(14) 于柏华:《权利认定的利益判准》,《法学家》2017年第6期。

(15) 齐延平:《论人工智能时代法律场景的变迁》,载《法律科学(西北政法大学学报)》2018年第4期。

(16) [德]贡塔·托依布纳:《宪法的碎片:全球社会宪治》,陆宇峰译,中央编译出版社2016年版,第37页。

(17) 高奇琦:《智能革命与国家治理现代化初探》,《中国社会科学》2020年第7期。

(18) See Liu Han-Wei, Lin Ching-Fu & Chen Yu-Jie, Beyond State v. Loomis: Artificial Intelligence, Government Algorithmization, and Accountability, International Journal of Law and Information Technology, 2019, 2(27), pp.122-141.

(19) 馬长山:《司法人工智能的重塑效应及其限度》,《法学研究》2020年第4期。

(20) 王秀梅、唐玲:《人工智能在防范刑事错案中的应用与制度设计》,《法学杂志》2021年第2期。

(21) 郑曦:《人工智能技术在司法裁判中的运用及规制》,《中外法学》2020年第3期。

(22) 马长山:《智慧社会建设中的“众创”式制度变革——基于“网约车”合法化进程的法理学分析》,《中国社会科学》2019年第4期。

(23) 参见高翔:《人工智能民事司法应用的法律知识图谱构建——以要件事实型民事裁判论为基础》,《法制与社会发展》2018年第6期。

(24) 涂良川:《因果推断证成强人工智能的哲学叙事》,《哲学研究》2020年第12期。

(25) Judea Pearl and Dana Mackenzie, The Book of Why: The New Science of Cause and Effect, Basic Books, 2018, p.25.

(26) 潘庸鲁:《人工智能介入司法领域路径分析》,《东方法学》2018年第3期。

(27) 如果说技术自主权与个体隐私权的冲突多由失范行为所致,那么算法知识产权与当事人知情权的冲突则是经过正当性评价后权利本质间的利益冲突,而非简单由侵权行为所产生。通常而言,人工智能所用算法越复杂,结果的精准度就越高,但当事人知情权的实现就越难,而保护当事人知情权或过度要求算法具有可解释性的代价则是减损算法知识产权应有的技术效用,权利博弈的背后隐含人工智能在司法领域运用的空间和需求,本质在于赋权与限权的平衡,因而有必要在合理限度内赋予司法人工智能对秘密信息和不宜公开事项的保留权,以推动技术进步与创新。

(28) 高翔:《智能司法的辅助决策模型》,《华东政法大学学报》2021年第1期。

(29) 李恒威、王昊晟:《心智的生命观及其对人工智能奇点论的批判》,《哲学研究》2019年第6期。

(30) 金梦:《立法伦理与算法正义——算法主体行为的法律规制》,《政法论坛》2021年第1期。

(31) 曹晟旻:《超越权利与善的优先性之争——以多重反思平衡为分析方法》,《文史哲》2021年第2期。

(32) 陈景辉:《人工智能的法律挑战:应该从哪里开始?》,《比较法研究》2018年第5期。

(33) 左卫民:《从通用化走向专门化:反思中国司法人工智能的运用》,《法学论坛》2020年第2期。

(34) See Seth Katsuya Endo, Technological Opacity & Procedural Injustice, Boston College Law Review, 2018, 3(59), p.821.

(35) 马靖云:《智慧司法的难题及其破解》,《华东政法大学学报》2019年第4期。

作者简介:曹晟旻,中国海洋大学马克思主义学院副教授,山东青岛,266100。

(责任编辑 李 涛)

猜你喜欢
权利保护
农地确权背景下农用地流转的法律保护
论刑事诉讼中未成年人的权利保护
金融消费者权益保护如何“对症下药”
P2P中金融消费者权利保护机制初探
一房数卖恶意串通行为的相关法律问题探讨
新媒体环境下网络隐私权法律保护研究
学生管理法制化及其权利保护思路初探
探寻互联网提供商应对打击网络盗版的法律路径
论公司中小股东权利保护的立法完善
浅析刑法中加强被害人保护政策