平衡论视角下个人免受自动化决策的法律保护*

2023-01-08 07:30郑智航
政法论丛 2022年4期
关键词:权利决策主体

郑智航

(山东大学法学院,山东 青岛 266237)

自动化决策是利用计算机技术和算法程序对大量数据进行收集整理,并在此基础上通过深度学习或神经网络技术来对相关数据进行研究和处理,自动生成决策的活动。这种技术被日益广泛地应用到医疗诊断、警务管理、司法裁判、金融投资、就业招聘、无人驾驶、新闻推送、社会福利等公共和商业领域。它能够将大规模数据中隐藏的信息和知识挖掘出来,从而极大地提高决策的效率和准确性。然而,自动化决策受制于以“大数据,小定律”技术范式为核心的概率统计逻辑和追求效率而非追求绝对精确、强调相关性而非因果性的效率主导逻辑影响,往往会出现人的主体性丧失和决策结果不公正等问题。[1]P35-50在这种现实背景下,人们是否具有免受自动化决策的正当性,在多大程度上能够免受自动化决策以及如何通过法律手段来保护人们免受自动化决策愈来愈成为学术界和实务界关注的问题。就既有的研究来看,学者们往往将个人享受免受自动化决策权作为一个研究的前提,并在此基础上从禁止进路和权利进路来构建个人免受自动化决策的法律保护制度。禁令进路将数据主体的权利放在首位,带有强烈的道德目的论的色彩,而权利进路更为强调数据行业的发展,具有较强的功利主义色彩。因此,本文试图超越这两条进路,从平衡论角度出发,在充分考虑数据主体个人利益和公共利益之间平衡的基础上,构建一套个人免受自动化决策的法律制度保护体系。

一、个人免受自动化决策的正当性

决策本来属于人类的一种专属活动,它是人类运用人脑具有的认识能力和逻辑思维能力,对一定的信息和经验进行占有和分析,并在此基础上将人们的思维过程和意志行动过程进行结合的产物。从本质上讲,这种决策是建立在人与人之间相互信任基础上的,它强调的是人与人之间的一种共情心和同理心。也正是这种共情心与同理心的存在,决策主体的决策才能够被决策对象接受和采纳。然而,随着自动化技术的发展和运用,人类的许多决策并不再由人自身作出,而是由机器完全自行作出或者由机器辅助作出。这种自动化决策在丰富人与人之间连接线索、交流场景与手段的同时,可能会削弱人对自我的控制和保护能力,并极有可能沦为凯瑟琳·海勒所说的作为物质-信息混合物的后人类主体。[2]因此,个人免受自动化决策的呼声愈来愈强烈。例如,欧盟委员会颁布了《数据保护指令》。该指令第15条第1款规定,“如果一项决定是完全基于数据的自动化处理作出且目的是评估与其相关的某些个人方面,例如工作表现、信用、可靠性、行为等,成员国应当赋予数据主体免受对其产生法律效力或者重大影响的完全自动化决策约束的权利”。从理论上讲,个人免受自动化决策具有法理上的正当性。

(一)自动化决策与人的尊严

人的尊严是一个具有独立的伦理规范的先在性概念和根本性的伦理准则。其它的社会规范和法律规范都是在落实这一伦理总纲的基本要求。[3]“人性尊严毋宁为法治的核心价值,盖不论是着重程序公平的形式法治理论,或者追求实质正义的实质法治理论,最终都可统摄在人性尊严的价值概念底下,致力于建构一个完善的现代法治国家,使人人都过着有尊严的美好人生。”[4]因此,是否尊重人的尊严构成了评价某项行为是否具有正当性的首要标准。从内涵上讲,尊严尽管是一个模糊性较高的概念,其含义难以被精确界定,但是,人类所具有的共情心和同理心,使人们对尊严这一概念形成了一些最基本的共识。第一,尊严的主体只能是现实生活中的自然人。尊严首先体现的是有生命的个体对于现实生活的一种认识和感受,而只有自然人才是生活在特定的时间和空间内的有生命的个体,是生活的主体,是“从事实际活动的人”。[5]人在具体的现实生活中相互交往,通过肉体和精神感知到对方态度,并将这种感知上升为一种具有反思和评价性的情感。尊严感就是这些情感中的一种,它源自于人所独有的情感感知能力。第二,人具有不受支配的主体性。人与动物的一个重要区别在于人具有反思和评价生活的本能,它独立表达了人们对于善的生活的追求。这种独立追求强调人拥有不受他人干涉的自我选择的能力。[6]自启蒙哲学以来,人们就从目的而非手段来定义人的本质问题,并从不受支配的自治性角度来定义人的尊严问题,强调人应当按照客观的道德实践法则来行动,并排除外在的干预和支配,除非这种干预和支配得到了人的同意,并以实现社会增益为目的。第三,每个人都具有受到尊重和重视的地位。沃尔德伦认为,尊严的古典意义含有因等级或职位而享有荣誉和特权以及受人尊重的意思。在平等主义思潮的影响下,尊严与等级之间的联系虽然有所松动,但是两者并不可能彻底分离。高等级别的观念并不是简单地被否弃,而是被进一步地普遍化,即我们每个人都应被视为授予了某一贵族或皇室的头衔,我们每个人都应被视为高级物种,因为人类就是天底下高等级别的物种,负有特殊的使命。人类应当通过实现级别平等来将以前只有贵族才拥有的尊严赋予每一个人。[7]这种受到尊重和重视的地位在法律上往往体现为人人具有平等人格并享有平等的权利。在自动化决策中,机器不断凭借大数据和高效率接管和挤压人的决策权力。在这个过程中,自动化技术所具有的优势将自身的目的性嵌入到具体决策,原先作为机器控制者的人被当作一个元素纳入进机器运作中。这迫使人们去服从或适应技术自身的目的性。[8]这种自动化决策在实质上正在改变传统的人是主体、机器是客体的人机关系模式,从而给人的尊严形成了挑战。

首先,自动化决策受制于算法逻辑的影响,忽视了现实人通过肉体和精神而获得的感受。自动化决策是在算法的驱动下,通过深度学习或神经网络技术来处理关键数据的活动。因此,算法在自动化决策中具有重要意义。从算法的运行逻辑来看,它是利用以量子力学为基础的“大数据,小定律”技术范式来作出决策的,即在概率统计的数理基础上,通过智能化的机器依据特定场景、语境和实用需要,从海量的“大数据”中,随机提取特定的“小定律”,从而对行为形成一种反馈机制。[9]在这个过程中,现实人在某一特定时间和空间中的具体感受极可能被排除在外,因为这些感受并不一定被纳入到通过图谱画像方式建立的用户形象中。有学者甚至提出自动化决策本身就是一个使个人去个性化的过程。它从数学角度进行计算,并将人置于一套自治的演算系统中进行符号推演,而无须过多地考虑人的情感因素和尊严。

其次,自动化决策容易忽视人不受支配的主体地位。主体性是现代性的根本基石,它强调人是一切活动的出发点和归宿,一切活动都应当服从人是目的而非手段这一道德实践法则。这一法则主要包括以下三个基本命题:第一,作为个体的人才是社会、政治和经济生活中唯一积极主动的参与者;第二,个人在自由状态下作出的决策是以自我利益的实现为出发点的;第三,个人是自我利益的最好判断者,没有人能够像利益者本人那样了解他自己的利益。[11]P6然而,自动化决策往往是从整体主义和工具主义出将人当作一个符号来进行计算,从而侵犯到人的尊严。自动化决策特别是完全型自动化决策本来就不是由人来作出的,决策者将决策的权力交由机器来决策。尽管这些机器是由工程师设计出来的,但是,对于“人+自动化技术”这个系统而言,工程师的设计道德会慢慢地转化成为“人+技术”这个系统本身的道德,而人真正能够支配的会越来越少。[8]换言之,这种自动化决策极有可能是基于机器自身的目的而非人的目的作出来的,人成为了机器支配的对象。另一方面,自动化决策容易使人丧失自由意志。自动化决策需要遵循“数据喂养”的逻辑。在这个过程中,自动化决策能够利用相关的认知来控制人的行为。例如,在脸书推行的“情感蔓延”项目中,它对50万名用户进行了精准的新闻投放。在投放过程中,它通过积极或消极的语言来影响这50万名用户的情感和态度,并让这些用户产生脸书所期望的情感和态度,去转发积极或者消极的消息。[12]这种做法严重侵犯了人的尊严,将人作为实现某种目的的工具。

最后,自动化决策因人工智能算法具有极强的分类筛选能力和超乎想象的预测能力而容易出现歧视,从而侵犯人的尊严。在自动化决策中,机器主要通过选择与各种行为具有密切关联性的数据的显著特征来工作,这种工作机制极有可能不恰当地将某类个体或群体标记为具有某种风险或倾向,进而对这类个人或群体产生歧视。这种偏见和歧视往往从一开始就隐藏在人工智能系统中,并因人工智能具有自我学习特性而有可能日趋严重。[13]在实践中,自动化决策主要通过偏见代理和特征选择等隐蔽机制来产生歧视。[14]例如在美国推行的一款预测警务决策系统中,算法因为过于强调邮政编码这一因素,从而在不同种族居住地与犯罪地区之间建立了一种关联性。该系统经过收集过去犯罪人的个人信息、邮政编码等,发现犯罪人来自于低收入的非洲裔美国人社区。因此,它将该社区的非洲裔美国人都标识为预测犯罪的具体目标。[15]P2218,2223又例如,在Google 算法歧视案中,算法决策受制于“偏见进,则偏见出”的运作模式的影响,往往在非洲裔美国人相关名称与犯罪相关信息之间建立关联,形成对非洲裔美国人的歧视。[16]P17,18这种“垃圾进,垃圾出”的算法决策模式非常容易对人形成刻板印象和对人进行“污名化”,从而对人的尊严构成侵害。

(二)自动化决策与正当程序

随着现代法治思想和法治思维在社会公共生活中作用的凸显,正当程序的基本理念深入人心,它已经成为检验权力运行的一项重要指标。只要存在权力滥用的可能,正当程序就应当成为权力行使的一种约束。陈景辉认为,权力在事实上经常会不恰当地导致其他人受到损害,因此,符合正当程序的基本要求就成为对这种权力以及赋予它的社会制度本身具有正当性的一种道德证成。[17]当然,从正当程序理念的起源来看,它主要是为了约束国家公权力,而且权力的行使者主要是国家和政府。随着社会的发展,这种国家-个人的二元模式逐步被打破。特别是随着科学技术的发展和专业社会的来临,技术因知识垄断而愈来愈多地生成一种有别于基于国家暴力而产生的权力。在自动化决策中,算法权力就是这种支配形态。自动化决策赖于存在的算法在本质上就是一种“逻辑+控制”的形式,是一组抽象的指令(逻辑)和操作的可能性(控制)。Goffey认为算法会做一些事情,而它们的语法体现了一种命令结构,从而使这一切成为可能。算法不仅被赋予了对软件“做事情”的权力,而且还能让人类参与者做出相应的反应。[18]P743-752它通过“分类”“筛选”“优先”“过滤”等机制塑造人们的感知,主导了建构受众感知的权力,从而形成了一种隐性的强制力量,即算法权力。[19]这种算法权力也存在高度滥用的可能性,因此,自动化决策理应接受正当程序理念的校验。

然而,在实践中,自动化决策往往容易忽视正当程序理念,甚至自动化决策本身就对正当程序形成了一定的冲击。首先,自动化决策因受制于平台和算法设计者的效率和利益考量而具有前见或偏见,违反正当程序中的中立性原则。人们在设计自动化决策时,就将设计者的价值追求和预期用途有意无意地冻结在代码中,并将这些价值和用途架构化。[20]P323-343这些价值和用途可能随着数据的积累和算法的迭代而被强化和扩大,成为自动化决策程序的前见或偏见。换言之,自动化决策程序从一开始就不是中立的,而是预示了某种特定的结果就是最好或最有效的选择。其次,自动化决策的不透明性遮蔽了正当程序中的公开性原则。公开透明是正当程序的一项基本要求,这一原则需要相关的决策信息向外公开,决策的最终结果也应当让外界知晓。然而,自动化决策带有强调的“黑箱”色彩,高度的专业化和技术化让人们既无法看到也无法理解这种决策过程。在实践中,这种决策过程往往会关涉国家和商业的秘密,决策主体以关涉国家和商业秘密为由,防止危害国家利益或出现“搭便车”现象和“羊群效应”。最后,自动化决策因技术垄断和嵌入模式而架空了参与性原则。参与性原则是人的主体性和享有尊严的体现,体现的是人们在社会生活中对自己意愿的表达、沟通与交流。从参与的效果来看,参与主体信息愈对称、地位愈平等、认知能力愈相当,参与的效果就愈好。按照哈贝马斯的理解,平等参与到交往实践是一系列程序运转的前提,当平等的参与性原则实现不了的时候,这个人也就没有什么主体性可言。[21]P150在自动化决策中,决策因不透明性、专业性、即时性和封闭性等因素,将被决策者完全对象化,而且随着算法的学习能力不断增强,自动化决策逐步成为一个自我封闭的自主系统,并通过“法律代码化”和“代码即法律 ”路径嵌入到具体的决策流程,从而压缩或无视被决策者的参与,沟通与交流在这套体系中也被省略。[22]例如,在威斯康辛州诉卢米斯案中,法官就从自动化决策背后的算法属于商业秘密角度出发,认为COMPAS程序应由开发商来监督,社会公众不应当参与进去。这种看法在实质上侵犯了被告的正当程序权利。[23]

二、个人免受自动化决策法律保护的既有进路及其反思

随着自动化决策被广泛运用于诸多场景,人们在感受自动化决策带来便利的同时,也愈来愈强调自动化决策应当维护人的尊严和遵守正当程序原则。在这两种基本理念的加持下,许多国际公约和国家法律愈来愈加强对于人们免受自动化决策的保护。例如,1995年《欧盟个人数据保护指令》第15条第1款规定:“数据主体享有免受基于用户侧写的完全自动化决策的权利。”欧盟数据保护部门发布的《为实现监管目的的个人自动化决策指南》,要求利用辅助系统的自然人必须“有权利和有能力质疑自动化决策且经常表达对自动化决策的异议。”《通用数据保护条例》也对人们免受自动化决策进行了规定。在实践中,各国也形成了大量有关个人免受自动化决策的判例。归结起来,这些保护措施可以分为禁令进路和权利进路两种基本路径。

(一)免受自动化决策保护的禁令进路

所谓禁令进路,是指法律认为自动化决策侵犯人的尊严和违反正当程序原则,而对自动化决策采取一种谨慎约束的态度,应当禁止对数据主体实施完全自动化决策,除非采用这种决策具有完全合法合理的理由。[24]这种进路以禁止使用自动化决策为原则,以有限使用为例外。例如,1998年《比利时数据保护法》就规定当数据权人的权利因自动化决策而受到损害,并没有行使反对自动化决策的权利时,政府可以禁止这种自动化决策。2009年《德国联邦数据保护法》也采取了这种禁令保护模式。该法律规定禁止运用完全自动化决策来作出对数据主体的利益具有法律后果或实质性损害的决定。欧盟第29条数据保护工作组(WP29)也主张采取禁令保护模式,强调《通用数据保护条例》第22条的规定是一种禁止性规范,禁止基于个人数据进行产生法律上或近似重大影响的完全的自动化决策。2016年,欧洲议会和理事会发布的《刑事事项数据保护指令》要求成员国禁止完全基于自动化处理的决策来处理涉及犯罪或执行刑事处罚等方面的问题。

具体来讲,这种禁令保护进路主要有以下特点:第一,这种进路保护的重点范围是个人数据处理事项。对个人数据进行分析、决策指向特定个人是禁止自动化决策的两项基本条件。因此,禁令进路主要还是从个人数据角度出发进行的一种制度构建,其强调的是禁止不经过有效的人工介入就将个人数据用于作出对数据主体产生实质性影响的自动化决策。第二,这种进路保护的核心利益是数据主体一方的利益。在这种进路看来,保护数据主体的利益是自动化决策作出的前提,只要数据主体向数据控制者提出反对意见,并且有证据证明在此争议上数据主体的合法利益髙于数据控制者,那么这种自动化决策就应当被禁止。[25]P134第三,这种进路体现的是一种事前规制的基本理念。所谓事前规制,是指在通过管控好自动化决策程序设计的前端,对自动化决策程序的启动设置严格的条件,以防止自动化决策构成对人的权利的侵犯。《德国联邦数据保护法》规定,如果自动化决策过程会给数据主体权利和自由带来风险,数据保护官应当在自动化决策之前对决策收集的个人资料的类型、个人资料处理的目的、是否获得数据主体同意等问题进行事先检查。

在实践中,这种禁令进路也规定了一些可以适用自动化决策的例外情形。例如,欧盟《通用数据保护条例》规定以下情况可以适用完全自动化决策:(1)对于数据主体与数据控制者之间订立或履行合同来说,适用完全自动化决策是必要的;(2)由控制者所遵循的联盟或成员国法律授权可以适用这种决策方式;(3)数据主体明确同意接受这种完全自动化决策。《德国联邦数据保护法》也有类似例外情形的规定:(1)在数据主体的要求已得到满足的情况下,运用自动化决策来订立和履行合同是应当被允许的;(2)在采取适当措施保护数据主体的合法权益,告知数据主体将采取自动化决策,并对相关内容进行解释的前提下,运用自动化决策是可以的。

(二)免受自动化决策保护的权利进路

所谓权利进路,是指通过赋予数据主体免受自动化决策权的方式来保护数据主体的合法权益。在这种进路看来,全部禁止完全自动化决策及用户画像的存在和展开是不现实的,因此,应当将是否接受这种自动化决策的约束交由数据主体来决定。近年来,学者们愈来愈主张从权利进路出发来构建个人免受自动化决策的法律保护体系。他们认为,欧盟《通用数据保护条例》除了第22条第1款规定了免受自动化决策的权利这一特定权利,而且还规定了反对处理个人数据的权利、数据删除权、数据更正权、算法解释权等。这些权利能够有效地保护个人免受自动化决策。[28]为了保障这项权利的实现,除了要求参与自动化决策的数据控制者承担披露义务以外,还赋予了数据主体进行主动干预的权利。与此同时,法律也赋予数据主体一定的诉讼救济权利,当数据主体认为自动化决策侵犯其合法权益时,有权利到法院去提出诉讼,请求司法救济。

具体来讲,这种权利保护进路主要有以下特点:第一,这种进路给予数据控制者进行自动化决策较大的空间。数据主体在没有行使免于自动化决策权利或选择退出自动化决策之前,数据控制者只要不违反国家强行性规范就可以采取自动化决策方式对个人数据进行决策。第二,这种进路强调数据主体始终具有获得人工干预的权利。在自动化决策中,数据主体可以请求人工干预使自动化决策变为非自动化决策。[27]P54例如,数据主体认为某一自动化决策方式存在疑问,可以要求对这种自动化决策的结果进行人工评估。第二,这种进路强调事后规制的基本理念。如果说免受自动化决策保护的禁令进路是一种防患于未然的进路的话,权利进路则具有较强的事后补救性。Huq认为,免受自动化决策约束权事前赋予了数据主体针对自动化决策一般意义上的反对权,并在自动化决策发生后享有一定的知情权、表达权、提出异议的权利和人为干预权。这些权利能够构筑一套私法层面的算法风险防范机制,并让数据主体获得一种程序性的救济。它能够有效克服事前和事中的预警机制存在问题和不足。[28]P611, 614-615

(三)对两种保护进路的评述

从上文的分析我们不难发现,这两种进路都意识到了自动化决策特别是完全自动化决策极其容易对数据主体的权利构成侵害,法律应当介入到自动化决策领域,对其进行规制。但是,它们在规制目标、规制方式和规制限度等方面都存在一定的分歧。禁止进路倾向于从数据主体角度出发,以个人利益最大化为原则,采取一种事前规制的基本路径来对自动化决策进行规制。权利进路则倾向于从数字生产或数据社会效益角度出发,以个人同意和选择为基础,强调建立一套事后规制和事后救济体系。这两种进路都能对保护个人免受自动化决策起到一定的作用,但也存在一定的问题。

就禁令进路而言,它强调从源头上对自动化决策进行规制,强调对自动化决策进行事前的数据保护影响评估。倘若数据保护影响评估结果显示数据控制者是在没有采取措施降低风险的情况下处理相关数据并将导致高风险,人们就应当中止或禁止这种自动化决策。[29]这种进路虽然尽最大可能地保护数据主体的权利和尊严,但既忽视了自动化决策已经在现实生活场境中广泛运用的客观现实,又忽视了数据权利具有公共产品属性的一面,阻碍了数据开发和利用,从而不利于算法技术的创新发展、合理应用以及数据行业的良性发展。数据的开放与共享是数字生产的前提。对数据的价值挖掘愈深,数据的社会价值就愈大。因此,数据被誉为“21世纪的石油和钻石矿”。免受自动化决策的禁令模式增加了数字生产的成本,压缩了数字生产的空间。另一方面,数据保护影响评估具有较强的量化色彩,无法将人类因共同的文化教育和生活经验积累而对他人产生同理心、同情心和情感共鸣等质性因素纳入到评估体系,从而无法在自动化决策过程中体现寄希望于道德与情感纽带生成法律规范无法精准规定的决策智慧。[30]

就权利进路而言,它在一定程度上将是否接受自动化决策结果的选择权交给了数据主体。因此,这种进路在整体上对自动化决策这一新兴技术秉持一种积极肯定的态度,认为自动化决策能够提高决策效率和准确性。法律虽然应当保护个人免受自动化决策,但不应当阻碍算法技术的发展和创新。这种进路的确有助于激发数据控制者进行数据开发和利用,推进算法技术的发展,但还是存在一定的问题。首先,它预示了数据主体与数据控制者拥有同样的认知能力。其实,自动化决策依据的数据是一个复杂的数据集,除了需要决策对象直接数据以外,还需要其他数据。数据主体所能把握的是自己的数据,无法把握其他数据,即使数据主体把握了自己的数据,也没有能力去证明这些数据与自动化决策之间的内在关联,这也就增加了数据主体提出异议和进行人工干预的难度。其次,自动化决策可以绕开数据主体而作出对数据主体有影响力的决策。随着算法学习能力的不断提升,它分析和处理海量无结构数据的能力愈来愈强。它可以不经由个人身份的已识别或可识别状态来对个人作出决策。[31]在此过程中,数据主体可能在毫无知情的情况下就被算法作出了决策,这直接影响反对处理个人数据的权利、数据删除权、数据更正权、算法解释权等权利的行使。最后,这种进路忽视了以赋权与救济为核心的传统法律制度体系在面对智能社会时出现的功能危机。随着大数据、人工智能的发展,人们的社会关系愈来愈被架构化和建模化。[32]这种架构化和建模化对自由意志、自由市场、契约自由、民主参与等理念构成巨大挑战,而这些理念正是以赋权与救济为核心的权利进路建立的基础。

三、个人免受自动化决策法律保护的理念重构:一种平衡论的尝试

免受自动化决策保护的禁令进路和权利进路之间产生分歧的重要原因在于各自的出发点不同。禁令进路是将数据主体的权利放在首位,而权利进路则更为强调数据行业的发展。禁令进路带有强烈的道德目的论的色彩,它强调数据主体的权利应当优先于社会公共的“善”,作为一种体现社会公共的“善”的数据行业只有在充分尊重数据主体权利的前提下才能发展,这极有可能阻碍数据行业的发展。权利进路则具有较强的功利主义色彩,它承认自动化决策以及以此为基础的数据行业发展的重要意义,并往往从后果主义出发,注重自动化决策行为的绩效正当性,这又极有可能牺牲数据主体的合法权益。因此,我们应当从数据行业发展和数据主体权利之间的平衡角度出发,构建个人免受自动化决策的法律制度体系。平衡论能够为个人免受自动化决策的法律保护提供一种理念支撑。

(一)平衡论适用个人免受自动化决策的正当性

平衡论原本是行政法学上的一个基本理论,它强调通过对行政法内的公共利益和行政相对方利益进行最大化和公平的分配,实现具有确定内涵的行政权与相对方权利的结构性均衡。这种平衡论既是一种表示行政法状态的范畴,也是一种表示处理行政主体与相对方之间的关系的方法论范畴。[33]它有助于推动传统行政法学实现从分裂到统一、从对立到合作、从单中心到多元、从单一行为模式到复合行为模式、从权利对等到法律地位平等的范式转换。[34]P76-77我们可以把这种平衡论的理念引入到个人免受自动化决策的法律保护领域中来,其理由主要有以下几个方面:

第一, 运用自动化决策的主体部分是行政机关。随着信息技术与自动化决策技术的发展,政府机关在具体行政过程中愈来愈多地运用自动化决策来提升行政行为的效率和精准性。2019年1月发布的《国务院办公厅关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》第17条提出:“一是要推动行政执法裁量的决策辅助系统,规范行政自由裁量权,确保执法尺度统一;二是要开发风险预测系统,提前预警、检测、研判,及时履行政府职能、提高行政精准性。”在这种场境中,自动化决策是行政机关行政执法的一种工具,自然受制于行政权力的支配。这种工具在提高行政行为效力的同时,也助长了政府权力的扩张。行政相对方在整个行政决策过程中因“技术鸿沟”更加处于弱势地位。在自动化决策中,如何平衡行政机关和行政相对方的利益要比人工决策场境中显得更为必要。以控权为实现手段的平衡论能够在一定程度克服自动化决策中行政机关与行政相对人之间的平衡,从而确保个人免受自动化决策这一目标在动态中实现。[35]

第二, 数据控制者在自动化决策中基于垄断专业知识和信息不对称而产生一种具有强烈支配性的算法权力。近代以来,理论界和实务界往往是从行使主体和是否具有强制性出发来区分权力和权利的,认为权力是“权力主体依赖某种权力资源使权力对象服从权力主体意志的活动”[36]P81;而权利则是权利主体请求对方为一定行为或不为一定行为的资格和主张以及背后的利益。然而,建立在技术发展基础上的算法因为高度隐蔽性、高专业性和模糊性往往能够形成一种隐性权力,对公众和社会组织进行操纵和支配。这种算法权力逐步模糊了权力与权利界限,而且对数据主体的影响有时并不亚于行政权力对人的影响。

第三, 作为方法论的平衡论可以为数据控制者与数据主体的利益平衡提供方法论基础。在自动化决策中,控制者与数据主体的利益平衡点因时间和空间因素的变化而变化,因此,这种平衡具有强烈的动态平衡的特点。作为方法论的平衡论能够在权力与权利之间、公共机构与个人之间、智能环境与个体之间、微观权力与具体权能之间进行一种动态平衡,从而实现算法决策与个体权利的有效均衡。

第四,平衡论既强调硬法又强调软法,符合科技行业法律治理和技术治理二元共治的基本要求。平衡论认为“软法”更为强调民主、协调、激励、合作和平衡等价值,有力推动公域之治与法治目标的全面实现。[37]科技行业的专业化增加了国家硬法规制的难度。大量技术治理手段应孕而生,这些手段强调协调、激励、合作、指导原则、行为导向、指导示范等内容,具有较强的软法色彩。这些软法的存在能够弥补硬法在科技行业灵活性不够、应对性不足、平衡性不强等问题,从而推动数据行业发展和数据主体权利之间的协调发展。

(二)平衡论对个人免受自动化决策权利的重新认识

这种平衡论的引入可以改变我们对于个人免受自动化决策的权利效力的认识。在禁令进路和权利进路看来中,个人免受自动化决策的权利是一个核心范畴,相关的法律制度都应当围绕这项权利来构建。虽然它们在这项权利实现路径的选择上有所不同,但是都强调这种权利的对抗性,并主张这项权利在效力上具有绝对性,即数据主体的同意,是数据使用并在此基础上进行自动化决策的一个前提条件。这容易对个人免受自动化决策的权利进行一种绝对的排他性保护,而不利于数据行业和社会公共利益的发展和进步。从平衡论角度来看,个人受免自动化决策的权利强调在顾及数据主体权利前提下,有效平衡个人、社会和国家之间的利益。因此,个人免受自动化决策的权利的效力应当是一种相对效力。它需要承认数据具有公共性的一面,并需要容忍数据控制者在“合理范围”内的后续利用。[38]该权利保护的重点在于如何实现数据所有者、数据使用者和国家之间的权利义务的有效配置,并在具体实践中对此消彼长的权益诉求作出实质平衡。获得人类干预的权利、表达异议或质疑的权利、算法解释的权利、个人数据的权利、数据删除权、数据更正权、算法解释权等诸多子权利均应对此作出积极调适。[39]

作为一种方法论而存在的平衡论,有助于进一步强调个人免受自动化决策的权利的动态属性。既有个人免受自动化决策的权利的保护进路主要是围绕该权利所涉及的财产权和隐私权来构建制度的。这种理路具有较强的信息控制论色彩,强调权利人应当是数据信息的控制者,它们主张从静态角度来看待个人免受自动化决策的权利。然而,“个人数据从来就不是完全由个人有效控制的,对有些数据,个人可能是最初控制者,以后由于数据处理行为而丧失控制;对有些数据,个人则可能从来就不曾有过控制”,[40]P38它们往往处于流动过程中,个人免受自动化决策的权利也是一种动态性的权利。从平衡论的角度出来,我们应当将个人免受自动化决策的权利放在算法决策大规模进入公共领域这一现实背景下来构建相关制度,从而确保在保护与应用、安全与流动之间寻找到合适的平衡点。在此过程中,个人免受自动化决策的权利是哈贝马斯所说的一种具有沟通和关系意义的权利。哈贝马斯认为:“权利毕竟不是一支枪,也不是一台独角戏。它是一种关系、一种惯例而在那两者的根本方面,它是关联性的一种表达。权利是一些公共的主张,既包含针对他人的资格要求,也包括对他人所负有的种种义务。从表面上看,它们至少是一种形式的社会合作——毫无疑问,不是自发的合作,而是高度组织化的社会合作,但归根结底,仍然是合作。”[41]P110-111它像一个交流平台和背景,能够把自动化决策过程中的各方利益聚焦起来,并在此基础上达成一种反思性的动态平衡。除此之外,平衡论对软法的强调有助于构建一套个人免受自动化决策权利保护的多元体系。个人免受自动化决策权利所针对的对象除了政府权力之外,还有算法权力。这些权力在技术的加持下,变得愈来愈架构化、隐蔽化和碎片化。传统的以他律机制为核心的硬法既难以应对国家权力和算法权力对个人免受自动化决策权利造成的侵犯,又难以让个人基于数据主体身份而分享数据行业发展带来的社会效益。因此,平衡论除了强调进一步加强硬法建设以外,还强调需要加强公共部门算法问责机制、自动化决策伦理审查机制、资源分配优先级机制等建设。这些机制往往具有一定的笼统性、原则性、模糊性和制度弹性,在适用过程中有较大的回旋余地与调整空间。这些机制规范可以弥补硬法在保护个人免受自动化决策权利方面的不足,并连同硬法制度体系一起,形成一套多元化的融贯于事前、事中和事后的全过程保护机制。

四、平衡论视角下个人免受自动化决策的法律制度构建

平衡论的基本理念既改变着我们对于个人免受自动化决策权利本身的认识,又为我们处理数据主体权利和数据产业发展之间的关系提供了方法论基础。我们应当从平衡论理念出发,在充分考虑数据主体个人利益和公共利益之间平衡的基础上,构建一套个人免受自动化决策的法律制度体系。这需要我们对自动化决策的具体场景和各个场景涉及的权利重要性进行区别,建立一套分级保护机制;需要对个人免受自动化决策的过程进行区分,建立一套全过程平衡保护机制;需要对个人免受自动化决策的法律制度体系进行划分,建立一套硬法与软法协同保护机制。因此,平衡论的基本理念渗透到有关个人免受自动化决策的全过程。

(一)免受自动化决策的分级保护

自动化决策已经广泛运用于社会生活的诸多场境,并在给人们生活带来便利、高效的同时,也存在某些场合侵犯人的尊严和权利、违背正当程序原则的风险。因此,我们既不能对自动化决策的运用采取完全禁止的态度,也不能采取放任不管的态度,而应当在数据主体与数据控制者之间采取一种平衡的态度。这种平衡的态度,要求法律应当从自动化决策过程中涉及的具体权利和社会利益的重要程度出发,结合具体的场境,采取一种相对实用主义的方法来提出制度解决方案。某项权利对数据主体愈重要,也就意味着与个人尊严关联度就愈高,法律就愈应当防止自动化决策对数据主体的侵害。反之,某些自动化决策可能会实现更大的社会利益,在符合比例原则的前提下,可以适当限制个人免受自动化决策的权利。因此,免受自动化决策的分级保护,理应是平衡论的应有之义。近年来,实务界也在试探着建立一套免受自动化决策的分级保护机制。2019年加拿大颁布了《自动化决策指令》,从个人或集体的权利,个人或集体的健康和舒适,个人、实体或集体的经济利益、生态系统的可持续性四个维度将自动化决策分为四个等级:一级自动化决策通常会对上面因素产生可逆且暂时的影响;二级自动化决策对上面因素产生可以可逆的短期影响;三级自动化决策对上面因素产生难以逆转的持续性影响;四级自动化决策对上面因素产生不可逆的永久性影响。[42]尽管《自动化决策指令》整体上具有较强的原则性和指导性,但这种思路和想法值得我们进一步深化。笔者认为,我们可以从以下层面来对免受自动化决策进行分级保护。

第一, 对生命权、自由权等重大基本权利作出处分的事项、对社会发展和生态系统可持续发展产生重大影响的事项,不应该采用自动化决策。生命权、自由权等基本人权的处分和限制只应该由人来作出,因为这种决策需要决策者具有高度的共情心和同理心,并且充分体现一种同理心正义。[30]自动化决策的主体不是人,而且决策依据的机器伦理难以转换成人类伦理,这直接影响被决策者对于自动化决策结果的接受程度。就对社会发展和生态系统可持续发展产生重大影响的事项而言,这些决策活动不单是一种科学性的活动,也是一种民主性的活动,因此,这些事项的决策应当强调决策的开放性、参与性和论证性。自动化决策因数据前见、反复迭代和“算法黑箱”等问题,既有可能在科学性上存在问题,也可能将社会公众拒之门外。一旦人们将对社会发展和生态系统可持续发展产生重大影响的事项交由自动化决策,就极有可能给社会带来永久性不可逆的影响。例如,政府在审批修建核电站的申请时,不能将这种决策权交给自动化决策系统来完成,因为核电站的修建,涉及面广、社会影响大。政府在决策时除了要进行项目可行性分析外,还要进行环境影响评估、社会稳定风险评估等。这些评估除了是一个科学认知的问题外,还是一个风险感知的问题。风险感知活动既是一种需要运用科学理性的活动,也是一种需要运用社会理性的活动。这两种理性保持着互相交织、互相依赖的状况,从而使人们全面地把握事物的本质。[43]P30倘若把这种决策活动交由自动化决策系统来完成,就忽视了社会理性在决策中的作用。

第二, 对数据主体积极性权利会产生一般性影响,需要经过当事人同意才能运用自动化决策。同意原则是数据法领域中的一个核心范畴,它强调数据控制者在自动化决策过程中既要履行信息透明和公开的消极义务,又强调履行接受数据主体进行查询、质询等积极义务。[44]同意原则一方面能够在数据控制者和数据主体之间进行一定的平衡,以防止算法权力滥用;另一方面也具有一定的自甘风险色彩,从而对数据控制的侵权行为实现有限豁免,有助于推进自动化决策技术的发展。例如,中国在2021年审议通过的《个人信息保护法》就明确规定了同意原则是利用个人数据和信息进行自动化决策的一个条件。在实践中,我们可以从29 条工作组发布的《有关 GDPR 自动化个人决策和识别分析的准则》关于“法律影响”和“近似重大影响”的解释来反向定义一般性影响。在该准则中,“法律影响”和“近似重大影响”往往意味着某些决策活动直接会给数据主体带来不利后果。例如,被剥夺某种法律权益、拒绝进入边境,或者对个人境况、行为存在歧视或排斥的潜在可能性。这些“法律影响”和“近似重大影响”往往是对个人消极性权利造成的影响。而涉及数据主体积极性权利的自动化决策,需要经过当事人同意才能运用。

第三, 对集体性利益或社会利益带来可逆的短期影响时,需要履行说明义务后,才能运用自动化决策。在实践中,某些自动化决策并不是针对某个特定的个体,而是针对集体或社会作出的。这种集体性利益或社会利益难以由某个个体来代表,同意愿则在这种情况下无法奏效。因此,法律应当要求数据控制者履行说明义务,就自动化决策的依据、自动化决策带来的可能后果以及弥补这种不利后果的后续措施等内容进行必要的解释和说明。

第四,对不涉及到价值判断的事实性问题的识别和证据固定等事宜,在技术条件允许的情况下,可以不经当事人同意或说明,就可应用自动化决策。就某一项特定的人类活动而言,我们可以区分为观测、分析和行动三个部分。从信息处理角度来看,观测强调信息的获取;分析强调对获取的信息依据一定的知识进行分析;行动强调经过分析的信息通过行动机制转换成现实的结果。[45]P1769在这个人类活动链条中,观测愈中立、客观,后面的分析和行动的效果就愈好。就事实性问题而言,它在人类活动链条中处理观测部分,自动化决策往往具有更高的精准性和高效性。例如,交通抓拍中对违章车辆进行识别和证据固定、火车站和飞机场等重要领域进行人脸识别、医疗过程中智慧手术等。这些问题往往涉及的是事实性问题的认识和证据固定问题,而较少涉及价值判断。允许对这些事项进行自动化决策能够提升工作效率。

(二)免受自动化决策的全过程平衡保护

自动化决策是一种“大数据加持机器学习模型,在范围不确定的环境中进行规律挖掘或模式识别,替代自然人实现温故而知新的基础性预测工作与规范性鉴别工作”。[46]它既涉及到数据收集、数据存储、数据检索、数据修改、数据降噪、数据共享等数据处理过程,又涉及到算法开发、算法运行、算法结果检验等环节。[47]P216-239每个环节所解决的问题会有不同,所涉及的权利和利益也有不同。在不同的环节或节点上,法律所要保护的侧重点和方式也会有所不同。因此,免受自动化决策的法律保护本身就是一种全过程的动态性保护。具体来讲,免受自动化决策的全过程平衡保护可以分为前端、中端和后端三个层面。

就前端而言,它主要涉及自动化决策系统的开发和设计问题。随着人工智能技术的发展,自动化决策主要包括基于机器学习的算法自动化决策和基于神经网络的超级自动化决策两种基本类型。它们能够通过智能算法和数据训练,并借助反复迭代和递归技术完成期待的价值选择。[48]因此,自动化决策系统的前端治理具有重要意义,它能够将有些问题在自动化决策系统的开发和设计阶段就进行处理。在实践中,自动化决策系统的评估就是一种前端保护机制。评估的内容主要包括:(1)对自动化决策系统进行详细描述;(2)系统的相对成本和收益;(3)是否存在侵犯个人隐私和信息安全的风险;(4)应对最小化风险的主要步骤。[49]在前端治理过程中,如何在保护数据主体基本权利的前提下,最大限度地释放数据行业的活力是一个核心问题。为了实现这一目标,自动化决策系统评估机制引入了成本-收益方法,并提出最小化风险的概念。这也就意味着自动化决策系统的开发和设计遵循的是一种功利主义原则,并通过一定的弥补措施来克服功利主义原则存在的问题。

就中端而言,它主要涉及自动化决策系统的具体运用问题。从前端上讲,法律已经尽最大可能地为自动化决策技术的发展保留了空间,尽管在自动化决策运用过程中还会涉及到自动化决策技术的发展问题。为了防止自动化决策和算法权力的滥用,实现数据控制者与数据主体的利益平衡,法律应当将是否愿意接受自动化决策的选择权交由数据主体自己来决定,在此过程中,决策者应当对自动化决策进行解释。但是,解释自动化决策的过程也是一个沟通和平衡的过程,它并不是为了实现“没有意义的透明”,或者建立个体对于算法的绝对性控制,而是形成一种沟通和信任关系。如果个体要求解释自动化决策的请求权和决策者解释权行使恰当,解释权就可以充当沟通与信任的桥梁,既可以消除个体的疑虑,又可以成为信息主体倾听消费者、改进服务的渠道。反之,自动化决策的解释可能成为进一步破坏信任关系的壁垒。[50]因此,在具体的制度构建中,法律应当更多地从程序上来设置自化动决策解释权。其理由主要有以下两方面;一方面,自动化决策是一种高度专业化的活动,绝大多数非专业人士并不具备相关的理解能力。通过赋予个体要求过多实体性内容的权利,极有可能产生更多的误解;另一方面,强调从程序上设置自动化决策解释权,实质是将相关的义务苛以决策者一方,从而对决策者形成一种“作蛮自缚”效应。

就后端而言,它主要涉及自动化决策发生侵害数据主体权利问题。在制度构建上,这里主要存在两种情形:第一种是行政机关运用自动化决策。在这种情形下,自动化决策是作为行政权力行使的一种工具而存在的,行政机关应当就自动化决策发生的侵害行为承担责任。在实践中,自动化行政决策是否享有一定自由裁量的空间问题是一个值得关注的问题。就目前来看,自动化行政技术水平仍然主要处于静态反馈阶段,难以处理需要裁量的不完全信息,因此,还不具有自由裁量能力。[51]第二种是民事领域运用自动化决策。在这种情形下,我们需要考虑自动化决策中侵权相关关系、责任主体、责任方式、主观过错等因素。倘若自动化决策设计者和使用者因过错造成算法缺陷,对他人造成损害的,设计者、使用者应当承担侵权责任。算法自动决策投入使用后发现存在缺陷的,设计者、使用者应当及时采取补救措施。未及时采取补救措施或补救措施不力造成损害的,应当承担侵权责任。明知算法存在缺陷仍然设计、使用,造成他人财产、精神健康严重损害的,被侵权人有权请求相应的惩罚性赔偿。[52]在这两种情形下,法院都应当意识到自动化决策的高度复杂性,它可能会涉及一些高度不确定性的未知事项。法院应当在法律与科技之间进行有效平衡,即在维护数据主体权利的同时,也应当对科技问题保持适度的司法节制,不要过多地对自动化决策的技术问题及其相关的技术标准问题进行实质性判断。

(三)免受自动化决策的硬法与软法协同保护

自动化决策技术正处于起步发展阶段,法律的功能并不是要遏制这一技术的发展,而是要科学有效地引导该技术的发展。然而,在实践中,各方的权利边界还难以划分清楚,各种新的法律纠纷形态还在不断出现,这给传统的以强制力为保障的硬法机制带来了挑战。软法保护机制能够以原则性、灵活性和较强的制度弹性弥补硬法机制在平衡个人权利和技术发展之间的不足。具体来讲,这种软法机制主要包括:(1)自动化决策的技术标准。技术标准制定过程既是一个科学化的过程,也是一个多方主体之间利益的博弈和平衡过程。而且,在不同场境中参与博弈和平衡的主体及其代表的利益是不同的。因此,应当根据不同场境来分散制定自动化决策的具体技术标准。[53](2)自动化决策风险评估机制。风险评估机制是对自动化决策可能带来的影响或损失的可能程度进行量化评估,它主要包括风险量化和风险交流两个阶段。风险交流在本质上是一种沟通活动,能够在各方主体之间进行平衡,对于自动化决策系统的开发和设计具有重要作用。(3)自动化决策的伦理规范。科技伦理规范除了具有促进全社会去了解和监督科技创新、发展与应用,从而引导科技向善的功能外,还通过提炼科技领域具有共识性的伦理准则的方式去指引科技创新、发展与应用中的行为向善的功能。[54]自动化决策作为一种具有强烈支配性的新兴技术,更应当以实现用户的数字福祉为出发点来构建伦理规范。这些伦理规范能够在社会提出的伦理原则或指导方针与算法设计者或开发者提出的目标技术之间进行一种反思性的平衡,并渗透到自动化决策的各个环节。[55]P2314在具体的操作过程中,我们应当通过法律规范形式,对科技伦理委员会、科技伦理审查、科技伦理评估等基本治理工具进行明确,提升科技伦理治理正式化水平。[54]

综上,随着人工智能、信息技术和计算科学的发展,自动化决策在社会中运用的范围愈来愈广泛。人们在享受算法和自动化决策带来便利的同时,也逐步被它们嵌入化,相关数据不断被纳入算法决策系统,并通过机器的自主学习不断升级延展,因此,现代社会赖于支撑的主体性原则受到了严峻挑战。传统权利观念中的对抗防御逻辑日益转向为沟通合作逻辑,权利的目的不再是要实现一种要么全赢,要么全输的“零和博弈”的结果,而是要实现一种共赢结果,这也就意味着智能时代需要建立一种反思与平衡机制。如何在个人权利与科技发展之间建立一种动态平衡关系,构成了思考个人免受自动化决策这一问题的前提。我们必须将数据主体的权利放入数字科技发展的历史洪流中来考虑,因为人类生存生产生活各领域都无一不被数字化,并不断被算法决策“算计化”。这种“算计化”因机器的深度学习而具有强烈的迭代性,这需要将平衡论引入数据法学领域,从平衡论的角度出发,构建个人免受自动化决策的法律保护制度,实现从静态保护向动态保护、从一体保护向分级保护、从硬法保护向软法保护、从救济保护向全过程保护的转型。惟有这样,法律才能促进数据行业发展和数据主体权利之间的协同平衡发展。

猜你喜欢
权利决策主体
论碳审计主体
为可持续决策提供依据
论自然人破产法的适用主体
我们的权利
何谓“主体间性”
股东权利知多少(一)
决策大数据
决策大数据
诸葛亮隆中决策
略论意象间的主体构架