生成式人工智能背景下网络信息生态风险的法律规制

2023-02-28 19:53侯东德张丽萍
社会科学研究 2023年6期

侯东德 张丽萍

一、问题的提出

人工智能技术几乎重塑了我们的生活方式。诸如智能推荐等方法是如此熟悉而普遍,以至于很难引起关注,更不用说将它们视为与无数社会控制和权力实践联系在一起的社会秩序的核心组成部分了。这些做法正在给网络空间及社会文化带来变化。个体,曾经被理解为道德或理性行为者,越来越多地被塑造为不断更新的人工智能算法作用的对象。这种从道德主体到精算主体的转变标志着国家和其他大型组织对个人行使权力的方式发生了变化。基于信息生态理论视角下信息生态系统构成要素的信息人、信息本体、信息环境及其之间的连环共生关系①参见靖继鹏、张向先主编:《信息生态理论与应用》,北京:科学出版社,2017年,第6—13页。亦呈现出新的特征。预训练模型加速了人工智能技术的迭代更新,以chatGPT 为代表的生成式人工智能的广泛应用使网络空间信息传播方式从平台与算法的分发推送模式向智能问答模式转变;将此类模型接入搜索引擎、音视频生成、出版、教育等垂直行业领域应用将指数级提升服务及应用效率,大幅加速产业升级。生成式人工智能在输出及应用端的出彩表现需要前期海量的数据资源投喂训练与内嵌算法作支撑,基于算法、模型、规则生成信息内容的无监督或部分监督式的学习框架①See Mlađan Jovanović and Mark Campbell, “Generative Artificial Intelligence: Trends and Prospects,” Computer, vol. 55,no.10 (October 2022), pp.107-112.不仅能够提炼信息内容,还能够利用既有内容检测训练痕迹并学习其模式和分布。作为网络安全、政治安全的重要组成部分,生成式人工智能背景下系列应用中算法内嵌价值偏向和基于特定目的的导向性利用均使其存在网络信息生态异质化塑造的可能,并在应用及实践过程中引发信息生态风险,主要体现在以下方面:

第一,主流价值离散风险。一方面,算法分发模式下信息内容推送机制和叙述方式变化产生对主流信息内容传播效力的消解作用。与科层制传播结构信息内容的推荐、审核、把关流程不同,算法主导下信息内容创作及推送机制呈现出显著的效率和商业利益导向特征,这由信息主体、信息载体与信息环境各要素的改变所共同决定。商业利益驱动下的所谓用户黏性提升和通俗内容广泛传播势必在一定程度上挤占主流价值内容传播空间,影响着主流信息内容所承载的涵养及教化功能的实现。另一方面,信息传播机制的去公共化议程削弱了主流价值引领。由李普曼提出的议程设置理论认为,大众媒介可以通过信息供给和议题安排有效左右人们对公共事务的关注,影响公众意见发表的先后顺序。人工智能推荐算法主导下的议程设置呈现出去公共化趋势。社会主流价值内容传播面临障碍,社会公共议题萎缩,主流价值引领面临困境。

第二,网络舆论群体极化风险。人工智能算法支撑带来信息分发效率不断提高的同时也产生了信息茧房和回音室效应;去中心化的信息传播机制、去公共化的议题设置机制使得主流价值引领乏力,大众对民间意见领袖的盲目跟随等都使公共舆论场域暗含群体极化风险。其一,信息茧房引发观点极化。人工智能算法围绕用户个体兴趣和所在圈层进行信息分发,长期沉浸于同质化的信息氛围之中,单一信息环境构成群体极化的诱因之一。其二,盲目跟随引发观点极化。个体的主观性和局限性决定了用户在面对公共事件时缺乏相应的专业与严谨判断,于是或受群体意识压迫,或被特定利益集团蛊惑,往往做出与客观事实理性相违背的主观判断、情绪发泄及舆论输出。这将在更大程度上扩大既有观点聚合,事实上发挥推动群体极化形成的作用。其三,价值依附引发观点极化。面对公共事件,除少数用户群体选择将官方主流媒体作为唯一可信渠道外,多数群体往往或基于自身感性认识,或选择追随所谓民间意见领袖,将自身价值判断依附于他方。社会心理学中的从众心理和羊群效应使得相对温和的个体观点趋向于沉默或跟随,往往趋向于观点极化。②参见尹寒、杨军:《试论自媒体时代网络舆论群体极化及其引导机制》,《湖北社会科学》2023年第2期。

第三,公共信任体系崩溃风险。其表现在于:一方面,智能内容生成模型与算法分发带来的信息生产、传播机制的转变,引发媒体公信力危机。新闻报道尤其是负面或虚假新闻报导是引发公众对政府、媒体以及社会不信任的重要感知来源。③See Dhavan V. Shah, “Civic Engagement,Interpersonal Trust, and Television Use: An Individual-level Assessment of Social Capital,” Political Psychology, vol.19, no.3 (September 1998), pp.469-496.算法生成内容和信息传播机制产生用户阅读习惯的转变需要新闻业者适度转变信息创作方式和传播策略以做出应对。但这一过程的风险在于,如果无法在完整的内容生产和传播链条中保障信息的真实与准确,那么媒体的公信力也将在一次次的即时推送中被无情消解。另一方面,作为政策公信力来源的专家被过度消费,引发公共政策合理性危机。社会决策的做出基于两个重要方面:决策的科学化与决策的民主化。当前中国的民主化决策机制由人民代表大会制度和中国人民政治协商会议制度共同保障实施。决策科学化是政策合法性的重要保障。各领域专家学者以自身专业智识对社会发展中的各项问题做出可行性分析与合理论证,从专业角度提出相应解决方案,为政府决策提供科学化支撑。然而官方组织和商业机构都呈现出过度消费专家的倾向。这一表现反噬到公共信任体系和社会信任体系之中,“不信任媒体、不信任专家、不信任政府”的多重不信任状态的社会心理蔓延,其结果是导致公共政策的合法性和合理性危机。④参见李瑞昌:《风险社会的政治挑战》,《文化纵横》2012年第5期。

二、网络信息生态风险形成机理分析

首先应回归科学技术的本质展开思考。技术中立在一种最低意义上表明了技术“具有讨论起点意义的独立性”,且蕴含着价值判断、归责原理和法律意义等三重意涵。①参见郑玉双:《破解技术中立难题——法律与科技之关系的法理学再思》,《华东政法大学学报》2018年第1期。科学技术因其自身的客观结构和物理属性易产生技术中立“幻象”②参见刘兴华:《数字全球化时代的技术中立:幻象与现实》,《探索与争鸣》2022年第12期。,技术发展实践的现实表明,其作为一种价值的实践样态进入公共领域之中正在制造着纷争与风险。

(一)科学技术的两重性

科学技术的去政治化面向使其获得了技术反思的隐形性,且隐形程度较高。首先应明确的是,我们所说科学技术“异化”是反思的结果,即在科技的生产力功能支撑下整个社会呈现出发展高歌猛进、经济空前繁荣、人民生活水平不断提升的一派欣欣向荣景象,通过反思,于合理之中发现它的不合理性。发达工业文明中科学技术所具有的生产效率和效能以及创新和扩大生产方式、不断更新和丰富舒适生活品质的能力,都表明其带动社会繁荣的能力毋庸置疑。科学技术以自身所蕴含的巨大内在力量获得了上至国家下至大众各阶层的广泛认同,统一了大众的口味和兴趣,这是一种无须辩白的合理性存在。与此同时,对商品的追逐成为人们生活的终极目的,汽车、房子、便利的生活方式、不断更新的科技手段等逐渐成为人们生活的“真谛”。在科学技术作用下,个体与社会之间的连接机制悄然改变,科学技术通过实践理性过程带领人们朝着崭新的、与传统政治生活相背离的方向奔去,技术控制在科学技术不断创造出的新的需要中愈加稳定。科学技术与人们生活之间的联系是如此紧密、如此坚固、如此必不可少,于是得以享有免于反思、免于批判的自由。

科技进步呈现出作为先进生产力和实现技术控制合法性的双重功能。科学技术具有促进生产效率提升和繁荣社会发展的积极价值。人们也许认为,科学与技术对社会控制是漠不关心的,尽管它在事实上可以变革或阻碍社会的发展。这种观点认可科学技术本身的中立性,认为科学和技术在被利用的过程中体现出工具属性,工具价值的发挥取决于利用主体的目的性活动。马克思曾对这一中立性提出异议:“手推磨产生的是封建主为首的社会,蒸汽磨产生的是工业资本家为首的社会。”③《马克思恩格斯选集》第1卷,北京:人民出版社,2012年,第222页。虽然这一论断在其后的论述中又受到马克思进一步修正,但不可否认的是科学技术对自然和物质世界的改造最终导致了对人的改造,技术作为“人的创造物”出自社会整体又返归社会整体;技术实践过程本身对社会控制漠不关心,但它的确具备变革或阻碍社会发展的能力。马尔库塞将这种关系称为“技术先验论是一种政治先验论”。④赫伯特·马尔库塞:《单向度的人——发达工业社会意识形态研究》,刘继译,上海:上海译文出版社,2006 年,第123页。科学技术的加成促进了科学的分工和社会管理的科学化,技术理性开始与实践理性同步发展。这一过程既不表现为不合理的,也不表现为政治性的,而是表现为对扩大舒适生活、提高生产效率的追求。这种追求包含着一种征服意图与屈从意味,展现出一种合理的极权主义倾向:它并非取消政治的合法性,而是使政治意图得以渗透从而为政治统治辩护。从这个意义上讲,科学技术变成了奴役的代名词,科技从解放的力量转而成为解放的桎梏,既实现了事物的工具化,也使人工具化了。

科学技术在网络信息空间的广泛运用使其逐渐形成一种近乎偶像化的新型技术控制力量。以私有财产制为基础,商品交换的市场机制确保了交换关系的公平合理和等价进行。这种生产方式能够将社会制度框架直接同劳动系统联系在一起,所有制不再依赖政治制度而是通过合理的市场交换确立的生产关系获得了自身合法性,也即统治制度依靠合法生产关系取得了自身的存在基础。这种交换社会的科技力量取代了以往脱胎于文化传统的神权思想,从社会劳动的根基上解决了社会控制的合法性问题,因而社会控制能够“从下”而非“从上”得以合法化。进一步的发展阶段表现为,科学技术作为第一位的生产力,科学技术进步的方向、作用和速度在根本上决定着社会各个系统整体利益的扩大,于是似乎就呈现了这样一种现象:科技进步的内在规律在很大程度上决定了生产生活环境中事物发展的逻辑与规律,即使社会整体发展进步了,也不得不遵循这种规律。在这种逻辑下,技术控制论命题的合法性基础得以进一步拓展。

(二)技术对信息生态的塑造

人工智能技术的物理属性决定了其承载了信息生态塑造功能。同其他科学技术一样,人工智能技术与算法均为人类主体理性建构的产物。技术决定论者克里斯托弗·梅指出:“很多阐释都认定某些技术‘内嵌特殊规则’……内嵌着像自由、共同体、平等、利他主义和民主等价值……无论这些是内嵌着什么样的内容,它都是这样一种理念:技术形式具有与生俱来的特性,而这些特性是人类无法干预的。”①安德鲁·查德威克:《互联网政治学:国家、公民与新传播技术》,任孟山译,北京:华夏出版社,2010年,第23页。作为人类主体理性建构的产物,以算法为代表的人工智能技术在设计开发过程中会无意或慎重地嵌入个体价值观念、一定的规范标准、常规惯例与社会形态之中,这由其自身的客观结构和编程属性所决定。而这些价值观念、规范标准、惯例、社会形态与相应的信息生态语境密不可分,因而决定了算法等人工智能技术的非中立性,以及其作用于网络空间信息生态环境的必然性。

人工智能的社会属性决定了其持续发挥着信息生态塑造功能。以智能推荐为代表的人工智能技术,结合个体画像和社群偏好进行精准化甚至引导性、倾向性的内容推送,在一次次的信息生产、分发、决策、推送等高频行为过程中,持续地影响着人们的思维方式、行为模式和生活习惯,影响着网络平台用户的价值观念与舆论表达,并在此过程中改变并塑造着网络空间的信息生态环境。以算法歧视为代表的人工智能技术,将年龄、性别、种族、职业、消费水平等各类为法律禁止或社会反对的歧视行为以算法黑箱名义嵌入各类应用之中,呈现出应用场景更加多元、作用方式更加隐蔽、更强的渗透力和影响力等特点。以机器学习和自动控制为代表的人工智能技术广泛运用于智能家居、自动化生产、智慧医疗等场景,在社会生产生活中扮演的不再仅是支撑者、辅助者角色,而是成为值得人们信赖、占据主导地位的、不可或缺的重要“伙伴”。技术的独立性、智能化程度越高,人们的依赖性就越强,人的自主性就越弱,越来越无法摆脱来自智能技术的“支配”与“控制”,技术的社会实践和价值实践一起以一种隐形控制方式改变着我们既有的认知及信赖路径,在此过程中持续影响、改变着网络空间的信息生态环境。

如果说前面讨论的人工智能的信息生态塑造功能是经由正常的技术应用实践而产生,那么基于特定目标导向的利用将经由技术实践实现对信息生态的操控。正如马尔库塞所言,“电子计算机同样有助于资本主义管理或社会主义管理;回旋加速器对于好战派或和平派可以是同样有效的工具”。②赫伯特·马尔库塞:《单向度的人——发达工业社会意识形态研究》,刘继译,第123页。以算法操控为代表的技术能够被有效嵌入社会政治等上层建筑的各个子系统之中,基于数据识别与统计分析技术实施政治操控,或干预社会舆论,或影响政治认同。人工智能技术正在以一种无孔不入而又无处不在的方式,影响、改变甚至重塑着网络空间信息生态。

三、网络信息生态风险生成路径分析

显然,人工智能技术及其应用并不会直接转化为网络空间信息生态风险。作为非中立的、价值有涉的技术集合,人工智能如何在微观技术层面对信息生态领域施加影响并引起相当程度的风险?基于信息生态系统三要素的安全风险识别方法将目标聚焦于信息、主体、环境三个方面,本文将其抽象并转换为技术黑箱、把关失灵、结构嵌入三种路径,深入剖析人工智能技术引发网络信息生态风险的作用机理,以此作为探讨法律规制路径的逻辑起点。

(一)技术黑箱路径

技术黑箱是指对算法拥有者或设计者之外的人而言,算法系统工作机制神秘,人们只能通过观测输入和输出结果判断其合理运行,却无法具体确切地了解其运行机制。③Frank Pasquale, The Black Box Society: The Secret Algorithms that Control Money and Information, Cambridge:Harvard University Press, 2015, p.3.虽然在语言学意义上,“黑箱”一词往往容易引发不公平或者负面意义联想,但就智能算法运行决策的技术机制来说,其黑箱属性主要还是一种事实性的中立描述。对于算法拥有者或编写者之外的其他人来说,算法运行的实际过程的确不为人所知。除了对输入端口质料的把控和输出端口结果的观察,算法运行过程确如黑箱一般无法被观测和追踪。

但技术黑箱的不可知性恰恰使得算法决策过程无法把控,从而为网络信息生态风险的生成孕育了空间。况且算法作为越来越普遍而广泛的应用要素,正在极大程度影响、改变着人们的生活样态。技术黑箱的不可知性使其作用于信息生态的过程亦变得扑朔迷离。仍以信息获取为例,自媒体时代用户获取信息大致有三种方式:一是以用户画像和热门话题置顶为基础,辅之以聚合推送模式;二是以社交圈层为支撑,辅之以关注推送与社群推送模式;三是电视、广播、报纸、杂志、博客等信息渠道仍有其市场空间。可见,用户对信息的获取在很大程度上依赖平台推送,受智能分发算法支配。算法运行过程中的不透明、不可测性意味着算法推荐、算法分发和算法决策过程无法被有效衡量,至少体现在两个方面:其一,信息的来源及其价值属性。既然平台信息分发的过程具有黑箱属性且无法被监测,那么作为信息分发基础的数据库及其内容便应当具备客观、科学、价值中立、向上向善等特征。并且,对这些基本特征的判断应当可以通过相应的审查机制得以明确,这是保障信息内容整体价值导向可控的必要前提,也是从程序输入阶段把控信息分发内容质量以避免人工智能算法过度侵蚀信息空间生态的有效手段。其二,分发过程。技术黑箱是相对于算法作用对象即除算法编写者、算法所有者或算法使用者之外的其他主体而言;对算法编写者、所有者、使用者而言,超出普通用户认知范围的用于算法决策的数据库、源代码以及被嵌入算法系统的变量、影响因素等并非不可理解,甚至可以编辑与控制。技术黑箱的不可知性将使算法滥用的可能性大大增加,并经由技术滥用路径为信息内容操纵风险提供罅隙。人工智能作为人类智能创造物的本质特性意味着如果算法设计开发人员结合特定应用场景的编码过程除关注作为工具的技术有用性之外还加入了其他价值判断,那么势必将产生功能偏移或异化。

(二)把关失灵路径

有观点表示,个性化算法决策在本质上是一种正常的商业活动,平台依据用户行为数据记录有针对性地进行信息分发及决策推送,在客观上提高了用户信息获取效率,同时也降低了商家和消费者之间的信息不对称,增加了广告商营业的有效性。鉴于个性化算法决策并不直接对用户的法律状态或其他类似状态产生影响,立法应给予其充分的应用空间并保持谦抑。①See Michal S. Gal and Niva Elkin-Koren, “Algorithmic Consumers,” Harvard Journal of Law & Technology, vol. 30, no. 2(Spring 2017), pp.309-353.

然而从信息生态视角考察网络平台的算法推荐行为,其性质早已超出了单纯商业活动范畴。对于算法利用主体即平台、机构、企业而言,只要满足确切性、用户适配度、可行性等特征,即满足了算法分发的基本要素。而从社会视角观察,算法推荐除了作为代码化、工具性存在,还要避免对社会价值或公共秩序产生负面影响,以社会连接形式应用到市场经营和公共生活之中,应当符合法律规定和社会伦理。智能算法本就与社会公共领域和公共事务紧密相关,例如个性化算法推荐可以在潜移默化中影响人们的价值观念,改变、塑造人们的行为方式。智能算法对信息资源的社会性调配是其产生网络信息生态风险的决定性因素,已成为一种可以影响与改变社会秩序的软性权力。

传统信息传播机制中,当然也存在着信息分发的权力。这种权力拥有者属于政府部门及其所关联的官媒,其权力来源于统治者的权威地位,使得他们能够通过合理方式传播正向积极的价值观念,巩固社会认同,这是国家作为权力拥有者的经常样态。当然,也有一些间接方式使得特定组织被赋予权力,这主要是由于该组织掌握了特定的资源和机会,如高等学校有“权力”对考生做出录取与否的决定。不同的是,网络平台所拥有的算法分发权力并不主动以良好信息生态塑造和增进公共福祉为目标,而是存在巨大的失灵和滥用风险。其根源在于,官媒的信息分发权力及赋予它的社会制度本身经过了严格证成,而平台算法权力形成于技术更迭与行业发展过程的自然累积。

权力如果未受到合理制约将经常产生被滥用的效果。首先,效率逻辑支配下的信息过度收集导致人机关系失衡。在用户画像过程中,平台、企业、机构通过收集用户的年龄、性别、教育程度、职业等基础数据,以及社会关系、消费能力、行为轨迹、心理特征等不同维度信息,通过标签规则、关联规则等的挖掘分析,使得算法可以通过画像模型了解人,进而提高搜索引擎、推荐引擎、广告投放等领域应用的精准度,提高信息传播效率。以生成式人工智能为代表的新一代人工智能环境中,数据和算法作为网络空间运行的基础要素,其所构成的结构化、规则化存在将在社会结构中发挥主导甚至支配性力量。在高度数字化的算法世界中,经由“算法之眼”②约翰·切尼·利波尔德:《数据失控:算法时代的个体危机》,张昌宏译,北京:电子工业出版社,2019年,第27页。,个体被观察、监测、评估,然后贴上身份标签。可见,这一过程中平台、企业、机构所追求的仍然是技术视角下的最大化增值,不考虑甚至完全忽视了作为权力拥有者的公共价值引领与社会责任承担。缺乏这一必要约束,以信息数据收集为支撑的用户画像将完全忽略人的主体性与社会性建构,以高效率满足信息需求为目的的平台用户从算法利用主体转而成为算法作用的客体,用户行为数据累积成为算法迭代升级的学习资源库。其次,用户至上模式的迎合式把关规则诱发把关失灵。在算法推荐过程中,平台、企业、机构为持续广泛地吸引不同偏好类型群体,可能会分场景、分时段、分类型将用户不同维度数据做加权处理。这一过程由于严格把关缺位,虚假、诱导甚至煽动性信息有机会进入信息分发过程并到达用户端口。作为算法权力拥有者和信息生态塑造者,平台不适当的审核机制将会产生巨大寻租空间,诱发网络空间信息生态安全风险。

(三)结构嵌入路径

人工智能引发的信息生态风险不仅是技术负外部性的体现,也是社会关系演化和相关制度体系共同作用的结果。①参见张彦华、徐帆:《人工智能影响政治安全的逻辑及其风险治理——基于传播政治经济学的分析》,《社会科学战线》2022年第12期。结构嵌入以算法越来越普遍而广泛地影响着现实生活情境为前提。随着人工智能算法越来越深入地参与社会资源分配、政策环境塑造甚至体制机制形成的各环节,传统信息空间领域的歧视风险、操纵风险也经由人工智能算法的结构嵌入得以系统化。

具体层面,主要表现为给予用户不利地位的系统性歧视风险。一方面,当算法决策复现了与传统决策基本一致的结果,算法自动化决策系统将强化歧视发生密度和执行力度,将偶发、碎片化的歧视常态化、系统化,其结果是受歧视一方遭受更加严密且有效率的社会排斥。②参见李成:《人工智能歧视的法律治理》,《中国法学》2021年第2期。非算法权力主导社会同样存在基于性别、残障者、病原携带者等特定群体歧视现象,但影响范围较为有限,且具有一定隐蔽性。借助智能算法加持,单次歧视的实时危害可能并不显著,但其所造成的深远影响却不容忽视。这是因为,算法社会中超大型网络平台同样承担着如高社会地位、良好社会资源等积极社会价值分配的职能,以性别、残障者等集体身份为边界的社会资源分配将在系统性歧视的推动下造就日益不平等格局。由于缺乏必要、优质的社会资源支持,不同群体之间所谓社会公平竞争环境将荡然无存。另一方面,算法系统性歧视将产生对于受歧视群体的规训效应。来自网络空间的系统性歧视将进一步深化既有社会结构中的歧视情境,进而在心理层面使得受歧视群体接受、认同这种事实上的不平等与相关制度安排。在现实世界和网络空间双重情境强化下,受歧视群体不再将自身的不利处境与显著不公的社会排斥相关联,而是将来自外界的不利因素归因于自身。算法歧视所产生的结构性不平等将借此完成对受歧视群体的思想规训。

抽象层面,主要是算法对个体自治价值的伤害,表现为算法对用户的思想渗透与操纵。其一,特定推送产生的思想渗透。用户行为数据的可记录、可挖掘属性及算法的深度学习能力是特定推送产生的前提。智能分发过程中用户接收到的信息并非基于个人意志的自主选择,相反,个体的自由意志常常受到算法决策的影响。算法经由用户画像和行为数据收集过程所累积的数据信息,在综合分析和系统评估基础上,通过泛政治内容的精准推送对用户的政治认知、政治情感和价值倾向施加影响,进而在较长时间跨度内产生思想渗透的效果。其二,恶意利用产生的思想操控。研究表明,源于用户政治人格回归分析的算法能够实现特定目的导向的情感操控。③大卫·萨普特:《被算法操控的生活:重新定义精准广告、大数据和AI》,易文波译,长沙:湖南科学技术出版社,2020年,第39页。基于算法权力支配下信息分发机制对价值观念影响的有效性,某些政治组织行动者利用深度伪造技术、大数据分析与算法嵌入的人工智能技术,与信息传播过程中输入及输出端口的信息不对称状态,或故意或盲目地制造、传播有损公共部门权威和公信力的虚假信息进入传播领域,该因素与算法运行机制的不透明性、审核环节平台把关失灵及用户的天然信任情感等多重因素相叠加,不仅产生广泛的政府信任危机,还可能诱发巨大的政治安全风险。

四、网络信息生态风险的法律规制路径

信息生态理论以信息人、信息、信息环境三个基本要素为出发点,关注信息人与信息环境的有机交互,强调信息人与信息环境之间的平衡协调。①参见李卉、国佳宁、李前:《GDPR 下法国与比利时的个人数据保护监管实践与启示——基于信息生态系统理论》,《国际经济法学刊》2022年第3期。网络信息生态风险规制,可置于风险社会理论范畴展开思考。该理论所关注的风险防范的重点聚焦于风险引发的危害后果及其发生可能性等负面效应。这表明,基于技术工具理论范式下技术工具与技术应用相分离的终端责任原则规制方式仅寄望于通过对风险所造成损害的事后补救路径,显然与风险社会理论指引的预防型思路并不相符。

安德鲁·芬伯格在批判技术工具理论与技术实体理论基础上,提出了技术批判理论,指出根本不存在所谓专注技术“本身”的规制范式,只有置身于某种具体应用情境中技术才可能得以具象化。②参见安德鲁·芬伯格:《技术批判理论》,韩连庆、曹观法译,北京:北京大学出版社,2005年,第52—57页。该理论反对技术研究与技术应用相分离的规制范式,强调要从技术研究阶段着手而非仅对技术应用进行规制,以实现事前预防技术引发的负面效应与副作用的功能。这与风险社会理论的预防型规制理念不谋而合。其次,技术批判理论并不认可技术的中立性,而是认为技术是一种处于不同可能性之间的发展的“两重性的”过程,在“技术代码”的设计体系和应用体系中均蕴含着社会价值。③安德鲁·芬伯格:《技术批判理论》,第16页。这种判断与贝克在风险社会理论中强调通过技术民主来预防、解决技术风险问题的理念④参见贝克、邓正来、沈国麟:《风险社会与中国——与德国社会学家乌尔里希·贝克的对话》,《社会学研究》2010年第5期。再次投契。基于前述双重契合特征,技术批判理论和风险社会理论可作为风险社会中技术及其所引发负面效应规制的基础理论范式和有效载体。⑤参见刘铁光:《风险社会中技术规制基础的范式转换》,《现代法学》2011年第4期。现代法律通过保障法益安全和保证法律作为决策体系自身的可靠与可预见性双重方式来获得与风险及其所生危害的未知性、不可权衡性相对的安全性,也即在技术与环境有关的层面上,对风险的预防或者排除触及了对社会具有建构意义的自由和安全的基本关系。⑥参见刘刚:《风险规制:德国的理论与实践》,北京:法律出版社,2012年,第78—91页。

(一)以正当程序理念下的算法解释促进算法透明

根据技术批判理论所确立的技术本质与技术应用相结合的规制思路,破解技术黑箱规制难题仍有必要回归算法的技术本质作为思考原点,惯常思路是算法公开。针锋相对的主张如言论、商业秘密等均无法与之有效抗衡。⑦参见陈景辉:《算法的法律性质:言论、商业秘密还是正当程序?》,《比较法研究》2020年第2期。然而,算法公开的可行性同样遭到来自技术领域的质疑。其一,算法公开并不等于算法可知。基于技术的不断演进和日益广泛的社会需求,算法呈现出复杂化和不可知性等特征,既源于单一算法本身,也包含了在应用实践中广泛存在的不同算法模块间的交互反应。算法模块化运行可以辅助解决一些复杂算法问题并在一定程度上促进算法的可解释性,但其弊端就在于会令算法之间的反应变得难以预料。⑧参见卡丽斯·鲍德温、金·克拉克:《设计规则模块化的力量》,张传良译,北京:中信出版社,2006 年,第222—225页。这就决定了算法解释及其透明性在某种程度上仅是一种美好的技术理想。另一方面,算法个性化推荐与自动决策过程包含着大量的随机和自主运行程序,呈现出一种无法被完全解释的指令系统。如在智能推荐场合,算法根据用户在页面内特定信息的停留时间等行为数据相继作出推送决策,且该推送结果随着用户行为轨迹的变化而改变。可见,算法运行的决策规则所依据的原始数据和输出结果均处于动态变化过程之中且难以把握,算法输入和输出过程之间的因果关系在技术层面可能根本无法被解释。

有关算法技术本质的讨论充分表明,完全程度或完全意义上的算法公开在可行性和必要性方面都存在瑕疵。但这种争论的价值就在于能够帮助规制者反思声浪巨大的算法透明化主张的合理程度,以避免陷入经由完全“透明”“公开”方能实现的所谓算法正义悖谬。算法运行的技术本质固然重要,然而更应着重关注的是算法的社会应用及其应用实践过程中所引发的权力配置、社会关系和法律关系变化。⑨参见沈伟伟:《算法透明原则的迷思——算法规制理论的批判》,《环球法律评论》2019年第6期。

另一种思路是正当程序。算法拥有者以制定规则和政策的方式行使对用户的约束权力,因而应当借鉴公权力行使的正当程序理念,使其满足正当程序的规范性要求。①参见陈景辉:《算法的法律性质:言论、商业秘密还是正当程序?》。依据正当程序要求,权益受到决策影响的任何当事人都应被告知决策的性质和理由,并拥有陈述意见和获得申辩的权利,通常体现为程序本身的公开和程序运行过程公开两个方面。其可行之处在于,保持算法运行过程的非公开性并不妨碍对其做出是否符合正当程序的结果判断。从强化算法监管和促进算法负责、算法可信的角度,算法运行的技术黑箱能够有效克服人为操作的主观臆断可能,同时又在网络空间信息生态塑造和国家安全与公共利益维护方面发挥重要作用,二者之间存在着合作互惠与防范对抗的张力。在技术黑箱规制中引入正当程序能够通过程序正义保障消除个人、公众和社会对人工智能算法在信息内容质量保障和信息生态环境塑造过程中的疑虑并防范算法对用户的不合理支配。也就是说,正当程序理念指引下的算法透明应以建立算法拥有者和利用主体间的信任关系作为目标。②参见苏宇:《算法规制的谱系》,《中国法学》2020年第3期。

首先,正当程序理念下的算法解释权应当被视为是一种动态的程序性权利。③参见李晓辉:《算法商业秘密与算法正义》,《比较法研究》2021年第3期。基于合同的不完备性,即使在最经典的合同关系中,合同主体双方也不可能针对合同所涉事项事无巨细地约定完全,合同成立到履行完毕的过程需要双方之间信赖关系的持续性存续并辅之以合同解释规则的合理运用。算法分发过程中平台、企业、机构和用户之间的信任程度较传统合同场合相对更低,双方持续性信任问题更加突出,通过一次性地赋予用户算法解释权不仅无助于双方信任关系的形成、深化和用户权利的切实保障,而且也难以在实质意义上促使平台切实履行信息质量保障与信息生态引领的公共责任。因此,作为质疑人工智能算法运行技术黑箱的有效工具,更为合理的算法解释权应当是正当程序理念指引下的算法解释权。绝对透明化的算法解释权不仅具有技术方面的不可得性,信息的无限度公开也将徒增平台与用户双方信息权利主张与保护负累。以算法解释权作为平台与用户及大众之间建立沟通信任关系的正当程序权利,将有助于建立起公众对算法作用于信息生态领域的信任感。④参见丁晓东:《基于信任的自动化决策:算法解释权的原理反思与制度重构》,《中国法学》2022年第1期。

其次,正当程序理念下的算法解释权应关注算法设计、运行和输出的全过程。摒却对算法运行过程中公开和透明度的线性价值追求,程序正义保障下的算法解释除了要求一定程度的算法公开外,其他程序正义要求如中立、参与、效率等均应在算法分发的形式、步骤、过程中得以满足。同时,实现外部价值衡量的实质性程序价值如尊严、平等与自由,也应在人工智能算法满足外部道德性和正当价值性过程中得到保障。⑤季卫东:《法律程序的意义》(增订版),北京:中国法制出版社,2011年,第37页。这些程序性价值标准能够为算法利用过程中技术黑箱所内嵌与外源的恣意、专断、偏见、歧视等风险提供稳定预期并有效防止其无限制外溢。

正当程序理念下的算法解释权可以从内部控制机制和外部约束机制两方面得以实施。内部控制方面,可设立算法设计中的运行逻辑解释与审查机制。可参考的立法例是欧盟《通用数据保护条例》第35 条。该条要求数据处理可能妨碍个人权利行使、阻止其订立合同或获得服务时,算法控制者应提前针对数据处理过程对个人数据权利行使可能造成的影响进行评估。算法设计或使用主体应当对算法决策运行的基础逻辑、可能引致的信息生态风险及相应的防范机制进行释明并达到相当强度的解释标准以便于公共部门作出合理判断。同时应当向公众解释自动化分发的意义与可能后果,为公众提供拒绝算法分发结果的有效渠道和相应的意见反馈通道等。⑥参见解正山:《算法决策规制——以算法“解释权”为中心》,《现代法学》2020年第1期。算法运行的过程控制可通过反不一致检测、价值偏离预警、神经网络中间层⑦See Paul de Laat, “Big Data and Algorithmic Decision-making: Can Transparency Restore Accoutability?”ACM SIGCAS Computers and Society, vol.47, no.3 (September 2017), pp.39-53.等技术手段介入。

外部审查方面,以自然语言或可视技术对算法运行逻辑、数据输入与输出结果之间的相关性进行解释既能够避免与算法的商业秘密保护形成冲突,也有助于公众从原理上理解算法分发的作用机理从而产生对算法技术及企业、平台、机构的持续性信任。必要时通过可信第三方(如公共监管部门或其委托方)介入算法分发过程对可能造成个体及公众注意力损害的算法进行核查并提出质疑,如此既可回应算法拥有者及控制者的商业秘密权益关切,同时又能实现用户正当信息权益的合理保护。

(二)以信息生态影响评估纠偏算法把关失灵

平台、企业、机构的算法分发权力在社会价值观念形成和信息生态环境塑造方面发挥着巨大作用,因而仍将其作为普通商事主体对待无疑将产生社会责任承担不足的问题。把关失灵规制问题主要聚焦在平台、企业、机构对注意力市场规则制定、数据控制、资源分配等权力所构成的对传统信息生态结构的重塑,而基于商业利益和效率考虑生成的传统规制模式效能迟滞,不仅无法对平台自我约束行为的公共性缺失等负外部性进行有效补足,也无法阻止算法不正当利用所产生的负面效应。作为算法拥有者或使用者的平台、企业、机构,其先发优势、规模效应、网络效应使之成为社会信息生态领域极其重要以至不能完全放给市场力量来管理的关键信息基础设施。无论是从促进网络信息基础设施维护的角度,还是基于网络信息空间公共性价值考虑,对特定的网络平台、企业、机构施加一定的公共义务都是必要的。①参见高薇:《平台监管的新公用事业理论》,《法学研究》2021年第3期。

平台、机构、企业作为信息分发权力主体和网络空间信息生态塑造参与主体应当发挥自身作为自由讨论空间的公共论坛属性并承担起载体性质的公共责任。算法决策的公共性价值及其利用是平台、企业、机构等快速发展的支柱,它可以被无限制地用于争夺用户注意力、离散公共意见形成、侵蚀公共领域空间,也可以经由公共价值平衡进而实现价值弘扬、舆论引导、公共信任、文化涵养等一系列社会功能。也即,算法分发权力把关失灵的修复需要实现公共性价值和非公共性价值、供给与效益之间的平衡。遵循这样的规制思路,将难以量化评估的注意力、质量(包含信息生态影响)损害融入现有规制框架,才能为算法监管和平台把关提供更为明晰的指引。

从算法影响评估制度中抽象出信息生态影响评估,对平台利用算法的设计、应用和数据处理等内容进行全面评估,确定其所产生信息生态影响的程度和风险等级,进而采取减缓或消除负面影响及相应风险的措施。信息生态影响评估制度价值明显:其一,有助于从程序和实质两方面创建决策运行过程的信任机制,增加算法决策的适当性和算法系统运行的稳健性。其二,有助于促进“负责任的”算法研发,弱化对算法黑箱和复杂化算法设计的逆向激励。其三,有助于将算法治理规范和技术标准结合起来,督促平台强化把关控制,以实现更高效的风险管理。②参见张欣:《算法影响评估制度的构建机理与中国方案》,《法商研究》2021年第2期。

基于场景治理和精准治理的思路,立法者在建立基于影响维度的评估指标体系过程中亦将算法治理所要维护的社会核心价值融入其中。加拿大《自动化决策指令》关注自动化决策在经济、社会等方面的影响,将系统对个人或公众在基本权利、健康福祉、经济利益等方面的影响纳入算法影响评估指标体系之中,并将影响等级划分为可逆短暂影响、可逆短期影响、难以移转的持续不断性影响、不可逆转的永久性影响四个等级。③See Government of Canada, Directive on Automated Decision-Making, https://www. tbs-sct. canada. ca/pol/doc-eng. aspx?id=32592,2023年8月7日。美国立法者则更多聚焦算法决策对公平、偏见、歧视、隐私、安全等价值的影响,联邦《算法问责法案》自动化决策系统影响评估(C)项就规定,系统对消费者隐私安全风险、系统可能引致消费者遭遇偏见及歧视决策的风险应当得到评估。④See S.1108, Algorithmic Accountability Act of 2019,http://www.congress.gov/bill/116th-congress/senate-bill/1108/text,2023年8月7日。纽约市则以自动化决策系统潜在影响的性质和程度、持续时间,不同类型的已知或潜在风险等为基准建立影响维度的评估指标体系。⑤See Automated Decision Systems Task Force, New York City Automated Decision Systems Task Force Report, p. 18-21,from https://www.nyc.gov/assets/adstaskforce/downloads/pdf/ADS-Report-11192019.pdf?ref=hackernoon.com,2023年8月7日。

合理的信息生态影响评估制度不仅有助于在一定程度上提升算法的透明性,而且通过对算法运行系统负效应和风险程度的揭示能够提升算法运行过程中技术黑箱、平台把关及结构风险嵌入规制的有效性;同时通过信息生态影响及其内生或外源风险的评估与披露,使得用户和公共监管部门对其所利用算法的风险程度拥有合理认知并为进一步的权利行使提供空间。有学者将代表性的算法影响评估制度实践分为封闭合规型和开放反思型两种,并从启动时间、公众参与、评估披露、规制理念、功能定位等方面展开了细致对比,认为开放反思型算法影响评估制度在促成算法透明、保障正当程序以及接受公众审查等方面更具实效。①参见张恩典:《算法影响评估制度的反思与建构》,《电子政务》2021年第11期。我国《个人信息保护法》第55 条第2 款明确规定利用个人信息进行自动化决策的,应当进行个人信息保护影响评估。亦有规范性文件从信息舆论属性和社会动员能力角度要求互联网信息服务提供者在特定情形下自行开展安全评估以维护国家安全、社会秩序和公共利益。②参见《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》第3条,《互联网信息服务算法推荐管理规定》第24、27条。但《个人信息保护法》及其制度设计由信息处理者主导实施,在定位上更多以满足企业算法自动化决策的合规要求为导向,因而呈现出较强的封闭性和自我规制特征。

信息生态影响评估首先应当吸纳现行法的相关规定。《数据安全法》第30 条明确重要数据处理者负有定期开展风险评估并向有关主管部门报送评估报告的义务。《个人信息保护法》第17 条明确个人信息处理者应当告知个人信息处理目的、处理方式以及处理个人信息的种类与保存期限。《网络安全法》第38 条规定关键信息基础设施运营者对网络安全性和潜在风险负有检测评估义务。《电子商务法》确立了个性化推荐算法的自然结果提供义务和消费者保护义务。③参见张凌寒:《〈电子商务法〉中的算法责任及其完善》,《北京航空航天大学学报》(社会科学版)2018年第6期。

其次,信息生态影响评估的各项指标设置应当能够准确揭示算法对信息生态影响的可能性以及严重程度。需要对“风险”“信息内容的公共性”“责任”等关键概念展开针对性制度设计。④参见张欣:《算法影响评估制度的构建机理与中国方案》。具体判定要素取决于受到法律保护权益的重要性,包括但不限于:用户人格权、隐私权等受侵害的潜在程度;算法利用特定数据的敏感程度(如敏感个人信息、行为数据信息);信息内容质量;对网络空间信息生态环境产生的可能影响及程度,包括个体(如注意力损害)及公众两个层面;受影响的用户规模和潜在致害的用户总数,以及对网络信息空间的整体影响,技术伦理等。

虽然以上指标中多数指标尚缺乏必要精度与量化标准,但仍可选取替代性指标间接进行。如注意力损害一项,注意力并不是一个拥有一致学术认识的法律概念。心理学方面的解释认为,注意力是心理活动对一定对象的指向和集中的能力,是伴随着感觉、知觉、记忆、思维等心理过程的一系列心理特征。将注意力作为一种损害的对象存在着测量难题。用户的注意力损害包括经济损害和精神损害两个层面。自然主体注意力的有限性决定了其在被占用过多时存在过载与耗尽的可能。损害的经济方面表现在,注意力的容量受认知能力约束,如果存在可获得信息的超额供给,“西蒙斯设想的信息供给和注意力供给之间的反比关系将成立。”⑤John M.Newman, “Antitrust in Attention Markets: Objections and Responses,” Santa Clara L.Review, vol.59,2020, pp.743-769.当用户有限的注意力被平台供给的各类信息大比例占用,将更多时间和精力投入到无甚经济助益的行为与活动中去,他们获取收入、进行价值创造、投入生产生活的时间和精力就随之下降。⑥See Gary S. Becker, “A Theory of the Allocation of Time,” The Economic Journal, vol. 75, no. 299 (September 1965),pp.493-517.这就使得注意力所生经济损害的测量得以可能,可通过平台投放广告数量的变化、平台行为对消费者剩余的影响来实现。⑦参见喻玲:《个性化推荐、公共性贬损与数字新闻市场反垄断》,《法学》2022年第11期。

又如信息质量一项,可参考新闻质量评估的抽象标准即“新闻是否以及如何促进公众讨论进而加强公共舆论和决策形成”,新闻质量评估通常从相关性、情景化、专业性和多样性等指标进行。⑧See Philipp Bachmann, Mark Eisenegger and Diana Ingenhoff, “Defining and Measuring News Media Quality: Comparing the Content Perspective and the Audience Perspective,” The International Journal of Press/Politics, vol. 27, no. 1 (January 2022), pp.9-37.学者们多认为,度量指标可以包括用户与异质观点的接触、对比性信息的引用或信息来源的多样性等,这为信息生态影响评估提供了更加明确的标准:其一,主体多样性,保障相关市场独立媒体数量充足以实现异质化内容的持续性供给;其二,暴露多样性,保障信息内容的深度和广度、准确与公正、伦理与权威,以及不同价值偏向的衡平;其三,选择多样性,用户阅读、接触不同内容、不同观点信息的选择权以及其参与和互动等应当能够予以保障。①See N. Helberger, K. Karppinen & L. D’Acunto, “Exposure Diversity as a Design Principle for Recommender Systems,” Information, Communication and Society, vol.21, no.2, 2018, pp.191-207.欧盟发布的《媒体多元化和媒体自由》报告指出,“媒体多元化包括合并控制规则、广播内容许可程度、媒体所有权的透明度、编辑自由、公共服务广播机构的独立性、记者的职业状况、媒体与政治经济之间的关系、妇女和少数群体获得媒体内容的机会、意见的多样性等。”②See European Parliament, Committee on Civil Liberties Justice and Home Affairs 2018, Report on Media Pluralism and Media Freedom in the European Union,2017/2209(INI),2018,https://www. europarl. europa. eu/doceo/document/A-8-2018-0144_EN.html,2023年8月7日。澳大利亚竞争与消费委员会(ACCC)发布《数字平台对新闻和新闻内容的影响》,从内容属性、受众参与、组织机构三个维度开发出较为科学实用的测量标准。其中内容属性从核心评估标准(涵盖准确性、明确性、公正性、隐私保护、信息来源平衡、诚信和透明等)、专业评估标准(包括新闻的即时性、权威性、信息内容的深度、信息采集伦理、分析、原创、呈现方式等)、社会功能评价(社会监督、公共交流、关键信息需求、地理相关性、有用性、多样性等)三个一级指标和诸多细分类指标,来作为信息内容公共性判断的关键参考内容。③See Wilding, D., Fray, P., Molitorisz, S. and McKewon, E. 2018, The Impact of Digital Platforms on News and Journalistic Content, Sydney: University of Technology Sydney, 2018, pp.86-87.国内亦有学者从真实性、新鲜性、实用性、正义性因素考虑构建新闻文本评价模型,评价因子涵盖:新闻内容要素、联系、组合真实因子,内容新颖性和传播及时性因子,意义建构、行为指导因子,接受效应和外部性因子等④参见肖云:《报纸新闻文本质量评估指标体系研究》,《中华文化论坛》2017年第11期。,可为网络空间信息生态影响评估指标设置提供本土化的意见和参考。

(三)针对结构嵌入的算法权力规制路径

针对结构嵌入路径引发算法系统性歧视和侵害用户个体自治价值的信息生态风险,可基于事前行为控制的预防性路径与事后矫正主义的救济性路径相结合的思路展开思考。在前者,法律通过介入算法利用者即平台、企业、机构的微观管理,为生产经营者的自律性规制设定相应的制度约束与最低标准要求,使其在遵守法律的前提下保障内部自律规制的灵活性和成本效益的有效性,进而更好实现企业运营质量和效益的提升。⑤See Cary Coglianese and Evan Mendelson, “Meta-Regulation and Self-Regulation,” in Baldwin, Robert, Martin Cave, and Martin Lodge eds, The Oxford Handbook of Regulation, 2010, online edn, Oxford Academic, 2 (September 2010, pp.146-153),https://doi.org/10.1093/oxfordhb/9780199560219.001.0001, 7 August 2023.在后者,以侵权法为核心的法律归责理论,通过减少对算法运作流程和运行逻辑的过度关注,基于结果主义视角经由算法问责机制对算法运作结果实施穿透式监管。算法歧视和算法操纵的结果来自于算法权力,因而法律介入算法的具体举措,应当围绕着算法权力规制路径展开。

秉持正当程序理念的算法歧视审查是有效防范路径。算法歧视审查强调将其作为信息推送系统设计的一部分,只有经过专家、公共机构和受算法决策影响的公民验证后才可在实体之间共享或公共站点上发布,以事前预防视角尽力避免公众遭受偏见、无意识歧视之困境。司法实践对算法歧视的认定和审查主要有区别待遇和差异性影响两种模式。区别待遇审查模式又称为“故意算法审查模式”,主观故意歧视意图或固有刻板印象是算法使用者承担责任的前提条件。其表现形态有二:一是算法使用者将特定成员资格作为变量纳入算法决策,并故意操纵算法运行程序从而获得歧视性结果,其实质是算法掩盖下的人为偏见。二是算法使用者充分利用对特定群体的刻板印象实施算法决策,从而产生针对性歧视后果。⑥参见郑智航、徐昭曦:《大数据时代算法歧视的法律规制与司法审查——以美国法律实践为例》,《比较法研究》2019年第4期。差异性影响审查模式中,算法决策是否对用户产生差异性影响的实际后果构成算法歧视的判断标准。如在“康涅狄格州诉迪尔”(Connecticut v. Teal)一案中,法院认为雇主适用的就业与晋升测试算法使黑人雇员遭受禁止晋升的结果而应受到差异性影响审查。审查重心将集中在差异性影响、商业必要性和可替代性算法决策等核心问题上。算法歧视审查与评估的义务主体为算法平台,主要采取排除明确及隐含歧视属性信息的做法。①See Melissa Hamilton, “The Biased Algorithm: Evidence of Disparate Impact on Hispanics,” American Criminal: Law Review,vol.56,2019, pp.1553-1577.

派生思路是将非歧视作为技术合规标准。在算法歧视审查之外,另一个颇具效率意义的禁止歧视路径是将基于内容控制和行为控制在内的非歧视标准纳入算法运行的底层逻辑,进而经由技术的合理实践和有效应用诱导预期规制结果实现。该思路的可行性和隐含逻辑在于,如果人工智能算法设计者、开发者能够经由技术嵌入路径在信息生态领域生发出歧视或操纵风险,那么同样可以经此路径实现非歧视或降低歧视风险发生概率的目的。这就要求信息分发算法本身应具备非歧视属性,同时用于算法模型训练的数据集、作为信息分发内容来源的数据池亦需具备内容属性均衡特征。因为非歧视的算法可能因为信息内容价值偏颇的训练数据集而形成非中立的判断及推送结果。作为信息分发内容来源的数据池应能够均衡反映不同地域、性别、民族、种族、职业、特殊群体等的客观情况,避免信息内容前端沉淀的偏见、歧视和结构性不平等经由算法技术加持而进一步扩张风险。对于算法模型训练数据信息的来源、内容等也要公开,保证训练数据全面性、多样性的同时使用户和公共机构的知情权得到保障,从而为监督权的进一步行使奠定基础。

网络平台应承担对信息内容输出结果的审核、监督义务。作为算法使用主体,平台、机构、企业对其所利用算法技术的实践结果,以及实施自我规制策略、遵从合规要求后所塑造形成的信息内容生态应有相应的合理预期并承担信息生态风险的避免义务。网络平台应在技术层面强化对操纵型算法的实时监测,及时识别特定利益主体利用网络机器人、情感算法等以显著手段影响信息生态或恶意引发、制造网络空间安全、国家安全等风险的事件发生并及时采取防范措施。可通过用户协议、社群规范等文件将营造良好网络信息生态作为信息内容传播的倡导性规范,引导、支持平台企业将良好信息生态塑造纳入企业中长期经营目标。作为算法技术应用的结果,即使技术在客观层面的不可解释性使其不具备算法歧视审查方面的可问责性,但基于结果视角的观察仍然能够反映算法决策的歧视性。针对算法应用所致损害后果,需要结合平台算法运行机制和推送决策的具体情境,分析系主观故意损害或算法过失损害,并根据各主体及行为的原因力大小确定差异化的责任标准。

最后,对于歧视与操纵风险的规制并不仅是私法制度设计,未来为更好实现规制效果,公法治理的必要性仍然存在。对于未履行合理的审核、监督义务并造成相当程度信息生态风险的,平台、企业、机构可能面临修正、罚款等行政处罚。此外,不仅仅是平台的自我规制、基于事前控制的算法歧视审查、基于损害救济的事后问责路径等很可能都无法完全阻止违法的内容或行为,为生成信息生态风险预留空间。因而,法律规制形式无法取代或无法完全取代非法律的规制形式,针对网络信息生态风险还需其他风险治理路径协同发挥作用,如吸纳多元治理主体参与,优化监管方法,产业自律标准的制定,用户信息素养的培育和提高,主流信息内容传播效力提升,等等。

五、结论

生成式人工智能背景下,科学技术因其自身的客观结构和物理属性易产生技术中立“幻象”。发展实践表明,技术作为一种价值实践样态进入公共领域之中正在制造纷争和风险。人工智能算法在信息传播领域的广泛应用正在重塑网络空间信息生态环境,孕育信息生态风险。基于信息生态系统安全风险识别的三要素,本文将目光聚焦于技术黑箱、把关失灵、结构嵌入三种路径,以此作为网络信息生态风险规制的逻辑起点。技术黑箱规制存在算法透明与算法可知的矛盾,通过程序正义保障下的算法解释能够增进个体、公众和社会的算法信任并防范算法产生的不合理支配风险。信息生态影响评估充分重视平台之于网络空间信息生态塑造的公共价值,将算法决策对用户注意力的影响、信息内容质量纳入规制框架,能够为平台把关权力行使提供清晰指引。结构嵌入的权力规制需要事前、事中、事后相结合的多元路径协同作用。此外,非法律的规制方式如政府监管、行业自治、用户自我保护等多重治理模式和规制形式的混合将构成网络信息生态风险规制的基本特征。