生成式人工智能辅助行政决策的算法隐患及其治理路径

2024-02-26 20:21房娇娇高天书
湖湘论坛 2024年1期
关键词:算法

房娇娇 高天书

摘要:生成式人工智能(Generative AI)作为最新一代的人工智能技术,一经问世便引发各行各业的关注和担忧。就行政决策而言,生成式人工智能能够帮助行政主体实施社会数据采集分析、行为预测、方案演绎,进而辅助行政决策的信息采集、关键问题识别以及决策方案的最优化实现。但是,在生成式人工智能参与行政决策的三个阶段也存在不同程度的隐患:训练数据库的片面性可能会导致信息的不公正、对技术的过度依赖可能会导致安全风险、算法黑箱可能会引发公众对行政决策透明性的质疑。若要最大限度发挥生成式人工智能辅助行政决策的积极作用,应当强化算法歧视治理、明确技术的辅助性地位、增强算法的参与性,以此规范生成式人工智能在行政决策中的作用,促进生成式人工智能与行政决策的深度融合。

关键词:生成式人工智能;行政决策;算法;法律治理

中图分类号:D63    文献标识码:A    文章编号:1004-3160(2024)01-0099-13

生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。与以往的人工智能技术不同,生成式人工智能不仅可以提取信息,还可以利用现有的数字内容检查训练实例创建人工遗迹并学习其模式和分布[1]。人工智能在算力建设、电子政务、智慧城市、“互联网+政务服务”等多个方面,全面助推数字政府建设。可以预见,生成式人工智能这一更先进的技术将在未来广泛深入地参与到政府的行政决策中。2023年8月31日,百度、字节、商汤、中国科学院旗下紫东太初、百川智能、智谱华章等8家企业和机构的大模型产品已经首批通过《生成式人工智能服务管理暂行办法》备案,可正式上线面向公众提供服务[3]。随着生成式人工智能技术的展开,生成式人工智能辅助行政决策必将受到行政部门的关注,生成式人工智能辅助行政决策的形态和运用将日益丰富[4]。此外,生成式人工智能辅助行政决策也将带来一系列问题,需要加强法律规制。虽然有研究提及人工智能与行政决策的耦合,但至今为止缺乏系统、深入、全面的思考[5]。回顾研究传统人工智能辅助行政决策的成果可以发现,诸多研究侧重探讨传统法律制度受到人工智能的挑战性影响、人工智能时代法律制度转型的趋势、“法律终结”等等[6],但这一思维已经不能适应生成式人工智能时代的需求。因此,我们应对生成式人工智能辅助行政决策进行前瞻性思考,从维护人民合法权益的方向思考其带来的算法隐患,同时寻找规制路径。值得注意的是,生成式人工智能的算法隐患与数据滥用问题引起了社会各方的担忧。为此,2023年7月10日,国家互联网信息办公室联合国家发展改革委、教育部等七部门发布《生成式人工智能服务管理暂行办法》(以下简称《办法》)。本文在分析生成式人工智能算法对依法行政的作用以及总结生成式人工智能算法植入行政法治领域边界的基础上,结合《办法》的相关规定,以期更好地提出解决生成式人工智能辅助行政决策算法隐患的前瞻性建议。

一、生成式人工智能辅助行政决策的功能

行政决策从启动到方案的出台,大概经历三个阶段,即信息的收集阶段、决策关键问题的识别阶段以及决策方案的最终出台。生成式人工智能在上述三个阶段都能对行政决策起到辅助作用。

(一)确保行政决策信息准确全面

信息的收集是行政决策的第一阶段,这一阶段也可以被视为科学决策的核心和前提,只有通过对行政决策信息的收集,才能够为行政决策的展开提供足量、有效的信息,从而为决策方案的最终确定提供現实依据。因此,行政决策的展开首先需要有信息支撑,庞大而有效的信息是保证行政决策具有正确性和科学性的前提。传统行政决策在信息的收集和处理上比较受限,主要的、核心的信息只能通过人工采集。面对海量的信息,人工采集会出现无能为力、无所适从的现象,而有限的信息储存技术以及落后的信息分析和处理技术则无法实现有效的信息提取[7]。在这种情况下,生成式人工智能技术在行政决策信息收集阶段的辅助运用可以极大提高信息采集与信息分析的效率,通过最低的成本投入实现决策信息收集的最大化。从目前来看,互联网和物联网已经渗透到各个领域,伴随着各类传感器、移动终端、机器人等智能设备的推广和应用,公民的日常生活在愈发智能化的同时,也促进了各类民生数据信息的集中化以及高效化[8]。目前国内外的生成式人工智能所采用的自然语言处理+搜索引擎集成的架构,其背后有大量语料库提供支撑,为辅助行政决策夯实信息基础。

一方面,在信息的收集阶段,生成式人工智能的辅助运用能够最大化实现信息采集的目的。例如,国内百度开发的“文心一言”人工智能正是通过搜索、信息流等应用层的协同来实现信息采集,由搜索服务每天获取几十亿次用户使用需求,每天进行1万亿次深度语义推理与匹配,提供真实和及时的反馈,从而倒逼人工智能的大模型与深度学习框架的优化。又如国外的ChatGPT技术,其所依托的训练数据集包括数十亿个单词级别的文本片段,这些文本片段是从互联网上收集来的,经过处理和清洗后,被用于训练ChatGPT系列模型。这些数据集的数量和多样性是训练出ChatGPT模型的关键,因为它们能够捕捉到自然语言的复杂性和多样性,从而使得ChatGPT能够对人类语言的各种表达方式做出响应。另一方面,在信息的分析和提取阶段,生成式人工智能可以有效完成信息的整理、分类和提炼。这类大语言模型是通过大量的文本数据进行无监督的预训练得到的,模型会根据上下文中已有的信息,预测下一个可能出现的单词或短语,这个过程就是语言模型训练。这个过程可以对信息进行高效融合和智能过滤,它可以筛选和提取各种信息的特征,充分挖掘出决策问题的实质,消除人为干扰,从而为决策者提供科学建议。

(二)抓捕行政决策关键问题

行政决策关键问题的捕捉是行政决策方案出台的重要一环,这一环节主要由为行政决策提供咨询服务的组织机构来进行,这一机构必须由专业人员组成,运用专业化知识对行政决策的具体问题进行分析和判断,并做出预测。在传统的行政决策中,关键问题的捕捉主要依靠来自不同领域的专家学者在已掌握的信息基础上对问题进行预先评估从而制定相应方案,在这个过程中,行政决策一方面受制于信息收集的广度,另一方面受限于对于信息的分析能力,往往难以及时捕捉关键性预警信息,从而耗费了大量人力、物力成本[9],常常出现对关键问题把握不准、对可能出现的风险无法提前预知等问题。建构以需求为导向的行政决策计算方案,利用多年积累的行政决策信息进行辅助判断,可以充分发挥生成式人工智能的快速对应和精确求解的优点,在很多领域超越传统的行政决策模式。

其技术效用主要体现在以下两点。一是搜寻海量的数据并聚焦于行政决策所涉及的关键问题。在传统行政决策背景下,关键问题的识别大多都是以碎片化的信息和经验性的判断为基础的,因而不能保证决策的精确性[10]。但就生成式人工智能ChatGPT、紫东太初等模型而言,行政决策方案利用的是生成式人工智能技术基于整个互联网平台整合的庞大数据库,搜寻的数据是社会公众基于生活、生产需要而产生的客观信息,而非各类问卷所产生的问答式回答,在此基础上进行有针对性的检测,得到的信息精确性更高,更有利于辅助行政决策聚焦于关键问题。二是生成式人工智能构建的行政决策能够排除行政决策中的人为因素干扰,提高行政决策效率,提升决策质量。与此同时,利用生成式人工智能输出的行政决策也具有极强的灵活性,其在预训练完成后,还可以针对特定的任务进行微调。将预训练模型与特定任务的数据相结合,从而使模型在特定任务上具有更好的性能。生成式人工智能并非机械搜寻行政决策所需要的信息,而是具有自适应能力,可以辅助完成各种复杂的决策。

(三)出具行政决策最优方案

行政决策最优方案的确定是整个行政决策中的关键环节,这一环节不仅要统筹协调行政决策的全过程,还要基于已经收集到的行政决策信息并综合专家的意见最终确定行政决策的核心问题以及所想达成的目标,在此基础上形成行政决策的方案并在各类方案中确定最优方案。因此,行政决策方案的确定和出台需要考察行政决策的整个过程、行政决策的问题和目标,并对不同的备选方案进行科学评估。行政决策首先要确定决策议题,在传统行政决策背景下,行政决策议题的确定一般是在行政机构进行社会调研或者获得民意反馈之后[11],虽然社会调研与民意反馈等能够反映出一定的民意基础,但在民意反馈的广度及深度上仍然存在欠缺。而在科技迅猛发展的大背景下,作为一种对话系统,生成式人工智能则能够在一定程度上改变传统行政模式下的对话失衡局面,使政府与公众在对话结构上始终处于平等的地位[12]。

首先,生成式人工智能可以帮助搭建公众和行政决策内部机构的沟通桥梁,保障行政决策方案的目标与公众需求的契合性,从而在大方向上保障行政决策方案的科学性。对于行政机构已经确定要研究的决策议题,通过智能技术先进的网络信息渠道,社会大众可以迅速了解到行政决策的相关信息,从而向决策中枢积极建言献策。这里的建言献策不仅包括了公众直接提出意见,更包括通过日常行为向行政机构提供真实、客观的数据信息,确保行政决策信息的真實性、客观性。其次,通过对大量客观信息的持续收集和分析,生成式人工智能可以在一定程度上提高行政决策方案与现实的契合性,从而保障决策的科学性。最后,生成式人工智能能够高效生成各种行政决策方案,并对行政决策方案的可能后果进行辅助预测,有助于帮助确定最优行政决策方案。生成式人工智能不仅可以根据设计人员的要求迅速生成各种设计方案,还可以对这些方案的性能进行初步评估。这样,就可以大幅度缩短设计时间,并有效减少设计过程中可能产生的浪费[13]。

二、生成式人工智能辅助行政决策的三重算法隐患

生成式人工智能在为行政决策提供坚实信息基础、提升行政决策关键问题识别效率以及助力确定最优行政决策方案的同时,也在不同程度上对行政决策的正义性、安全性以及透明性带来了挑战。

(一)行政决策信息收集阶段:算法歧视引发决策的正义性隐患

行政决策能否具有正义性,其前提和基础在于其掌控的信息能够为其决策提供何种路径指向。将生成式人工智能引入行政决策领域后,行政决策方案的最终出台就依赖于决策者掌握的信息量以及对这些信息的分析结果。但是,生成式人工智能在极大提高信息收集的广度与深度的同时,也不可避免存在信息收集过程中的公正性问题。

一方面,由于生成式人工智能在不同地区应用状况的差异,各地出台的生成式人工智能信息收集处理规则可能不同。不同的规制方法会导致信息收集出现数量、质量方面的差异,最终会影响到行政决策的正义性。在生成式人工智能辅助行政决策信息收集的过程中,由于不同地区信息技术发展水平的差异,可能会导致收集到的数据本身并不中立[14],可能某一地区收集的信息偏多、另一地区偏少,最终的数据就不能真正具有广泛的代表性,由此造成信息收集本身的不正义。生成式人工智能辅助行政决策,那么行政决策就需要以庞大的数据量为基础。但从数据信息采集开始,划分数据口径有很多类型,这些都会影响到行政决策的制定。有些内容会带有“隐秘的偏见”,如获取数据的渠道主要是依靠厂商长期积累、公开爬取或来源于各类免费或者付费第三方数据库与数据集,但公开爬取的数据以及各类第三方数据库的信息可能并不具备与行政决策目标的贴合性,其既可能因为范围过窄而只反映整体之中的一部分信息从而导致决策的以偏概全,也可能因搜集过多与决策无关的信息,造成杂乱信息对于运算的干扰,降低运算精确性。错误的信息采集将对生成式人工智能的运算结果产生影响,正如人类在进行决策时会存在主观层面上的偏见一样,生成式人工智能同样会因为输入数据的局限性而造成决策结果的误差。[15]此外,生成式人工智能交互中仍会生成不少事实性错误,在一些老幼皆知的简单问题上也会出错。生成式人工智能并不会提供信息的出处,而且在信息推送形式上也采用了更为直接的方式,因而其带来的误导性可能更大,造成的危害也就更大[16]。数据归根结底是具有主观性的信息标识,在社会环境中可能带有偏见,一些弱势群体的呼声会被其他强势发声者的信息覆盖掉,错误信息甚至会干扰行政机关的判断,以上种种原因都会导致政府决策失去公正性。

另一方面,生成式人工智能本身在信息分析和处理过程中可能并不能保持中立,从而在极大程度上影响行政决策的公正性。行政决策除了需要掌握海量数据以外,还需要对海量数据进行分析和处理,这对于行政决策方案的最终确定同样具有重要意义。但是,在生成式人工智能辅助行政决策进行信息分析的过程中,由于算法工具性定位的偏差,可能导致在信息分析与处理过程中难以避免信息分析结果的不正义。从过去的技术应用实践来看,人们往往把智能技术作为一种非价值偏好的工具来使用,但是其内在的算法却打破了这种局限,因为它可以把自己的价值取向嵌入到算法的体系结构和规则定义中[17]。虽然生成式人工智能的内嵌似乎消除了行政决定的主观因素,不过,“计算和决策程序都取决于研发人员,那么研发人员自身的价值观和偏见便不可避免地会被写进代码中”[18]。庞大的信息处理需要能够真正满足政府道德需求、并立足于实现社会公共利益的算法。一旦某一算法承担了过量的个人价值和偏好,那么依托于这一算法而得出的统计分析结果就很难确保其正义性[19]。

(二)行政决策问题识别阶段:技术依赖引发决策的安全性隐患

行政决策关键问题的准确识别是提升行政决策效率,助力决策机构聚焦于解决核心问题的重要环节。生成式人工智能的加入能够辅助决策机构对关键问题进行精准定位。决策机构通过生成式人工智能模型对整理好的基础信息进行分析和判断,从而找准决策的对象。这种决策方式在提高行政决策效率的同时,也极易导致对技术的依赖,从而引发安全性风险。

第一,生成式人工智能本身就可能存在一定的技术风险。根据技术自身的风险属性,任何技术的使用都会导致安全和不安全这两种结果趋向[20]。对于生成式人工智能而言,由于其依赖的是数据信息以及算法技术这两项关键要素,因此数据可能存在的信息偏差以及算法技术可能出现的歧视性等问题便可能带来诸多未知性风险,最终便可能影响到行政决策的公平性、正义性。正如有学者所提出的那样:“人工智能所掌握的数据的不完整性,并不足以构建与现实世界完全无误的镜像模拟,因此做出的决策可能存在瑕疵,如果完全依赖人工智能,可能将导致错误决策和执行,甚至出现一连串错误行为。”[21]以“数据鸿沟”和“数据歧视”为例,这两者均可能导致行政决策所需数据样本不完整,以此为基础而展开的分析必然具有局限性,甚至可能会由于偏差数据导致决策方向错误。

第二,生成式人工智能背景下的“信息茧房”可能会引发行政决策的安全性风险。生成式人工智能模型在对信息进行分析并识别关键问题的过程中,会受到“信息茧房”效应的负面影响。“信息茧房”是推荐算法广泛应用之下难以规避的结果[22]。从一般意义上来分析,智能算法提高多样化的途径有两条:一是增强“个性化”,提高“多样性”;二是让用户增强对“未知”的意识,即向用户提供筛选后的消息,让他们了解到更多的内容[23]。无论哪一种方式,智能算法所想实现的这种多样性最终都有可能导致封闭的信息空间也即形成“信息茧房”的后果。在数据信息片面化的前提下,生成式人工智能有可能只能够停留于自己的领域,而无法继续向其它领域延伸,也无法预知风险。

(三)行政决策方案出台阶段:算法黑箱引发决策的透明性隐患

生成式人工智能通过“人类反馈强化学习”在不断训练中最终确定最优方案,这一过程看似公正透明,却可能由于算法黑箱的问题引发透明性隐患。总体来看,算法黑箱问题的产生原因主要有以下两个。

第一,算法黑箱可能来自人为设置。算法黑箱的存在可能会导致生成式人工智能主导的行政决策最终方案本身不透明。在生成式人工智能算法辅助行政决策的背景下,前置条件的数据信息可以追溯,行政决策决定应当公开,但是广大公众对于二者之间的作用机制却一无所知。一方面,这涉及技术的保密性问题;另一方面,即使对公众公开生成式人工智能算法的运算过程,公众也可能无法理解其中的技术原理,这就为人为设置算法黑箱提供了可能,即商业资本可以通过设置算法黑箱操纵行政决策。一些持有特殊目的的商业机构便可以保护产权、商业秘密为由,拒绝向公众提供算法程序与标准,甚至可能拒绝向行政机构提供算法的内部运算规则,从而导致行政决策所依赖的生成式人工智能辅助信息产生偏差。

第二,算法黑箱还可能来自人的认知局限。生成算法的本质就是对训练样本的分布状况进行建模,然后根据模型来抽取新的样本[24]。作为符号代码而存在的计算机语言,它有别于任何一种人类的语言和知识,在很大程度上属于公众的知识盲区。这种自我生产、自我学习的算法技术在一定程度上摆脱了人工设置的限制,而对于社会公众甚至算法本身的设计人员来说,其自主学习与运算的过程都是陌生的,以此构建的生成式人工智能决策方案也必然会被看作是一个技术上的“黑洞”。

不管是人为设置的算法障碍,还是人的认知局限,都可能引发广大公众对行政决策公开性与透明性的质疑与诘问。在这两种情形中,政府机构和生成式人工智能的开发人员往往难以做出合理解释。

其一,生成式人工智能基于智能算法的自动决策机制而最终确定下来的行政决策方案在很多方面是无法解释的。从算法的运作过程来看,一个从端到端的生成式人工智能深度学习算法,如果改变其算法模型中的任意一个权重、结点或层数,都可能对整个模型产生难以预测的影响,即使是模型的设计者和训练者,也无法预先知道[25]。生成式人工智能算法也存在不可解释性。政府机构和算法开发者認为,算法决策是由算法自动产生的,在这种算法自主行为下对算法进行解释几乎是不可能的,无论是算法编程人员还是算法模型和用户的管理者,都没有能力去解释算法的决定。在这种情况下,行政决策方案确定、出台的合理性和公正性可能会遭受公众质疑。

其二,由于算法技术本身可能存在的机密性,基于算法而选择出的最优化的决策方案可能会因为涉密的原因而无法公开。生成式人工智能算法模型中往往因包含机密信息而不能对公众公开。要解释生成式人工智能方案所做出的决定,就必须对其算法进行明晰解释,但是大多数算法程序涉及开发者的商业秘密,在部分情况下甚至还涉及国家秘密,不宜对外公开。尤其是在国内外技术企业抢占生成式人工智能市场的大环境下,算法黑箱问题将愈加严重。一方面,为了在市场竞争中保持优势,很多为技术治理平台提供服务的技术企业,不愿意公开特定治理技术的算法及其代码规则[26]。特别是在使用算法进行评估、排名、趋势分析和智能匹配的领域,技术公司为了保持相较于其他竞争对手的竞争优势,也会对算法采取保密措施。如果行政决策方案在确定出台阶段采取了某一具有保密性的算法技术,那么会因为技术企业、科技公司的阻力而无法进行公开。另一方面,由于政府治理的特点,许多问题和领域所采用的算法都是保密的,例如,在警务工作中所采用的智能化的预测与跟踪算法,以及环卫方案的环境情况监测算法,都需要保持其隐蔽性才能保证效果。如果决策方案涉及这些保密领域,那么这一方案的确定和出台过程可能就无法公开。

三、生成式人工智能辅助行政决策算法隐患的防范路径

为解决上述因生成式人工智能的算法歧视引发的正义性问题、算法依赖引发的安全性隐患以及算法黑箱引发的透明性隐患,需要对生成式人工智能辅助行政决策的方式和限度予以审视。这就要求结合我国已有的对人工智能技术进行监管和治理的制度框架,如《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》,同时根据国家网信办发布的《办法》强化对算法歧视的治理,明确算法的辅助性地位,增强算法的参与性。

(一)强化算法歧视治理,确保决策内容的公平性

以社会主义核心价值观引领生成式人工智能参与行政决策,维护决策内容的公正性。应当强化对信息及运算偏差的管理,消除行政政策中的不利因素,让数据公平与运算公平相结合,探究在生成式人工智能的大环境下,政府如何科学民主决策。《办法》第4条规定了生成式人工智能所生成内容应符合的要求,即生成的内容应体现社会主义核心价值观,确保内容真实准确无歧视。

首先,要加速推广智能化技术,拓宽信息融合领域,缩小数字化差距[27]。在智能赋权决策的情况下,缺少数据支持,就意味着一部分缺乏政策照顾、信息匮乏的地区无法实现生成式人工智能技术参与的公共决策。因此政府要加强基础信息平台建设,解决部分地区、部分群体信息匮乏的问题,扩大生成式人工智能参与公共决策的群体规模。此外,还需要加大数字信息设备、技术的普及力度,减少因缺乏技术设备带来的“数字歧视”问题。

其次,对于隐藏在数据自身中的社会偏见信息,可以利用算法监控技术进行管理。一方面,应当充分利用算法技术以减少数据的偏见。既然算法能够习得人类的偏见,那么它也可以帮助我们消除偏见。通过特殊的算法应用方案的构建,将其运用到某一领域,分析这一领域中人的行为偏好、表现出的一致性,可以在一定程度上减轻偏见。因此,采用技术手段消除隐藏在数据当中的社会偏见信息,实现公平公正的行政决策,这是大数据时代生成式人工智能辅助行政决策的应然之举。另一方面,考虑到偏见本身并不能从根源上消除,那么保障受到影响的人的知情权能够在一定程度上降低数据偏见带来的负面效应。在自动化方案中,任何时候都不得在不知情的情况下将偏见引入行政决策。在算法得以广泛普及前,应当由专业人士进行算法审查,以评估其效果与公正性。

最后,强化技术开发者的职业道德规范。《办法》第6条规定了生成式人工智能产品在应用前需要进行安全评估和算法备案[27]。同样,《互联网信息服务算法推荐管理规定》第24条也规定了需要完成相应信息填报并进行算法备案的对象[28]。总之,需要进行安全评估、信息填报和算法备案的对象一般具有社会动员能力,生成式人工智能的技术开发者若是具有较强的媒体或社会交往属性,相关政府部门则必须对其进行监管。由于价值负载的存在,开发者可以将自己的价值观和倾向性应用到算法的结构和代码中,而这些偏差对决策的影响比对数据的影响要大得多。因此,应当明确技术开发者与产业生态的伦理标准,提高科技工作者的道德自律性。

(二)明确算法的辅助性地位,保障决策方案的可行性

生成式人工智能在行政决策过程中只能扮演辅助角色。我们应当持理性的态度来看待生成式人工智能,必须看到,无论生成式人工智能在行政决策过程中能够起到多大的作用,它最终都不能也不应当代替专家和智囊团,更不应将其神化而否认其他社会力量参与的可能性。

首先,生成式人工智能对人类的辅助作用并不是无限的。《办法》第15条规定在出现不符合要求的生成内容时,开发者应优化技术训练防止再次生成[27],这一规定体现了生成式人工智能算法技术的片面性,即技术训练需要不断优化才能规避可能出现的风险。生成式人工智能的发展将随着人工智能的迭代而不断升级。生成式人工智能方案自身也存在许多无法掌控的问题,比如安全方案漏洞、程序设计错误、用户信息泄露等问题。拥有自我学习和适应性能力的生成式人工智能一旦失控,将会带来极大的风险。一旦达到超人工智能的技术层次,那么由生成式人工智能主导的行政决策将可能脱逸于人类的羁绊,因出现失控状态而导致决策安全风险[29]。对此,首先,应当明确哪些行政决策是生成式人工智能可以介入的,从而界定生成式人工智能辅助行政决策的范围。在这个意义上,需要区分涉及价值与伦理判断的决策事项,那些重复的、无关价值的信息和事务可以交给生成式人工智能来完成[30],而那些涉及重要的价值观和道德评判的决策就不能依赖生成式人工智能来完成。其次,在行政决策方案中内置监控方案,尽可能保障生成式人工智能辅助行政决策的客观性和中立性。比如,建立技术防火墙,一旦发生重大技术或者伦理风险即可在第一时間采取紧急措施,将技术上的风险降至最低[31]。最后,用规范手段监控生成式人工智能辅助行政决策过程,保障生成式人工智能在行政决策全过程中的可控性。总之,面对生成式人工智能辅助行政决策可能产生的风险,行政决策部门必须为防范风险做好充分的预先演练,并制定具有前瞻性的对策,从而避免风险的发生或将损失降至最低。

其次,智能行政决策方案本身必须保持一定的开放性。尽可能形成线上智能行政决策与线下专家的通力合作,最大限度降低“信息茧房”的负面效应。《办法》第7条对生成式人工智能的数据做出了要求,即生成式人工智能用于预训练和优化训练的数据应真实准确、客观多样[27]。这一数据来源的多样性要求在一定程度上降低了“信息茧房”的负面效应,有助于实现行政决策的开放性。这种开放既包括被动开放,也包括主动开放。就被动开放而言,就是行政决策要根据公民权利的需求进行开放。在生成式人工智能辅助决策进行关键问题识别时,如果相关问题的解决可能会对行政相对人造成负面影响,可以根据行政相对人的需求对生成式人工智能方案的制作过程、实施结果和行为进行详细的立场阐述和理由说明。就主动开放而言,生成式人工智能作出行政决策的理由是什么、出发点是什么都需要明晰。具体而言,首先应该说明在决策过程中什么是主要的考虑因素以及各个要素所占比重;其次,在某些要素发生变化时,应该说明这种变化会不会影响到行政决策的结果;最后要说明为何相同的情形下决策会存在差异,为何在不同情形下会产生类似的决策。说明理由制度要求行政机关向行政相对人就生成式人工智能得出的行政决策方案的结果或行为加以解释,认真听取并有效回应行政相对人对算法辅助决策程序的质疑。

最后,应当明确认识生成式人工智能辅助决策本身的局限性,并对其局限性加以防范。生成式人工智能得出的行政决策方案是以知识库为基础展开的,它必须尽可能存储相关领域的知识。但是,这一方案到底应当存储哪些领域的知识,是需要行政决策部门相关人员进行提前设定和操作的。一旦相关人员因受到“信息茧房”的负面影响,无法对需要决策的问题进行完整把握,知识储备就可能具有局限性。因此,应当在人工智能方案的基础上,征集相关领域专家的意见,从而进行综合判断。

(三)增强算法的参与性,实现决策过程的透明化

在行政決策方案的最后确定和出台阶段,算法黑箱可能会降低行政决策的透明性。如前所述,算法黑箱的产生来自两个方面:一是人为设置的,二是公众认知阻隔的。《办法》第17条规定生成式人工智能提供者应当提供基础算法等影响用户选择的必要信息[27]。《互联网信息服务算法推荐管理规定》第4条规定,应按照公正公平、公开透明的原则提供算法推荐服务[31]。增强算法的参与性应从以下三个方面切入。

首先,为了防止人为设定算法黑箱情形的发生,要增强生成式人工智能行政决策方案应用算法的透明性。政府部门可出台相关政策文件,要求将算法过程公之于众,让公众知道算法是怎样发展的、算法是怎样计算的、算法是怎样考虑的。《办法》第17条、《互联网信息服务算法推荐管理规定》第16条和第17条等都规定应向公众提供必要算法服务。但这种公开并不意味着将所有密码和信息都公之于众,因为这样做会带来以下负面影响:其一,暴露个人的机密资料;其二,存在侵犯自主知识产权和竞争优势风险;其三,存在危害国家安全的危险[32]。行政决策中的算法公开应当区别于一般性的算法公开,必须坚持以主体为中心、有选择性的算法公开原则,要弄清在使用算法确定行政决策方案的过程中,哪些相关算法数据会对主体产生一定影响。具体而言,行政决策算法的公开必须保证两点。第一点,算法公司将算法销售给政府时,必须把它的设计意图和目的告诉政府,尤其是它所用到的“目标函数”,并且把它在现实操作中的一些偏差和误差如实告知政府部门。算法公司在对政府的生成式人工智能行政决策方案进行升级的同时,也要将每个版本都予以公布并对其进行解释,及时修正和完善算法决策运行过程中存在的偏差,防止算法公司使用技术上的优势放置不适宜代码。第二点,算法公司对其操作程序进行必要的说明。特别是在算法决策的过程中,应该尽可能地将计算机语言转换成通俗语言,让一般民众能够理解,保障公民知情权。政府也要始终重视维护公民的信息权利,遵循以人为本的治理原则,不可过分地依赖算法。

其次,必须保障生成式人工智能行政决策方案出台的程序正义,加强公民权利的保障和救济。《办法》第11条规定了生成式人工智能开发者对用户信息的保护义务,在训练数据用于个人信息时,开发者应在使用前取得相关主体的同意[27]。第13条规定了用户投诉处理机制,即生成式人工智能侵犯公民合法权益时,开发者应及时采取措施进行阻止[27]。总之,在生成式人工智能辅助行政决策有可能损害公民合法利益的情况下,应当保障公民权利得到救济,如可以要求决策机关与算法的研发机构就决策过程、推理情况等进行解释[33]。具体而言,应当从以下四个方面着手加强公民权利的保障和救济。第一,要构建预先的算法审查机制。强化政府算法技术人员的培训与甄选,组建专业机构,分析算法的执行风险,从技术层面避免算法公司利用技术优势带来的潜在风险。同时,邀请行业专家、技术研发人员与算法公司内部人员共同研究和讨论算法决策,逐渐完善生成式人工智能辅助行政决策的规则。第二,提高生成式人工智能辅助行政决策的透明度。要对有关资料和信息进行经常性披露,保证民众认识和理解生成式人工智能方案运行情况。另外,强化对算法技术的解释,使算法决策可以被理解[34]。第三,赋予个人算法解释请求权或反算法决策权。也就是说,当个体面临自动决策的压迫或其合法利益被侵犯时,他们有权请求相关政府机构介入干预并获得帮助。第四,疏通算法决策问责路径。作为弱势一方,行政相对人并不需要去研究造成问题的原因,只需要确定算法决策侵害了自己的合法权益,就可以直接向行政机关主张权利。政府不能以技术上的缺陷来逃避责任,算法公司也不能以非决策主体为由推诿责任。行政机关应该首先承担责任,再厘清相关算法公司的责任。

最后,参与行政决策的各方主体应当对生成式人工智能行政决策方案保持一定的反思性和批判性。从生成式人工智能算法的传播以及影响来看,乐于并理所当然接受基于算法技术而产生的一切成果已经成为一种较为普遍的心理[35]。在这种情况下,应当提升生成式人工智能辅助行政决策过程中行政主体的敏感性和批判性。行政主体要从整体化、体系化视角出发去思考,将信息资料视为某些统一模式的基础要素。这些信息资料相互关联,各自具有各自的含义。行政主体要把他们看作是过去和将来种种可能的象征,并注重从实际角度来看这些问题,即人们如何处理信息,以及信息如何能够影响和怎样影响着人们。行政主体最终确定行政决策方案要结合社会现实、公众需求等因素对方案进行再审视[36],从而打破生成式人工智能算法的神话。

四、结语

尽管生成式人工智能在行政决策领域尚未形成较为成熟的探索,但对生成式人工智能治理的公平性、透明性、过度依赖性的思考仍然可以未雨绸缪。对此,未来应理性对待传统行政治理和生成式人工智能治理的关系,强化算法歧视治理、明确算法辅助地位、增强算法的参与性,实现决策的公正性、人本性以及可理解性,探索新的融合发展路径,有效发挥生成式人工智能促进、弥补传统行政治理不足的积极作用。

参考文献:

[1] 毕文轩.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角[J].比较法研究,2023(3):155-172.

[2] 郑世林,姚守宇,王春峰.ChatGPT新一代人工智能技术发展的经济和社会影响[EB/OL].(2023-06-10)[2023-06-15].https://kns.cnki.net/kcms2/article/abstract?v=3uoqIhG8C44YLTlOAiTRKu87-SJxoEJu6LL9TJzd50l1jzNslT_LxKokpq5nMgcR_ihRELbph6AB6k5jWMqEUpf-dkRsWm-A&uniplatform=NZKPT.

[3] 搜狐网.率先通过备案 首批大模型公司有8家 可正式提供服务[EB/OL].(2023-08-31)[2023-09-01].https://www.sohu.com/a/716427338_114822.

[4] 於兴中,郑戈,丁晓东.生成式人工智能与法律的六大议题:以ChatGPT为例[J].中国法律评论,2023(2):1-20.

[5] 马长山.智能互联网时代的法律变革[J].法学研究,2018(4):20-38.

[6] 余成峰.法律的死亡:人工智能时代的法律功能危机[J].华东政法大学学报,2018(2):5-20.

[7] 阮梦君.电子政务:传统行政与现代行政的耦合[J].生产力研究,2009(19):64-66.

[8] 赵友华.人工智能时代优化民生政治参与的算法逻辑[J].宁夏社会科学,2019(5):49-57.

[9] 王万良.人工智能及其应用[M].北京:高等教育出版社,2005:160.

[10] 张书玉.论我国行政决策的现代化[J].甘肃社会科学,2017(3):226-230.

[11] 曾国平,王福波.论公民参与视角下我国公共决策机制的完善[J].云南社会科学,2008(3):27-30.

[12] 周智博.ChatGPT模型引入我国数字政府建设:功能、风险及其规制[J].山东大学学报(哲学社会科学版),2023(3):1-11.

[13] Soyoung Yoo, Sunghee Lee, Seongsin Kim, et al. Integrating Deep Learning into CAD/CAE System: Generative Design and Evaluation of 3D Conceptual Wheel[J]. Structural and Multidisciplinary Optimization,2021(4): 2725-2747.

[14] 吕荣杰,郝力晓.中国人工智能发展水平、区域差异及分布动态演进[J].科技进步与对策,2021(24):76-84.

[15] 黄雨晴.中国数字鸿沟的成因与赋权式治理[J].学习与实践,2022(9):23-33.

[16] 陈永伟.超越ChatGPT:生成式AI的机遇、风险与挑战[J].山东大学学报(哲学社会科学版),2023(3):1-18.

[17] 肖红军,商慧辰.平台算法监管的逻辑起点与思路创新[J].改革,2022(8):38-56.

[18] 汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报(哲学社会科学版),2018(6):27-38.

[19] 陈伟光,袁静.人工智能全球治理:基于主体、结构和机制的分析[J].国际观察,2018(4):23-37.

[20] 张旺,刘戟锋.技术伦理学视域下的网络安全规范路径:以人工智能为例[J].湖湘论坛,2018(2):130-136.

[21] 申海波,韩璞庚.人工智能背景下的治理变迁及其路径选择[J].求索,2018(6):74-81.

[22] 成龙,王楠.数字异化:表象、根源及其破解途径[J].中国地质大学学报(社会科学版),2022(6):1-11.

[23] 陈昌凤,张梦.智能时代的媒介伦理:算法透明度的可行性及其路径分析[J].新闻与写作,2020(8):75-83.

[24] Sam Bond-Taylor, Adam Leach, Yang Long, et al. Deep Generative Modelling: A Comparative Review of Vaes, Gans, Normalizing Flows, Energy based and Autoregressive Models[J]. MIEEE Transactions on Pattern Analysis and Machine Intelligence,2022(44):11.

[25] 陈峰,王利荣.个人信息“知情同意权”的功能检视与完善进路[J].广西社会科学,2021(8):106-111.

[26 ] 宋亚辉,陈荣昌.整体治理:算法风险治理的优化路径[J].学习与实践,2022(7):35-45.

[27] 中国政府网.生成式人工智能服务管理办法[EB/OL].(2023-07-10)[2023-07-25].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.

[28] 颜佳华.提升政府治理算法决策公平性的机制与路径[J].行政论坛,2022(3):34-40.

[29] 李青文.科技伦理视阙下人工智能法律主体地位之否定:以机器能否具备自由意志能力为分析路径[J].科学管理研究,2022(2):40-48.

[30] 唐代兴,王灿.人工智能:无限开发与有限理性的伦理博弈[J].天府新论,2022(6):39-52.

[31] 中国政府网.互联网信息服务算法推荐管理规定[EB/OL].(2022-11-26)[2023-06-25].https://www.gov.cn/gongbao/content/2022/content_5682428.htm .

[32] Paul B. de Laat. Big Data and Algorithmic Decision-Making[J]. ACM SIGCAS Computers and Society, 2017(47): 39-53.

[33] 宋华琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大学学报(社会科学版),2018(6):82-90.

[34] Mps, Lords and offices. AI in the UK: ready, willing and able? [EB/OL].(2017-04-16)[2023-06-25]. https://publications.parliament.uk,/,pa,/,ld201719,/,ldselect,/,ldai,/100,/100.pdf.

[35] 罗俊.网络信息传播安全的核心议题:互联网时代的认知操纵及应对策略[J].学术论坛,2021(2):25-40.

[36] 毛湛文,孫曌闻.从“算法神话”到“算法调节”:新闻透明性原则在算法分发平台的实践限度研究[J].国际新闻界,2020(7):6-25.

责任编辑:杨叶红

收稿日期:2023-09-15

作者简介:房娇娇,女,辽宁鞍山人,辽宁科技大学经济与法律学院副教授,主要研究方向:行政法与经济法;高天书,男,山东滕州人,中国政法大学“2011”计划司法文明协同创新中心博士研究生,主要研究方向:司法文明。

猜你喜欢
算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
基于CC2530的改进TPSN算法
基于BCH和HOG的Mean Shift跟踪算法
算法初步两点追踪
基于增强随机搜索的OECI-ELM算法
一种改进的整周模糊度去相关算法
一种抗CPS控制层欺骗攻击的算法
Wiener核的快速提取算法