生成式AI的法律风险及应对

2023-08-27 00:23
关键词:提供者规制模型

何 煊

(华东政法大学 经济法学院,上海 200042)

当今社会,人工智能(AI)的发展日新月异,且已被广泛应用于包括金融、医疗、法律等各个领域,逐渐成为推动社会进步与经济发展的重要力量。生成式AI(Generative AI)是一种具有创造性的AI技术,可以模拟人类创造性的思维和行为,生成近乎真实的图像、音乐和文本等作品[1]。与传统的机器学习技术不同,生成式AI不受人为制定输出结果格式和内容的限制,而是可以自行决定。生成式AI的出现,标志着强AI时代帷幕已徐徐拉开,人类社会或将迈入一个分水岭。然而,随着生成式AI技术的广泛应用,给人类带来惊喜的同时,也产生了一系列的法律风险和挑战,特别是在数据安全、知识产权保护、个人信息安全等方面,具有发生潜在意外的可能。另一方面,生成式AI技术也将会对人类社会的制度、经济、道德伦理及价值观构成挑战。有观点认为,以ChatGPT(Chat Generative Pre-trained Transformer,聊天生成预训练转换器)为代表的系列应用将会加速公共价值体系的崩解,有必要针对潜在风险进行应对[2]。而如何在现有法律框架和规范的基础上,制定适当的应对策略,是摆在人类面前的一项重要课题。我国网信办先后于2022年11月25日及2023年4月11日发布《互联网信息服务深度合成管理规定》(以下简称《规定》)与《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),旨在促进技术的健康发展与规范应用,具有重要的里程碑意义。欧盟已于2023年6月14日通过《人工智能法案》(AI Act,以下简称《AI法案》),配搭以《数字服务法案》(DSA)、《人工智能责任指令》(AILD)等法律法规,为应对大型平台、AI产品等形成规制体系。可以预见的是,未来各国将持续对生成式AI监管规则进行探索,以形成更为丰富健全的理论体系。本文旨在探讨生成式AI的相关概念及作用机理,分析其可能带来的法律风险,对国内外现有制度进行分析,为我国制度构建提出基本的应对策略,以促进公民合法权益的保障及生成式AI产业的有序发展。

一、生成式AI的概念及作用机理

(一)生成式AI的相关概念

从现有规定框架以及学界讨论来看,对于生成式AI,在概念的使用上就令人目眩。AI生成内容(Artificial Intelligence Generated Content,AIGC)[3]与生成式AI(Generative AI)[4]存在区别,AIGC强调由AI生成的内容,而生成式AI是一种产生或创造AIGC的手段,二者所涉风险并不相同。生成式AI是一种更广泛、包容的概念,包括多种生成模型和方法,用于实现内容的生成、创造和创新,其中包括深度合成与深度学习等[5]。AIGC则与PGC(Professional Generated Content,专业生成内容)、UGC(User Generated Content,用户生成内容)相对应,强调生成主体为AI。《办法》将生成式AI定义为:基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。该定义对生成式AI底层技术内核与生成内容类型进行了概括,较为全面与精确。有学者提出类似观点,认为生成式AI是指基于算法、模型、规则等,在没有人为直接参与的情况下,自动生成文本、图片、视频等内容的技术[6]。从技术角度来看,生成式AI又与机器学习(Machine Learning)、深度学习(Deep Learning)、深度合成(Deep Synthesis)等存在着密切联系,对此有必要进行区分与厘清。机器学习是AI技术的一个分支与子集,主要涉及从输入数据中学习,并做出预测或决策,不断进行改进或提高[7]。传统AI技术应用如自动驾驶、人脸识别等虽然可以对特征进行高效识别,但输出结果系静态、固定的,这意味着AI无法通过自身进化而提高准确性。而深度学习技术则为机器学习的升级,可以学习更复杂的数据表示,并执行图像识别、自然语言处理等任务[8]14。通过在变量之间创建神经网络(Neural Network)来辅助预测过程,在数百个变量间建立起联系,较机器学习更为先进。深度合成技术则是深度学习的子集,是侧重于视觉领域应用的分支,如图片合成、视频编辑等。正如学者所言,深度合成在我国制度框架下不仅是技术概念,更是法律概念[9]。《规定》中明确了深度合成技术为“利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术”(1)参见《互联网信息服务深度合成管理规定》第23条。,并以此作为规制重点。

《AI法案》形成了以“通用AI系统”(General-Purpose AI System,GPAIS)为核心的规制体系,成为生成式AI监管的着力点。欧盟理事会在2022年12月6日通过的一般方法现将GPAIS定义为:“提供者意在广泛开展适用的功能,如图像和语音识别、音频及视频生成、模型检测、问答、翻译等;通用AI系统可以在多个情形中使用,并被整合在多个其他AI系统中。”(2)See Article 3 AI Act.AI系统(AI System)是帮助理解AI规制的重要概念,AI系统的工作原理是,通过获取输入数据并经过一系列算法运行,以进行预测风险、解释或解决问题,例如对自动驾驶系统的应用[10]。“模型” (Model)是指通过对训练数据进行学习而得到的一个函数或算法。模型可以对输入数据进行处理,并生成有用的输出或预测。模型是机器学习、深度学习等重要技术的基石,通过函数与算法对训练数据的加工,模型可以持续地运行与自我完善。ChatGPT是深度学习技术的代表性应用产物,而深度学习技术则主要以深度神经网络(Deep Neural Networks)模型为核心,其又可被称作“大型生成式AI模型”(Large Generative AI Models,LGAIM)或“大型语言模型”(Large Language Models,LLM)。它们相较于传统模型能够处理更为广泛、复杂的问题,它们的“通用性”建立在功能及性能之上,如任务类型(文本、图片)、任务领域(教育、医疗、金融等)、多功能性(黑白或彩色图像)[11]。一般而言,人类会审查模型结果的准确性,但机器学习技术的出现帮助AI系统进行自主调整与反馈,使其在脱离人类干预的情况下,在预测精准度方面不断提升。故此类模型具有极强的可塑性,能够不断进行自我完善与学习。

AI系统与AI模型是一对重要的概念。《AI法案》主要强调对通用AI系统的规制,进而提出了风险分级概念,所依据的也正是对AI系统在多种场景下具体应用的评估,而非仅聚焦于AI模型的性能。AI系统是一个由多个组件构成的整体,模型作为其中的一个关键组件,负责对输入数据进行处理和分析,作为整个系统的工具性构成而存在。除模型外,AI系统还包括了数据存储与管理、用户接口、决策逻辑和反馈机制等组件[12]1045。模型的训练和推理过程是AI系统中的重要环节,它们与其他组件共同协作,形成完整的AI应用。脱离了系统的其他组件,模型便无法发挥全部作用,从这个角度来看,以ChatGPT为代表的生成式AI可以被视为一个集成了生成式AI模型和相关AI系统组件的综合系统。它不仅具备生成式AI模型的能力,还具备部署、交互和管理的能力,以提供实际的对话服务。AI系统可以与其他系统深度集成,如搜索引擎、办公程序等,进而强化用户使用体验,形成完整的AI系统价值链条。概言之,模型本身具有工具性,高级模型的存在旨在提升预测效率与精度,是整个AI系统的最关键部分。AI系统作为更广泛的概念,涵盖了不同的类型、目的与用途,其设计与使用能够涉及多个层面的法律问题,应成为针对生成式AI的主要规制对象。

(二)生成式AI的作用机理

以ChatGPT为例,以基于深度学习的自然语言处理模型为基础,功能是生成具有上下文连贯性和逻辑性的自然语言回复。作为文本对话式应用,它的机理可以分为两个主要方面:训练和推断。在训练阶段,ChatGPT语言模型使用了大量的文本数据进行预训练。它的训练数据可以包括从互联网上获取的各种文本资源,例如新闻文章、网页内容、书籍等。这些数据被用来训练一个深度神经网络,该网络具有多层结构,通常采用了Transformer模型[1]。Transformer 模型是一种特殊的神经网络结构,由多个编码器(encoder)与解码器层(decoder)组成,它在自然语言处理任务中能发挥有效作用。在预测与输出阶段,GPT模型通过事先的训练、注意力机制与神经网络等对上下文展开理解,经“采样分类”技术最终生成具有多样性的文本内容[13](见图1)。

图1 生成式AI模型运行机理

通用AI系统可以完成或适应于完成一系列不同任务,其中包括一些它没有经过刻意及专门训练的任务[11]。生成式AI的用途不仅仅局限于对话交互、文本生成,除ChatGPT应用外,在图像与语音识别、音频及视频生成方面的应用前景也十分广阔。在自然语言处理(Natural Language Processing,NLP)、计算机视觉(Computer Vision,CV)等领域,生成式AI也有不俗表现。例如谷歌翻译(Google Translate)、百度翻译等在线翻译工具,以及以NLP技术为基础的虚拟助手、聊天机器人等应用。人脸识别为视觉领域的主要应用,其用于对人脸进行分类并识别等操作,在安保、金融服务及社交网络等场景下作用明显。在我国,如支付宝“刷脸支付”功能的广泛应用,给人们带来极大便利。生成式AI系统具有高度的可塑性、自主性与不确定性。ChatGPT基于GPT3.5(Instruct GPT)大规模预训练模型,通过存储海量数据、高效理解设计结构与读取用户需求,以近乎于人类的语言形式生成具有“较高复杂度的回应文本[14],其运行过程无关乎人类意志,可以在接受指令后自行独立完成任务,生成的结果也往往具有不可预测性。

各类生成式AI系统具有普遍类似的作用机理,虽然在文本、图像、视频等作用形式上呈现差异化,但无法脱离生成、比对、预测等功能。通过对ChatGPT运作的分析,生成式AI的深层运行逻辑主要可分为模型训练与采样推理两个阶段,分别可称作前端与后端[15]。在前端,AI系统提供者或开发人员通常基于特定的模型,如生成对抗网络(GANs)等,经海量规模、类型数据的“投喂”,使之具备不断自我完善与进化的能力。预训练(Pretraining)被认为是一种用于生成式AI开发与训练的有效方法。预训练通过使用大量的训练数据,如无标签数据(Unlabeled Data),通过深度神经网络开展共性特征学习,使其能够学习到常用的知识与表达,再使用有标签数据(Labeled Data)进行微调,达到性能的优化效果[16]。在模型实际应用到下游场景时,模型通常脱离最初提供者的控制,需要专业人员对其进行调整以适应各种变化。对于后端而言,生成式AI需要体现其创造性与不确定性,其通过最小化或最大化特定的损失函数来优化模型。在生成对抗网络中,生成器和判别器之间的对抗损失函数驱使生成器产生更逼真的输出[17]。通过对输入样本进行插值、操作和采样,可以生成不同的输出样本,实现创造性的生成。凭借创造性的生成,生成式AI系统往往不局限于日常交互,而向社会领域各类专业服务扩张,如金融、医疗、教育等,专业的行业工作者通过对AI系统的使用,开展专业业务工作。

二、生成式AI的法律风险分析及法律规制反思

(一)生成式AI法律风险分析

与为单一、简单化目标与任务而设计并服务的传统AI相比,生成式AI能够通过学习人类的行为和偏好,产生新的、更加精准的推断结果,从而带来对个人隐私、知识产权、数据安全等多个维度的法律风险。有学者通过对AI技术原理的剖析,指出生成式AI将带来数据合规、生成内容滥用、算法滥用以及隐私风险等[18]。也有学者依据生成式AI在准备、运算到生成阶段的不同表征,提出生成式AI在数据、算法偏见及知识产权三个方面的风险[19]。自生成式AI问世之日起,以数据、隐私、知识产权等法律风险的担忧便延绵不绝,属于AI模型与系统风险的共同表现形式,此类风险均可被认为具有同一属性与特点,即对公民个人或特定群体的人身、财产等权利的风险。对于以ChatGPT为代表的生成式AI,有学者不主张单独立法规制,理由在于技术应用场景乃至技术本身具有的不确定性将带来风险的难以预测,以此为规制起因与缘由,会陷入技术与法律一一对应的谬误中[20]。本文认为,技术本身是中性的,AI模型的开发目的在于提高生产效率、增进社会福祉,模型的固有缺陷与风险无法彻底消除,只能够通过技术层面的不断完善而将风险降至可接受并预见的范围内,法律制度无法解决技术问题,不当介入将对技术发展构成阻碍。就目前来看,生成式AI所带来的法律风险仍未形成特殊的风险类别,无需就假设或猜想中的风险予以单独立法。

基础法律条文可被理解为“行为+要件”的结合,对技术模型的风险的单一讨论必将落入笼统、宽泛的困境,而结合特定应用与人的行为则将使问题更为清晰与具体,形成针对实际风险规制的探索,构建特定主体的权利义务规则,成为生成式AI规制的逻辑起点。生成式AI应用的多样化决定其风险程度伴随场景的变化具有显著差异。考虑到这一基本特征,欧盟《AI法案》提出了具有基石性意义的“风险管理系统”(Risk Management System)分类体系,将风险程度进行相对科学且精细的划分。该体系下,依据AI系统可能对人的基本权利产生威胁的等级将其划分为四类,分别是不可接受的风险(Unacceptable)、高风险(High)、有限风险(Limited)与最小风险(Minimal)[21]。凡是使用人工智能系统或技术操控人类行为,对人类造成或可能造成身体、心理伤害,进而对公民的安全、正常生活和基本权利构成明显危险的,即属于“不可接受的风险”,应无一例外地被禁止使用。部分可显著影响用户基本权利的AI系统可被视为具有高风险,如涉及生物识别、信用评估、基础设施管理等。而大多数人工智能系统,如视频游戏或垃圾邮件过滤器,都属于有限风险或最小风险类别,无须特别规制。就颇受争议的高风险系统而言,其使用面临着法案设置的诸多强制性要求,只有当合规性要求被满足并预先经过有关部门评估合格,这类AI系统才能够真正进入市场并投入使用,对提供者而言较为严苛。提供者作为技术开发主体,事实上无法预见模型投入使用的所有可能场景,这些在一定程度上由下游使用者所决定,主体权利义务关系与风险等级随场景而变化,故此种风险分级制度亟待完善。我国法律欲参考欧盟立法对AI进行分级,就必须明确具体应用场景及下游主体,对症下药。

从前端的模型架构与数据训练来看,模型以网络文本、语言学知识库、对话数据集和科学论文等主要渠道进行训练,虽然这些渠道的数据可能涉及个人信息或隐私,但开发人员会对数据进行筛选和屏蔽,去除其中的个人信息,仅使用匿名化数据用于训练。在筛选过程中,涉及到数据、个人信息获取及知识产权等方面的法律规范,以及公平竞争和商业道德等要求。在后端的输出阶段,以文字、图片、音频或视频为主要表现形式的输出内容,将挑战基于现行法知识产权归属、转让以及责任认定等方面的规定,围绕着版权、商标权、专利权等知识产权纠纷将大量出现,公众对生成信息的误读及误解将引发负面社会影响。例如,OpenAI的政策团队曾发布由Irene Solaiman领导的一个研究小组所取得的成果,该研究小组当时在研究GPT-2等语言处理模型的信息发布策略、社会影响及滥用案例。该研究发现,被测试的读者错误地将虚假新闻误认为真正的新闻,对它的平均信任与对“纽约时报”文章的信任程度相同[22]。然而,技术可能被用于增进社会福祉的同时,也可遭不法分子的恶意利用,这取决于具体的场合与场景。例如医疗、金融场景下对病人、用户的隐私泄露,相较一般场景下,如日常问答对话,具有更高的风险程度。而对应用于何种场景与如何应用到具体场景,开发人员无法事先预测与知晓,下游主体在此过程中扮演着重要角色。对于AI模型而言,提供者扮演类似产品责任法律制度中“生产者”的角色,对模型性能及质量负有首要责任,而在实际应用场景中,模型需要经过微调方可具备适应性。

对于后端生成内容的输出审查,应当以平台为主要规制对象。原因在于平台,尤其是超大型平台在模型开发、数据训练等方面具备了超越个体的优势,相较于个体,其在权益侵害可能性、范围、影响等各方面均更胜一筹。在风险程度上,这超越了以个体非专业用户权益的侵害,而上升成为对整个社会秩序的威胁。因此,虽然无法跳脱传统法律制度就歧视、不当言论等风险构建的规则范畴,但仍应作为该类风险中的极端情形予以特殊规制。New bing就通过微软平台对浏览器、word等应用进行嵌入,完善与优化客户的服务体验。以“平台+AI”的发展模式将通过创造新的权威知识重新分配权力,强化互联网寡头在市场的垄断态势[23]68。虚假信息、误导性言论、歧视与偏见等带来的威胁将通过平台规模进一步放大,当前微软、Meta、谷歌等对通用AI系统的开发与收购热潮表明资本对技术的充分关注,随着技术与平台经济的深度融合,未来针对应用于超大在线平台的生成式AI系统的监管将成为趋势。法律应当专注于法律关系,只有在法律关系场景下,制度方可发挥作用,而法律关系场景架构的前提是AI系统应用场景的存在,而真正能够给公民权利造成威胁的应用场景才是制度的着力点,脱离场景客观风险而存在的规制如无本之木。尽管生成式AI模型的固有属性及缺陷将使数据、个人信息、隐私、知识产权等基本权利侵害形式愈加复杂化,但站在AI系统应用场景的角度看,由各单一个体积聚的风险将引发更高维度的社会整体风险,体现为“平台+AI”的模式,这是现有法律规制体系所无法触及的。

(二)生成式AI法律规制反思

在权利侵害的表征上,传统法律体系仍存在一定程度上的调整与因应空间,然而该空间已愈发狭小。

第一,《办法》系在我国《网络安全法》《数据安全法》《个人信息保护法》,以及《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等规定基础之上的升华与凝练,对技术规范、主体义务与责任作出了细致安排,强调技术开发、提供者的主体责任,但规制对象仍相对单一。我国为应对生成式AI法律风险所出台的具有针对性的规定,如《办法》《规定》等,一定程度上存在对欧盟立法的借鉴。《办法》通过参考《AI法案》规定,将责任聚焦于AI产品或服务的提供者,要求其对数据及服务质量负责,使其负有某种程度上的“高风险义务”,然而这一举措并不能实现对生成式AI的有效规制。事实上,以《AI法案》为代表的相关欧盟立法,其灵感有一部分来源于欧洲相关产品安全立法,因此所谓的AI“提供者”(Provider)的角色地位很大程度上被等同于现实中的产品制造商。例如在最新《一般产品安全条例》(General Product Safety Directive,GPSD)中,规定了制造商、供应商及平台的尽职调查义务(3)See European Parliament:General Product Safety Directive(2021).。对于GPSD所规定的“产品”概念,包括日常生活用品,在责任分配逻辑上,法律自然将其主要分配给上游制造商,因为他们通常是最了解产品性能及质量的主体,这也合乎一般情况下产品质量法律法规的责任分配逻辑。然而,AI并非一般的日常生活用品,如玩具、桌椅等,AI是作为更具动态性、复杂性与成长性的特殊工具而存在的,下游参与者对其使用、改造及维护方式与最初如何建立相比同样重要,但《AI法案》就其责任分配及承担问题却并未过多涉及。例如,部署者(Deployer)通常根据用途目的的不同而对模型进行微调,使其在性能上具有更强的适应性。对于用户而言,也存在专业水平能力与应用目的的差别,如日常生活中的疑问解答与专业办公场景下工作人员的使用。我国现有规定偏重于对上游技术提供者、供应商等主体进行规制,主要试图解决因提供AI服务而产生的责任主体不明、责任划分不清晰等问题,仍是一种基于“产品”的规制思路。

第二,现有规定对平台关注度不足。《AI法案》对大型生成式AI模型开发提供者不加以区分地课以高风险义务,高昂的合规成本将部分小型开发者、企业驱逐出市场,仅剩少量市场巨头,如谷歌、Meta、Microsoft/Open AI等,可以承担因开发模型所带来的高昂成本。我国《办法》《规定》等制度所起到的类似效果,可能导致AI模型开发的集中化趋势,这显然并非是立法者的预期目的。这就引申出了生成式AI系统与平台经济的关系,前者能够嵌入平台,强化后者的垄断扩张效应,在与下游应用场景结合的情形下带来巨大的市场支配力量,最终导致平台权力的“再中心化”[23]67。而技术膨胀出的权力越绝对,人类的主体性就越受到威胁,在平台经济所积累的优势前日渐式微[24]。凭借其优势,大型平台迅速超越其他竞争对手,不断在提高模型性能上加大投入,在数据等生产资源的攫取方面愈发猛烈,为其权力构筑添砖加瓦。因此,促进市场竞争是实现创新与规制的最有效手段,通过对个人、中小企业等模型研发者的扶持,降低模型开发所带来的积聚效应,减少对公民权益的损害,形成市场良性竞争。尽管为应对日益扩张的平台经济,消除平台垄断给国民经济带来的严重负面影响,我国《反垄断法》《电子商务法》等法律制度发挥着良好作用,但面对生成式AI仍显力有未逮。以ChatGPT为例,该类大型生成式模型所能够引发的最大外部风险,在于因其生成内容而导致的歧视、偏见、假新闻等一切有害信息所引发的社会问题。其在未来将会全面整合到平台中,包括大型搜索引擎及社交媒体,当前的微软、Meta、谷歌等对生成式AI模型的开发与收购热潮足见一斑。区分AI模型生成内容与人类创造内容成为平台生成式AI规制的“最后一英里”,有效的措施能够从根本上杜绝因对错误信息的误信而产生的消极后果。对此,有专业人士提出以加密水印为主要技术手段,将其应用于识别ChatGPT生成内容(4)该文详细介绍了加密水印的定义及作用机理,其被认为能够有效维护数据、隐私与个人信息安全。“How The ChatGPT Watermark Works And Why It Could Be Defeated”Search Engine Journal,2023-04-28,https://www.searchenginejournal.com/chatgpt-watermark/475366/.,从技术上解决因内容来源而产生的误解与误判。制度上,DSA强调对超大在线平台的管理与执法,如脸书、推特等需要履行相应义务,用户也可针对非法内容进行投诉,具有一定的借鉴价值。然而,作为一部主要为因应超大型平台法律风险而存在的法律制度,在针对生成式AI系统的规制上却存在缺陷。DSA第二条第一款、第二条第二款将规制范围局限于中介服务(Intermediary Service),随后第三条将引入“纯粹通道”(Mere Conduit)概念对其进行定义,以及托管服务概念(Hosting Service)(如互联网接入提供者、社交媒体平台等均属于此)。托管服务被定义为提供者存储由用户提供或应用户要求的信息(5)See Article 3(g)(iii) DSA.。当用户请求AI系统提供信息时,它应该说是很难做到的。AI系统不属于这些类别中的任何一个,它无法与为互联网提供接入或缓存服务的提供商相提并论,因为社交媒体场景下,生成内容来源于系统本身而非用户,故DSA并不能适用。

三、生成式AI法律风险的应对之策

法律是社会中各种利益冲突的表现,是人们对各种冲突的利益进行评价后制定出来的,实际上是利益的安排与平衡[25]。AI立法的首要任务是处理好创新与规制的关系。AI不是一种产品或一次性服务,它在不同的情境下历经多个生命周期,对多种个人或群体产生不同的影响[26]。欧盟立法虽然部分考虑到AI的发展性与可塑性,但生成式AI系统的出现却对诸如风险管理制度等规则安排提出挑战,迫使法案朝着更为严格的方向前进。对于生成式AI系统的规制,应当以一种动态、灵活的视角,强调生命周期中各主体发挥能动作用,对此不宜课以较重责任,进而保留模型开发人员的热情与动力,以增强AI市场的竞争力。另一方面,必须对平台经济与生成式AI的深度融合给予足够的重视,DSA确立的平台内容审核机制可为我国法律所借鉴,但仍需进行相应的扩张与调整。

(一)AI系统主体间合作机制

如美国学者曼纽尔·卡斯特(Manuel Castells)所定义的,网络社会围绕用户的信息权力组织起它的制度,人们建立了自己的生活并决定自己的所作所为,这种权力来源于人们的心灵[27]117。整个AI价值链,具体到大型生成式AI模型的价值创造过程中,不仅应当对前后两端的提供者和用户权利义务进行规定,更需要对过程中的众多参与者地位进行考量。有学者提出,应当依据生成式AI模型的一般特征,通过提供者与用户间的合同关系来对其预期目的及使用条件进行调整,更有利于双方的权责利分配。将生成式AI和通用AI系统视为该法案下的一般风险类别,课以产品供应商对系统性风险的定期监测义务,关注供应商与用户间的合同关系,建立对合同条款的监管审查机制[28]。然而,随着生成式AI侵权责任主体、方式、范围的变化,此种思路已无法有效因应现实的监管需求,仍然在产品责任的框架下兜转。

生成式AI模型并非经一次性制造便可投入后续长期使用的产品,而是需要经过反复打磨与调整最终适应不同目的与用途的工具。在此意义上,让模型开发人员或提供者承担模型全生命周期内所引发的一切风险,是不切实际的。技术提供者无法事先排除所有高风险应用的可能性,其由生成式AI的特定场景的多个主体决定,在AI的价值生成中分别体现相应价值,无法由单一主体所全权决定。就语言模型而言,其可被用于总结或评价病人档案或是对学生的工作情况、信用水平及保险申请环节进行评估(6)See Annexes II Section A.No.12,13 and III No.3-5 AI Act.,亦可用于制造舆论、煽动仇恨,这与下游主体的作用密不可分。学者Edwards就提出应当区分通用AI系统的开发者、部署者和用户,通过分析几种实体扮演的不同角色,对AI系统价值链主体进一步切分[26],这与《AI法案》的思路相吻合。模型提供者(开发人员)与部署者在某些情形下会产生身份的重叠,这就会引起反垄断法下的纵向垄断问题[29]。对于用户而言,作为使用AI系统获取生成结果的实体,可依据对生成结果的用途区分为专业用户和非专业用户。前者根据欧盟《消费者保护法》(Consumer Protection Law)[30]115以及《法案》中所定义,包括公司、非政府组织、行政机构等(7)See Article 2(8) AI Act.。试想当大型企业在提供如金融、医疗等服务时,对错误生成内容的未予关注或放任,将会导致个人或群体权益的受损。因此,在此类人员运用生成式AI系统进行专业活动时,如开展金融风险评估、医疗诊断、学术教育等,因故意或过失导致生成内容蔓延而造成损害的,除遵守一般法律法规及行业规章制度外,还应该遵守类似《AI法案》确立的合规规则,负有额外的合规义务。建议我国法律对以上主体概念进行明确与甄别,以确保在特定场景下的有力追责。

现行《AI法案》第五条中,就对提供者与用户的合作进行了强调,前者应为后者提供必要的信息,使后者能够遵守本法规下的义务(8)See Article (5) AI Act:Providers of general purpose AI systems shall cooperate with and provide the necessary information to other providers intending to put into service or place such systems on the Union market as high-risk AI systems or as components of high-risk AI systems,with a view to enabling the latter to comply with their obligations under this Regulation.。而对于披露过程中涉及商业秘密、隐私或知识产权保护等重要信息的保护,《AI法案》第七十条第一款就要求任何涉及AI应用的主体,采取适当的技术和组织措施,以确保在执行其任务和活动中获得的信息和数据的机密性(9)See Article 70(1) AI Act.。然而,此种合作将引发矛盾冲突,主要涉及内外部两个维度。内部维度主要聚焦于数据权利主体与他人访问权的冲突。如开发人员以商业秘密为由,对部署者的访问权利进行抗辩,用户也可能因受到侵害而要求对部分机密信息进行非正当的访问。因此,该种情形下提供者、部署者与用户的利益冲突也将导致合作关系的脆弱化,三者并非总是存在着共同的利益取向。为巩固合作关系,一个可行的方法是,提供者以及部署者可就模型使用的授权与专业用户签订合同,约定相关保密条款及非竞争条款,从而对数据访问权利进行限制。此外,还可借鉴美国审前制度(Pretrial Discovery),使法院有权对保密协议赋予保护令,加重违反者遭受的处罚[31]。在外部维度方面,建议赋予价值链主体以对外的透明度义务。《AI法案》包含了广泛的披露义务,但它们仅适用于高风险系统(10)See Article 11,Annex IV AI Act.。鉴于生成式AI日益增长的功能性及行业发展潜力,应当要求生成式AI模型开发及使用的相关主体遵守一定的披露义务,该种义务的负有与AI系统是否被认定为高风险无关,对于开发人员及部署者而言,可要求其披露训练数据的出处、模型运行机制以及应对有害内容的应对措施等,以便监管机构进行比对和分析。《办法》中主要以提供者为主要规制对象,规定提供者应对预训练数据、优化训练数据的合法性负责,这些规定为提供者增添了沉重负担且成效不彰。提供者对于数据的作用有限,即使其对于模型的应用有最初预期与判断,但实际上也可能因具体情形下模型的微调而有所偏差。部署者与用户也需要对生成内容负有一定义务,此时区分专业用户的意义就有所体现。具体而言,当特定场景下存在部署者参与模型的微调时,其地位与开发人员类似,需就模型性能等基础信息进行披露。专业用户应该有义务披露他们公开的内容中,哪些部分是由AI模型直接生成,哪些部分是根据输出改编加工而来,例如在新闻、学术等领域,此种义务显得至关重要。可对专业用户定义及范围进行明确,在此基础上要求其在专业目的范围内履行披露义务,恶意行为人若刻意无视该义务,那么将遭受罚款等相应处罚。但随之而来的问题是,我们不能期待现实中专业用户事无巨细地进行披露,因为难以对内容的成分进行辨别,即使用户毫无作为,监管者也无法采取行动。这就需要得到技术上的支持,例如数字版权、水印技术等,欧盟议会正就其进行讨论。当内容足以为外界识别,且难以被用户删除或更改时,此种技术将有效推动事前披露义务的履行,相关主体将被迫按照法律规定行事。

(二)平台主导下的内容审核扩张

技术本身是中性的,无法期待通过技术去解决所有的问题,因此制度的供给显得尤为重要。以“平台+AI”的运行模式带来的再中心化无可避免,对数据、个人信息、知识产权等权利的风险愈发复杂,不仅要从技术上实现人类与AI的区分,更要在制度层面提供相应保障。我国可吸收借鉴欧盟法律,出台对大型互联网在线平台的完整制度规则,实现技术与制度的共同作用。

欧盟议会已为因应挑战而作出改变,规定基础模型的使用不得违反欧盟法律[32]。可以预见诸如GDPR、DSA的相关规则,在未来将为适应AI模型的发展而发生变化。这种趋势将以超大型在线平台为核心,与DSA的适用不谋而合,但需要进一步完善以将AI模型生成内容纳入规制体系中。我国在应对以指数级扩张的生成式AI舆论宣传效应上,当前尚未出台有效应对之策。对此,需要在技术及制度两个层面对生成内容进行规范。水印技术对原创作者的保护效果显著,且能够增强内容可信度及可追溯性,有效遏止有害、虚假信息的蔓延,但也存在一定的局限,例如由于个体写作风格及能力的多变性,导致即使使用水印技术,仍不能完全保证内容的来源。此外,技术本身的限制导致其可能会遭受规避或篡改,例如恶意行为人通过技术手段删除水印或伪造水印,模糊内容来源。《规定》第十六条、第十七条、第十八条已就深度合成服务提供者显著标识行为进行规定,并强调了此种技术的不受侵害。建议在此基础之上,列举可行的技术措施种类,如水印技术、数字版权管理(DRM)、平台算法检测技术等,并明确恶意行为人侵害标识行为的责任。考虑到技术限制,应当加强技术使用的灵活搭配,以最大限度减轻有害言论的繁殖空间。制度与技术需要进一步结合,欧盟DSA与《AI法案》在规则上提供了良好示范,但仍需要进一步完善,以加强内容真实性审核的力度。除了需要在规制对象上进行扩张,将AI模型纳入平台输出的规制外,仍可在现有规则下探寻容纳空间。DSA第十九条就强调利用“受信的标记者”(Trusted Flaggers),如个人、政府组织或特定技术人员,对可疑的内容进行标记并通知开发人员与部署者(11)See Article 11,DSA.。在AI系统的场景下,该行为模式也可以得到适用,通过加强主体间交互达到内容审核的目的。对此,《AI法案》第二十九条中提出的用户通知义务是可以被借鉴的对象,并纳入DSA体系之下。另外,对开发人员、部署者等专业技术人员课以优先处理与回应的义务,确保他们在收到通知后及时地对AI系统作出修缮,阻止其受到恶意行为人的作用而生成有害内容,以建立一个符合DSA要求的更为安全、合规的系统。

四、结语

强人工智能时代或许已悄然而至,但监管永远不会让技术独行,制度需要在人工智能发展过程中不断完善自身,在丰富多彩的应用场景中积极探索灵活的规制措施。欧盟立法的示范具有开创性意义,其中许多典型制度可以为我国所借鉴,但人工智能产业的发展充满不确定性与挑战,风险的样态已经发生了巨大变化,监管需要保持相当的前瞻性。在此基础之上,我国也要具备符合自身国情的生成式人工智能规制模式,发挥监管的积极作用,探索风险规制与促进科技发展的两全之策。

猜你喜欢
提供者规制模型
主动退市规制的德国经验与启示
重要模型『一线三等角』
重尾非线性自回归模型自加权M-估计的渐近分布
网络交易平台提供者的法律地位与民事责任分析
基于隐私度和稳定度的D2D数据共享伙伴选择机制
保护与规制:关于文学的刑法
网络言论自由的行政法规制研究
论《反不正当竞争法》的规制范畴
3D打印中的模型分割与打包
FLUKA几何模型到CAD几何模型转换方法初步研究