“分级分类”与“契约”风险治理并行的人工智能监管制度构建

2024-02-28 04:40黄静怡
海南金融 2024年2期
关键词:风险治理分级分类人工智能

摘   要:推动战略性新兴产业融合集群发展,构建人工智能增长引擎,快速发展的人工智能向法律提出挑战的同时,创新人工智能产业也不容忽视。2023年8月《生成式人工智能服务管理暂行办法》落地,我国已基本形成人工智能监管框架。统筹人工智能“发展与安全”,平衡人工智能“监管与创新”便成为要解决的核心问题。以欧盟《人工智能法案》为分析对象,“分级分类”与“契约”风险治理并行的人工智能监管思路是其主要特征。一方面,分级分类的人工智能风险治理作为数字经济中一种监管理念能够更好地实现科学监管、高效规制、精准治理;另一方面,强调监管机构、科创企业、消费者三者在平等协商的基础上形成共治局面的人工智能监管沙盒实现了“契约”治理。因此,立足我国人工智能立法和发展现状,应构建“分级分类”与“契约”风险治理并行的人工智能监管制度。一是明确分级分类标准,对接相应的数据、算法、平台的治理规则体系,与现有的人工智能事前、事中、事后监管制度实现衔接。二是以国家数据局作为主要牵头机关,程序执行以“场景化”为特征,明确人工智能监管沙盒的五步程序和测试合格标准,坚持个人数据的处理是监管沙盒制度的关键,最终形成政府、社会、企业三方互相合作协同治理的局面。

关键词:人工智能;分级分类;风险治理;监管沙盒

DOI:10.3969/j.issn.1003-9031.2024.02.006

中图分类号:DF438           文献标识码:A     文章编号:1003-9031(2024)02-0076-10

一、引言

人工智能作为当前数字经济的核心技术,以不可阻挡之势应用于生活的方方面面。同样,人工智能作为一种新行业新业态,其核心产业规模达到5000亿元,企业数量超过4300家,5G基站超过280万个,数字化车间和工厂约2500多个,算力规模位居全球第二。然而,当人类获得人工智能产业带来的便利条件的同时,也面临着风险的未知性和不确定性。因此,快速发展的人工智能技术正在为我国法律法规的建立健全提出更加紧迫的发展要求。其中,统筹人工智能“发展与安全”,平衡人工智能“监管与创新”,则是最为关键的问题。探索全球关于人工智能的监管与实践,欧盟于2023年6月通过了《人工智能法案》(以下简称《AI法案》),标志着欧盟关于人工智能的监管将走向世界前列。其中,欧盟的“风险等级制”人工智能监管措施和坚持实验主义治理理念的“监管沙盒”是其核心监管内容。换言之,“分级分类”为治理原则的人工智能风险划分制度和以“契约”为鼓励创新的风险治理制度是欧盟《人工智能法案》最核心的特征。因此,本文欲对欧盟《人工智能法案》两大治理逻辑进行剖析,并结合我国当前人工智能治理的实践和现实困境,提出“分级分类”与“契约”风险治理并行的人工智能監管思路,并对具体的制度构建提出相关建议。

二、欧盟《人工智能法案》的监管制度分析

(一)欧盟人工智能立法历史沿革

欧盟自2016年起就不断探索推进对人工智能技术应用的监管体系建构。2018年,欧盟建立人工智能高级专家小组(High-Level Expert Group on Artificial Intelligence),加快建立一个统一的人工智能法律监管框架的步伐。随着《人工智能法案》三次修改及谈判草案的发布,欧盟在世界范围内率先设计一系列措施以确立人工智能的治理规则体系,并尝试影响甚至塑造全球范围内的人工智能治理共识规则和标准。纵观欧盟人工智能立法,其关键词主要包括“伦理治理”“算法治理”“数据治理”,以上共同构成欧洲人工智能的监管框架。

2016年发布的《欧盟机器人民事法律规则》从民事法律的角度对基于人工智能控制的机器人制定了相应的权利及义务规则。该文件作为欧洲乃至全球第一份专门规制人工智能的政策文件,对于欧洲的人工智能发展及人工智能伦理治理的发展均产生较大影响。2018年欧盟委员会发布《通用数据保护条例》,旨在加强和统一欧盟内所有成员国的数据保护,保障公民在数字化时代的隐私权。2019年发布《算法的可问责和透明的治理框架》,确立了人工智能的算法问责机制及透明义务的规则。同年《可信人工智能伦理指南》发布,正式确立了“以人为本”的人工智能发展及治理理念,其提出的可信人工智能三大要素也进而成为世界范围内较为通行的人工智能评估准则。2020年,欧盟针对数据治理陆续发布了《数字服务法案》《数字市场法案》和《数据治理法案》,旨在规范欧洲的数据利用和流转制度。因此,随着《人工智能法案》的出台,欧盟已经形成了加强数据安全保护,促进欧洲数据流动,防范算法自动化决策潜在风险,建立相关伦理价值标准,拥有监管与创新平衡发展的人工智能监管立法规定。

本文以欧盟《人工智能法案》为分析对象,首先对该法案进行系统梳理,以“折衷版本”为参考,共12编85条。包括一般规定;禁止人工智能的行为;高风险人工智能的种类、要求、提供者和使用者的各方义务及相关评估合格程序;支持创新的措施;人工智能监管沙盒制度;治理架构;执法程序;法律责任等。欧盟《人工智能法案》集中体现了两种风险治理理念:基于风险的规制和坚持实验主义治理。详言之,欧盟对于人工智能风险防范的立法设计,一方面以风险为起点,进行风险等级分类,并针对不同的风险采取不同的监管措施;另一方面自监管机构、科创企业、用户之间形成一种共治状态,基于平等协商、信息透明的要求达成实验“契约”,实现科技创新的同时,达到社会效果的最大化。

(二)欧盟人工智能的分级分类风险治理逻辑

以风险分级划分为导向的人工智能治理思路是当下立法与实践的主流。以高、中、低划分人工智能风险,它们所面对的监管要求各不相同,对监管事项的详尽程度也各有不同。但分级分类作为数字经济中一种监管理念能够体现科学监管、高效规制、精准治理的常态化监管思路。

欧盟《人工智能法案》基于人工智能的不透明性、复杂性、对数据的依赖性、自主行为性等特征,将人工智能的风险等级区分为:不可接受风险、高风险、有限风险和低或极小风险的人工智能系统。第一,不可接受风险人工智能系统。《人工智能法案》的第5条规定,被认为对人们的安全、生计和权利构成明显威胁的有害人工智能系统所产生的风险为不可接受的风险。该系统不可以在欧盟境内投放市场、投入服务或使用的。第二,高风险人工智能系统。《人工智能法案》的第5条规定了对人们的安全或基本权利造成不利影响的“高风险人工智能系统”,具体包括两类高风险的人工智能系统:一是作为产品安全组成部分或属于欧盟卫生与安全协调立法(如玩具、航空、汽车、医疗器械、升降机等)的系统;二是在附件三确定的8个特定领域部署的系统,委员会可以通过授权法案进行必要的更新。高风险人工智能系统应适用如下限制规则:首先,高风险人工智能系统的提供者在将其投放市场或投入使用之前,需要将该系统注册在欧盟范围内的AI数据库中。任何受现有AI产品安全立法管辖的产品和服务,应适用现有的第三方符合性框架(Conformity Frameworks)之下。目前不受欧盟立法管辖的人工智能系统的提供者必须进行自我评估,在符合要求的情况下,可以使用CE标记。其次,高风险的人工智能系统需要在风险管理、测试、技术稳健性、数据培训和数据治理、透明度、人类监督和网络安全等方面符合要求。最后,高风险人工智能系统的提供者、进口商、分销商和使用者将必须履行一系列义务。第三,有限风险人工智能系统。如与人类交互的系统(即聊天机器人)、情感识别系统、生物特征分类系统以及生成式人工智能系统,需要履行透明义务。第四,低或极小风险人工智能系统。低或极小风险的人工智能系统在欧盟开发和使用,不需要遵守任何额外的法律义务。但《人工智能法案》中规定的行为准则,鼓励非高风险人工智能系统的提供者自愿适用高风险人工智能系统的强制性要求。

人工智能分级分类风险治理逻辑的价值。第一,分级分类对人工智能风险进行划分有利于精准防范社会未知风险。由于社会本身具有多元的属性特征,在主体、价值等方方面面,单一治理规则是无法适用解决的。分级分类的风险划分能够彰显其包容性的特征,面对不同的治理风险,有针对性地提出治理措施,能够精准防范由人工智能所产生的社会未知风险。第二,分级分类对人工智能风险进行划分有利于提高其公平度、透明度和可问责性。人工智能从弱人工智能向强人工智能的发展过程中,也使得人工智能逐渐从辅助性的工具发展为能够进行自主性的决策。然而,分级分类能够对人工智能进行定位和区分,提升其人为的可控性,由此可产生不同的风险治理路径。第三,分级分类对人工智能风险进行划分有利于实现平衡企业与社会责任,更好地促进产业创新。当前,全球人工智能作为提高国家竞争力的重要战略力量,“以监管促发展”则是当前人工智能立法的主要思路。从企业角度而言,区分度和颗粒度的监管措施够更好平衡企业社会责任和能量释放,促进产业健康发展。

(三)欧盟人工智能的“契约”风险治理逻辑

监管沙盒本质上是基于多方主体达成“契约”结构的监管措施。从监管部门到相关企业再到用户(消费者)基于身份关系的不同,形成了一种自上而下的监管状态。然而,监管沙盒的存在则转变了这种“对抗性”的状态进而形成一种以“契约”为底层逻辑的共治状态。欧盟人工智能的“契约”治理逻辑,主要体现在其对人工智能监管沙盒制度的规定。

沙盒(Sandbox)来源于计算机领域,作为一种安全程序以提供一种隔离环境。在可控的范围内,对“盒子”里的企业由监管部门实施全过程监管,将风险杜绝在“盒子”范围之外,并在测试实验结束之后,作出安全性的评价,最终使得企业在监管中获益。监管沙盒的特征体现在:第一,监管沙盒一般都是临时性的,测试过程通常是有期限的且期限较短。第二,监管沙盒汇集了监管者和企业的意见,也是“契约性”的关键体现。第三,创新的产品和服务将跳出现有法律框架,通过建立监管沙盒,为一个特定的项目“量身定制”法律支持。第四,监管沙盒具有“试错”特征。第五,通过监管沙盒收集的技术和市场數据,有助于监管者评估现有法律框架并进行针对性地调整。

欧盟关于监管沙盒的规定主要集中在第53-54a条。第53条第1款规定,建立主体为各成员国公共机关或者欧洲数据保护机关(European Data Protection Supervisor)。监管沙盒应确保透明、广泛、公开的参与,并提供一个受控的环境,以允许“在将其投入市场之前开发、测试和验证创新的Al系统”。第53条第2款和第54条第1款强调对个人数据的保护,人工智能系统的创新需要数据作为支撑,因此保障个人数据尤为重要。根据规定,出于保障医疗、保护环境和关键基础设施等公共利益目的,可以在严格保障个人数据安全的前提下实施处理。需要采取的保障措施主要包括在隔离环境中处理数据和沙盒结束以后删除数据。第53条第3款强调主管机关具有监督权,在测试过程中如果发现对用户的健康和安全带来损害,应立即中止测试。第53条第4款强调Al监管沙盒的参与者在沙盒中进行的试验给第三方造成的损害应承担赔偿责任。第53条第5款强调在成员国建立的监管沙箱的主管机关必须“在欧洲人工智能理事会的框架内协调活动和合作”并提交年度报告,同时分享经验和教训。第53条第6款强调人工智能监管沙盒的运作方式和条件,包括申请、选择、参与和退出沙盒的资格标准和程序,以及参与主体在实施行为中的权利和义务。总的来说,欧盟关于人工智能的沙盒设计、模式和运作条件是框架性的规定且并不明确。然而,这种不明确性也给人工智能监管沙盒的建立提供了极大的灵活性和可能性。然而,不管是金融科技监管沙盒还是人工智能隐私监管沙盒都未形成标准化的测试流程和合格标准。监管沙盒作为一种小规模的测试框架,测试队列也是有限的。当然,随着越来越多的科技公司意识到进入沙盒的竞争优势,很有可能会有扩大沙盒测试的压力。因此,监管沙盒本身也需要创新,最终走向制度化和自动化。

以“契约”为治理逻辑的人工智能监管沙盒制度的价值。第一,人工智能引入监管沙盒制度可实现风险可控性。人工智能的风险呈现新的模式,其风险具备不稳定性。一是人工智能技术的发展为监管带来诸多挑战,诸多“监管错配”问题可通过机制试验解决。一方面,人工智能技术解决了诸多高成本、低效率的矛盾,并且產生了许多无法以传统思路规制的新型产品;另一方面,这些创新探索仍不够成熟,相应的法律法规难以进行动态调整。二是监管沙盒可增强监管机构与被监管对象之间的良性互动,平衡人工智能创新与发展之间的关系。监管机构需要借助创新者了解创新,创新者需要监管机构的支持和有效监管,以更好地促进创新。一方面,在监管沙盒的实施过程中,监管机构可以深入了解相关人工智能产品的运行风险,并据此完善相关监管规则,保障消费者的合法权益,减少监管成本与社会成本;另一方面,在监管沙盒授权的限定范围之内,使得人工智能创新所依赖的监管环境具备了可预期性,增加了被监管对象主动向监管机构进行沟通的积极性。第二,监管沙盒制度的建立是鼓励创新的重要措施。2019年经济合作与发展组织(OECD)发布了关于人工智能基本原则的规定,其中强调,建议各国政府考虑采用试验方法为AI系统提供可测试和可扩展的受控环境。监管沙盒能够创造一个空间,将那些原本可能挑战现有法律框架的创新产品和服务投入其中,参与企业能够从具体的法律条文或合规流程中取得豁免,以允许其进行创新。第三,监管沙盒是维护监管者、测试企业、消费者利益的重要工具。对监管者而言,通过学习和试验为长期政策的制定提供信息;监管沙盒的建立表明监管者对创新的支持与承诺;促进与市场参与者的沟通和接触;更新可能禁止有益创新的政策法规。对测试的科技企业而言,通过精简授权流程来缩短市场准入时间,一定程度上消除市场准入障碍;减少监管的不确定性;提高资本的可获得性。对消费者而言,可以获得更具创新性、更安全的产品和服务;增加人工智能产品和服务的可获得性。

三、我国人工智能“分级分类”风险治理构建

我国人工智能在中国市场高度活跃。根据相关数据统计,截至2022年6月,我国人工智能企业数量超过3000家,位居世界第二,人工智能核心产业规模超过4000亿元。2022年,我国人工智能支出达到2255亿人民币,跃升为全球第二大人工智能市场,占全球人工智能支出的18%。包括平台企业、独角兽企业、中小企业、创新企业、研究型大学在内的相关机构在智能芯片、操作系统、智能终端、深度学习平台、大模型等产业应用领域构建和奠定了强大基础。丰富多样的人工智能应用场景,不管是需求端还是供应端,其市场规模十分庞大。可见,中国正在引领全球人工智能产业的创新和商业化,其主要核心力量则是科技企业。我国科技企业如何更好发挥促进发展的积极作用,落实监管措施则是关键。近年来,我国相继制定和出台了一系列的政策性文件和法律法规,早期以人工智能产业促进为主,近年来逐步关注人工智能伦理安全、算法治理及行业应用安全。整体而言我国人工智能立法具有如下特点:第一,采取发展与安全并重的策略;第二,坚持总体国家安全观,突出信息内容的治理;第三,治理模式多领域,以科技伦理、算法治理、特定技术、行业应用为监管抓手;第四,主要依赖行政手段形成监管机制。

其中,分级分类的风险治理理念在我国关于人工智能的立法规定中也多有体现。例如,数据分级分类保护制度的规定;算法分级分类管理制度的规定;《生成式人工智能服务管理暂行办法》中的分类分级监管规定等。然而,我国关于人工智能分级分类的风险治理规定却存在诸多问题:首先,分级分类的风险治理规定非常模糊和笼统,仅仅以“原则”形式进行阐述,无细致规定。其次,分级分类的类别和风险划分未明确区分标准,欠缺可操作性。涉及国家安全、社会公共利益、个人生命健康的行业并未区分,与欧盟人工智能分级分类监管的规定相差甚多。再次,我国关于分级分类的规定见于数据、算法、平台等各个领域,未形成规则体系,更无望于数据、算法、平台三者关于风险分级分类的规定建立对应关系。最后,分级分类原则与现有算法备案、算法安全评估、算法安全风险监测和算法问责治理制度结合不够紧密。

我国人工智能分级分类风险治理构建思路。第一,将人工智能“分级分类”风险治理理念作为人工智能风险治理的一项重要基本原则,配套相应的具有可操作性的分级分类标准。如明确不可接受风险的类型、高风险类型、中风险类型和低风险类型。从而明确监管重点和适应的监管手段。第二,人工智能的发展离不开数据、算法、算力三方的支持,相应的数据、算法、平台的治理规则体系应能够与人工智能分级分类风险治理体系实现对接。对于生成式人工智能来说,大规模的数据训练是其进行深度学习的基础,而数据规模的大小与人工智能所产生风险的大小具有一定的关联。第三,当人工智能风险已经完成分级分类,需要与当前人工智能已有的事前、事中、事后监管制度实现对接。如存在高风险的人工智能系统必须进行全过程监管,不仅需要事前的备案制度,也需要事中的评估检测以及事后的问责制度。第四,监管部门、科创企业、行业协会、用户应各自履行分级分类中的相应职能和义务,推动人工智能“分级分类”治理规则与治理标准的构建。

四、我国人工智能“契约”风险治理构建

促进人工智能产业的发展和创新,我国人工智能“契约”风险治理的构建以人工智能监管沙盒制度的引入和构建为重要举措。

确定专门的监管机关。人工智能监管沙盒的主体应由中央国家机关作为主要的实施主体,建议由国家数据局负责统一规划,指导各行各业参照执行。首先,从域外经验来看,欧盟关于人工智能监管沙盒的监管主体是由国家层面的数据保护部门(National Data Protection Authorities)主导,其主要目的是保证《AI法案》的正常运行。其次,2023年3月国务院印发《党和国家机构改革方案》,提出组建国家数据局,其主要职能在于充分挖掘并释放数据要素并实现对数据要素的统一治理。人工智能所带来的风险主要是数据安全风险,因此由国家数据局统一负责也属专业对口。一方面可以减少协调成本,另一方面可以提高制度运转效率,推进监管的落实。再次,地方政府机关不可作为人工智能监管沙盒的实施主体。我国正在加快建设全国统一大市场,进而形成统一的市场监管规则。然而,人工智能产业的发展明显存在较大的地区差别,东、中、西三地区发展不协调,如果地方政府机关可赋权推行监管沙盒,其执行标准必然不统一,势必不利于全国统一大市场的建设,也不利于人工智能产业的发展。最后,从人工智能产业发展的角度来看,不同的领域可由相关领域的主管机关负责具体执行监管沙盒制度,结合“场景化”人工智能的应用,具体落实相应的监管沙盒制度。总之,确定专门的国家机关——国家数据局进行宏观的监管沙盒政策制定。而具体制度的执行,要以“场景化”为特征,由具体的行业主管部门具体执行人工智能监管沙盒制度。

明确人工智能监管沙盒的程序和合格标准。人工智能监管沙盒的试验程序是监管沙盒制度真正落地的关键。《AI法案》对人工智能监管沙盒的规定见于第53条第1款,但该法条仅是规定了框架。如中小企业或者初创企业可以免费进入监管沙盒,基本包括申请、评估、测试、报告、退出等五个阶段。本文针对上述五个阶段,对人工智能监管沙盒制度的具体程序完成建构。第一,申请阶段。科技企业自愿向国家数据局提交进入监管沙盒的书面申请。申请内容包括测试AI产品的基本概况、适用范围、技术参数、创新性说明、安全风险自我评估情况、进入监管沙盒必要性说明等。其中,“创新性说明”将是申请资格的核心选择标准。因为监管沙盒制度的实施是为了有效鼓励创新的。当然,为了实现负责任的创新,需要进行提前测试。第二,评估阶段。针对科技企业的申请,国家数据局组织初期评估。评估通过后,针对应用的前沿技术或新功能、新模式,科技企业需在2个月内制定产品的深度测试方案,包括测试周期、测试项目、关键监测指标、消费者安全保障计划、质量安全风险防控及应急处置措施、测试实施监督及测试退出策略等。第三,测试阶段。科技企业按照产品的深度测试方案开展测试,保存测试记录,测试周期一般不超过24个月。在理由充分的情况下,科技企业可以根据实际测试情况,申请修改测试参数和调整测试周期。国家数据局组织评估AI产品深度测试方案,跟踪测试情况,提出产品设计、制造改进建议,及时指导帮助科技企业查找相关安全问题。如果监督发现产品深度测试无法达到预期要求,应立即通知企业终止测试。第四,报告阶段。测试中期和末期,科技企业向国家数据局提交AI产品安全风险防范措施有效性评估报告、必要的测试记录以及新发现的安全风险改进措施。第五,退出阶段。企业完成产品的深度测试后,达到预期目标,则自动退出监管沙盒。如果在监管沙盒周期内,科技企业提出退出申请的,则需提交情况说明。明确监管沙盒测试的合格标准是人工智能监管沙盒制度实现的重要内容。关于监管沙盒测试的合格标准共同的部分主要包括“具备创新性”和“不能损害公共利益”。但这些共同的合格标准并非具备一致性,具有较大的活动空间。监管沙盒的测试标准不一则会带来不同的访问决策和测试结果。因此,可以借鉴欧盟《AI法案》中第53条第6款的规定,人工智能监管沙盒的运作方式和条件,包括申请、选择、参与和退出沙盒的资格标准和程序,以及参与主体在实施行为中的权利和义务。该条虽然并未明确“合格标准”是什么,但一个国家可以统一制定属于该地域范围内的合格标准,类似于專利制度一样,任申请者选择。

监管沙盒的关键是个人数据的处理。人工智能系统的创新需要数据作为强大的基础支撑。因此,数据安全风险也是人工智能所面临的巨大挑战。人工智能监管沙盒应当为参与者提供一个“安全环境”,以缓解技术创新和法律监管之间的潜在矛盾。入盒的科技企业能够同监管者展开积极、广泛的合作,并在真实世界中测试它们的创新产品,这就使得对个人数据的保护需要提高到更高的安全性标准和要求。也就是说,人工智能监管沙盒的关键是个人数据的处理。欧盟《AI法案》第53条第2款和第54条第1款对“个人数据处理”进行了规定。即“出于保障医疗、保护环境和关键基础设施等公共利益目的的,可以在严格保障个人数据安全的前提下实施处理,需要采取的保障措施主要包括在隔离环境中处理数据和在沙盒结束以后删除数据”。另外一个关键问题是,还需要明确科技企业处理数据的合法性基础。根据欧盟《通用数据保护条例》(GDPR)第6条第1款c项和第9条的规定,为履行数据主体的法定义务而进行数据处理,“同意”(Consent)和“单独同意”(Explicit Consent)是数据处理的合法性基础。参照欧盟法律的规定,我国在建立人工智能监管沙盒制度时,应注意个人数据的处理问题和保护问题。具体而言:首先,在个人数据收集阶段,应以个人同意为前提;其次,存储数据阶段应注意个人隐私的泄露;最后,退出沙盒阶段应注意个人信息的删除。监管沙盒制度建立的核心作用就是责任豁免,当被测试的产品或服务出现数据违法行为时不必承担监管责任。相应的,在建立完善的人工智能监管沙盒制度时应妥善处理个人数据问题。因此,对于消费者而言,通过监管沙盒制度对被测试产品进行审查后,再将AI产品推广至市场时,就能够更好的保护个人数据权利,也会让消费者更加充满信心。

多方合作共同实现监管目的。构建包容审慎的人工智能监管环境,通过优化监管措施激活市场主体创新活力,实现人工智能创新和发展的平衡是人工智能监管沙盒构建的主要目的。构建政府、企业、社会多方协同的治理模式,是实现上述目的的重要抓手。这种协同治理理念也是人工智能监管沙盒的主要价值内涵。第一,人工智能产品和服务是复杂的,经常会涉及多个领域。因此,在产品和服务测试中必然涉及多方主体,包括科技企业自身、市场监管管理机构、知识产权管理机构、国家标准化管理机构、数据保护管理机构等,这些机构之间应当开展合作。例如,就科技企业与监管主体的关系而言,在沙盒测试开始前应当由监管部门与科技企业就测试的时间、范围、对象、规则豁免、合规指导、监测方式、信息披露义务等内容进行磋商,根据科技企业的创新需要提供差异化的监管措施。第二,多方合作的基础需要相关人工智能技术专业知识来作支撑,以此形成访问监管沙盒的决策和开发测试的框架。因此,各方监管机构可以协调开发或调整建设方案,以增强与人工智能相关的各项能力。第三,科技企业自我规制以正确处理企业与社会的关系问题。即企业对自身行为加以控制的规制,这是沙盒实验中监管部门对企业“放权”的必然要求。在沙盒测试中给予企业较大的自我管理空间。例如,在申请沙盒测试时应当就人工智能产品创新性、安全性进行详细说明,并进行记录,及时向社会发出声明,以正确处理企业与社会(消费者)的关系。第四,监管沙盒中的监管试验机制需要强有力的国际合作与协调。一方面,在人工智能测试的实验框架上开展国际合作,有利于创新并减少监管的“碎片化”;另一方面,新兴技术中的人工智能监管沙盒可以比作未来的“技术法规”,通过世界贸易组织关于技术性贸易壁垒协定(TBT Agreement)中的“等效协议(Equivalence agreements)”来实现。

五、结语

人工智能在中国市场的经济投入位居世界第二,是引领中国科技创新的重要力量。人工智能作为一种智能系统,对人类的影响已经及于生活的方方面面。科技企业具有自主创新能力和产业发展能力,是人工智能产业创新发展的重要力量。然而,科技企业自身发展的薄弱性以及人工智能本身所产生的数据安全风险是其面临的重要挑战。如何建立一个总体风险可控又能给予各种创新空间的监管模式是现代市场创新主体和监管者共同面临的难题。欧盟《人工智能法案》提供了新方向和新思路。一是能够体现科学监管、高效规制、精准治理的常态化监管思路的分级分类人工智能风险治理理念;二是具有监管主动性、事前监管、隐私保护和鼓励创新特征的监管沙盒制度。“分级分类”与“契约”风险治理并行的人工智能监管制度既能实现严格监管,也要兼顾产业创新。构建我国人工智能分级分类风险治理制度,实现人工智能应有的价值和可信的治理目标。同时鼓励政府、科创企业和消费者达成治理“契约”,构建人工智能监管沙盒制度,在预防法律风险的同时,也鼓励了人工智能企业的持续创新,最终促进数字经济规范健康持续发展。

(责任编辑:孟洁)

参考文献:

[1]陈兵,董思琰.分类分级治理算法的基本内涵及实践进路[J].西安财经大学学报,2023,36(6):70-79.

[2]丛颖男,王兆毓,朱金清.论算法解释权的重构——全算法开发流治理與分级分类解释框架[J].计算机科学,2023,50(7):347-354.

[3]张凌寒.算法规制的迭代与革新[J].法学论坛,2019,34(2):16-26.

[4]于品显,刘倩.欧盟《人工智能法案》评述及启示[J].海南金融,2023(6):45-53.

[5]陈兵,董思琰.生成式人工智能的算法风险及治理基点[J].学习与实践,2023(10):22-31.

[6]陈振其.监管沙盒:数据要素治理新方案[J/OL].图书馆论坛,1-10[2024-01-17]http://kns.cnki.net/kcms/detail/44.1306.g2.20230828.1351.004.html.

[7]刘志洋,解瑶姝,徐索菲.审慎视角下金融科技平台企业监管研究[J].海南金融,2023(11):30-38+87.

[8]ROSS P B.Building Fintech Ecosystems:Regulatory Sandboxes, Innovation Hubs and Beyond[J].Washington University Journal of Law & Policy,2020(61):55-98.

[9]LETIZIA T.Start-ups and the proposed EU Al Act,Bridges or Barriers in the path from Invention to Innovation[J].JIPITEC,2022(13): 53-59.

收稿日期:2024-01-06

作者简介:黄静怡(1994-),女,河北唐山人,中国政法大学民商经济法学院博士研究生。

①资料来源:中华人民共和国中央人民政府.我国人工智能蓬勃发展,核心产业规模达5000亿元[EB/OL].[2023-07-07].https://www.gov.cn/yaowen/liebiao/202307/content_6890391.htm.

②2023年6月,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《人工智能法案》谈判授权草案,推动了该法案进入立法程序的最后阶段,即举行欧洲议会、欧盟成员国和欧盟委员会的“三方谈判”,以确定法案的最终条款。2023年12月8日晚(布鲁塞尔当地时间),欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成协议,该法案将成为全球首部人工智能领域的全面监管法规,该立法草案仍需得到欧盟成员国和议会的正式批准,一旦双方正式批准,该立法预计将于2024年初生效,并应在两年后实施,或将为全球范围内监管人工智能技术定下基调。因2023年12月8日的《人工智能法案》并未公布,本文以2023年6月的《人工智能法案》的“折衷版本”为研究对象。

①附件三确定的8个特定领域部署的系统:自然人的生物特征识别与分类系统;关键基础设施的管理和运营系统;教育与职业培训系统;就业、工人管理和获得自我雇佣系统;获得和享受基本的私人服务和公共服务和福利系统;执法系统;迁徙、庇护和边境控制管理系统;司法和民主过程性系统。

①《数据安全法》第21条:国家建立数据分类分级保护制度,根据数据在经济社会发展中的重要程度,以及一旦遭到篡改、破坏、泄露或者非法获取、非法利用,对国家安全、公共利益或者个人、组织合法权益造成的危害程度,对数据实行分类分级保护。国家数据安全工作协调机制统筹协调有关部门制定重要数据目录,加强对重要数据的保护。关系国家安全、国民经济命脉、重要民生、重大公共利益等数据属于国家核心数据,实行更加严格的管理制度。各地区、各部门应当按照数据分类分级保护制度,确定本地区、本部门以及相关行业、领域的重要数据具体目录,对列入目录的数据进行重点保护。

②《互联网信息服务算法推荐管理规定》第23条:网信部门会同电信、公安、市场监管等有关部门建立算法分级分类安全管理制度,根据算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据重要程度、对用户行为的干预程度等对算法推荐服务提供者实施分级分类管理。

③《生成式人工智能服务管理暂行办法》第3条:国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。

猜你喜欢
风险治理分级分类人工智能
黑龙江省人民政府办公厅关于印发黑龙江省进一步深化市场主体信用分级分类监管若干措施的通知
2019:人工智能
人工智能与就业
浙江省网络安全应急预案编制研究
直销企业分级分类监管备受期待
江苏省中小企业技术创新风险社会分摊制度实践研究
数读人工智能
山西文化旅游产业集群风险治理研究
互联网金融分析
下一幕,人工智能!