数字时代深度伪造平台化治理研究

2023-02-07 19:17孙天宇
警学研究 2023年6期
关键词:深度人工智能信息

孙天宇

(广东警官学院,广东 广州 510440)

一、问题提出

深度伪造(Deepfake)是深度学习(Deep learning)和伪造(Fake)相结合的产物,是利用深度学习算法,实现视频、音频、图像的伪造和模拟形成虚假内容的总称,是深度学习算法在内容合成制作领域的结果产出。时间回溯至2017年12月,某匿名者将情色电影主角替换成好莱坞某知名女星并上传至Reddit论坛[1],引起个人、社会、国家层面的广泛关注,尤其是该换脸源代码被公开之后,各类应用及其带来的风险呈井喷之势,社会个体扭曲现实的能力呈指数级增长,经伪造的信息能无中生有,与AI算法的结合更极大地提高了其可信度。自此,深度伪造的危害后果开始在个人隐私侵权、诈骗犯罪活动、社会秩序破坏、国家政治安全等领域接连发生。2021年3月,在经历一周的火爆后,冲上中国区应用商店免费软件下载排名榜首的APP-Avatarify被悄然下架,其凭借一张照片即可合成一段幽默诙谐的动态说唱视频,受到广大消费者的热捧,但其暗含的隐私与信息安全风险成为其被下架的主要原因。[2]假视频最大的危害是破坏人们识别“真相”的能力,失去对互联网的信心,并引发和助长社会冲突。进入数据高度开放流动的互联网领域,现实社会中存在的极端和对立情绪会因不信任因素加剧而激化社会矛盾。

埃隆马斯克曾在推特上表示:“我们要非常小心人工智能,它可能比核武器更危险。”[3]史蒂芬·霍金也说:“人工智能可能是一个‘真正的危险’。机器人可能会找到改进自己的办法,而这些改进并不总是会造福人类。”[4]深度伪造的负面作用不得不引起重视,其凭借颠覆性技术特征引发世界各国陷入信息安全的深度焦虑。面对传统个人言论自由的权利诉求与互联网不当言论管制的价值冲突,法律规制、技术防范、平台治理和民众教育等成为各国普遍尝试的规制权宜举措[5],但治理效能最大化的最优解在于发挥各主体的治理专长,而非赋予其同等的责任和义务[6],如何在遏制深度伪造行为危害后果的同时,实现促进人工智能技术的健康发展已成为各国制定政策时的重要考量因素,技术“无价值取向论”无法避免技术沦为个体作恶的工具,而这也将成为技术发展必然面临的风险。

二、深度伪造危害生成的过程解构

在互联网时代下,信息流动的载体从文本、语音到视频,再到虚拟现实,丰富的用户体验在技术进步趋势下逐步实现。深度伪造生成过程具有高度智能化,利用生成式对抗网络Generative Adversarial Networks(简称GAN)进行自我对抗来实现无监督式学习的模型可以生成以假乱真的图片、音频、视频以及三者的结合体。深度伪造技术一方面可用于历史影像修复、历史人物再现、虚拟仿真教育、医学图像分析、患者康复治疗、个人虚拟化身(avatar)等领域,为人类带来福祉;另一方面,当技术使用者的意图发生异化,加之标准化监测工具的缺失,甄别、侦测的难度很大,深度伪造的不当使用呈现出“魔道不相上下”的窘境。深度伪造的传播利用当下全媒体时代的传播便利、较低的准入门槛、低廉的传播成本、打假辟谣的时间窗短、难度大的特性,可以造成影响范围广泛的危害。

(一)深度学习技术背景下个体的广泛参与,深度伪造防不胜防

技术的智能化进步趋势增加了深度伪造的防范甄别难度。2019年6月,在网络上出现了一段关于扎克伯格的伪造视频,视频中人物的言行举止与其本人出奇一致,引起广大网友的热议,而后其出面对此予以澄清才消除风波[7],但此后类似事件层出不穷。技术无所谓善恶,既可用来造福人类,也可用来造成祸患,关键在于使用者如何应用。深度伪造生成过程包括三步:一是提取数据,二是训练,三是转换。每一步中使用的技术路径也在不断更新。GAN作为近年来机器学习领域最为火爆最具冲击的无监督式学习模型的典范,为人工智能自我学习能力的提升带来跨越式发展。GAN内含两个模型:生成模型和鉴别模型,前者用来生成虚假内容,后者辨别其真伪,二者不断对抗。简言之,前者比作盾,后者比作矛,矛不断刺向盾以发现其薄弱环节,而盾据此不断强化完善,直至达成均衡。基于此种智能化学习策略生成的深度伪造为甄别和筛查增加难度。

网络视频的生成主要有两种形式:用户生成内容(User Generated Content,简称UGC)和专业生成内容(Professional Generated Content,简称PGC),前者主要指一般用户作为视频内容生产者生成视频并上传至网络终端,后者主要指由专业机构制作的视频并上传的情形。传统意义上具有阐释性偏向造假的UGC和具有技术偏向造假的PGC正在因为技术壁垒的消失而呈现出融合趋势,加速消解着我们现实评判中“眼见为实”的信任。[8]在自媒体尚未发达的时代,媒体发布渠道的限定性使得发布内容的事前审核成为可能,但在自媒体流行的当下,人人都可以借由互联网平台发布信息内容,从而对他人产生影响,海量的流媒体视频使得传统依赖人力的内容审查模式无法发挥作用,内容平台也需凭借算法对传播内容实施底线性审查。[9]一键式生成APP的开发为大众深度伪造信息的生成提供极大便利,降低了进入的技术门槛,内容制作端的管控成为难题。公众参与深度伪造的能力受到技术壁垒的限制,但程序开源却轻易消除了壁垒限制,使得众人在共享技术红利的同时,也可能成为深度伪造的潜在危害制造者。深度伪造工具的开源化、普及化已经让被造假的主体从名人延伸至任何普通人。使用门槛降低,造假成本低,早期的深度伪造技术要通过上万张照片来作为训练素材,才能实现替换视频中的真实画面,但随着时间推移,技术不断迭代,新的视频造假技术甚至可以做到只凭一张照片就能自动生成视频画面。同时,深度伪造中所需的学习数据资源,如图片、音频、视频等,也可以在开放的网络空间轻松获取。

(二)过度攫取公民隐私,信息泄露引发的系统安全风险高

掌握适量的个体生物识别信息是深度伪造应用程序得以正常运行的必要前提,如面容、声音、虹膜、指纹、DNA等,以便作为生成式对抗训练的数据来源,不同于一般的个人账号、密码等信息经由特定程序可以变更,而此类生物特征信息与个体相伴、唯一且具有相对稳定性,属于高度敏感的个人信息,在被识别收集转化为电子信息后,一旦被泄露,无法通过更改的方式提升防护等级,而基于个体生物识别特征的安全系统就面临被攻破的风险。全国网民网络安全感满意度调查统计报告显示,个人信息保护成为网民最关注的问题,37.4%的网民认为网络个人信息泄露非常多和比较多,个人信息保护、网络平台责任和数据安全保护成为三大核心诉求,其中个人信息保护立法诉求占比82.61%,对网络平台责任立法诉求占比73.36%,对数据安全保护立法诉求占比63.69%。[10]2015年,“Meta(前身为Facebook)” 因违反 《生物识别信息法案》(Biometric Information Privacy Act),未经用户同意擅自收集用户个人的面部生物识别信息,而在伊利诺伊州遭到集体诉讼,该法案被称为全美国最严厉的隐私法案之一,Meta提起的上诉亦被驳回,最终于2020年6月达成6.5亿美元的和解协议。[11]2017年一位ID名为“deepfakes”的用户将好莱坞女星的面容移植到情色电影中并公开发布,结果导致该账号被封杀,随即该换脸项目的代码被公开。[12]在美国引起广泛争议并被封杀的应用软件“Deep Nude”以及国内掀起轩然大波的应用程序“ZAO” 皆是以上述开源代码为基础而开发的。风极一时的换脸APP“ZAO”在隐私条款中过度获取用户隐私授权,转嫁平台的侵权责任风险给用户,从而在一片争议中被整改下架。[13]2020年,中央网信办曾牵头工信部等4个部门联合开展“净网2020”专项执法行动,执法过程中发现许多应用程序在与个人信息相关的隐私协议、采集使用个人信息的范围与必要性方面存在严重问题。由此可见不加管控的任意发展会导致应用程序开发者在利益驱使下无限制地索取常规功能必需以外的个人信息,对个人隐私和信息安全造成极大风险。

(三)社交网络中的暗黑心理驱使深度伪造内容的广泛传播

网络社交不同于传统社交的重要区别之一在于非双向互动性,传统社交是双向的互动、沟通、交流,而网络社交则成为了单向的公众表演,这恰恰是社交网络功能逐步演化的结果。[14]2009年Facebook增加“点赞”功能,获点赞数成为内容受欢迎程度的指向标,同年推特开发了“一键转发”功能,2012年,Facebook引入“分享”按钮,内容在平台间的传播轻而易举,结果便是社交网络的激励机制发生根本性变更,从单一个体的记录表达空间变成了个体自我展示获得社会鼓励与认同的表演舞台,影响力和受欢迎程度取代内容的质量和真实性成为衡量指标。[15]在“注意力经济”时代,民众对于司空见惯、不带任何煽动性及情感偏向的内容早已失去关注兴趣,深度伪造信息的内容新奇,满足了人们的好奇心,广受追捧。纽约大学社会心理学研究员William Brady和美国皮尤中心的调查结果为该结论提供例证。①纽约大学的一个社会心理学研究员William Brady在2017年的时候做过这么一项研究,他分析了50万条推特上的推文,结果发现推文里每增加一个情绪化或者进行道德评判的词,推文的传播率会增加20%。美国的民意调查机构皮尤中心也做过一项关于社交网络的研究,他们发现,如果你在网上的推送传达出了“愤怒的分歧”,那这种推送获得点赞、转发互动的可能性,是普通推送的两倍。名人的“光环效应”会不断巩固其权威性和号召力,让大众产生高度的信任,愿听从其旨意而行事,在借助于其广泛的社会影响力和社会关系网络的同时,被深度伪造的信息主体反其道而行之的言行与公众认知形成巨大反差,信息不对等带来的自我纠偏困境使得公众认知走向反面极端。[16]信息内容在互联网时代需借助于信息发布平台才能获得广泛的传播,如时下流行的微信、微博、快手、抖音等即时通讯、短视频直播平台。平台内外的资源共享与一键转发,以及平台全时空的不间断在线,使得信息的无限流转仅凭指尖操作即可实现,交易成本几乎为零。“后真相时代”的情绪和知觉而非事实真相更能左右人们的选择,“博取眼球”成为内容发布者博出位、蹭关注、求转发的常用手段。根据麻省理工学院媒体实验室发布的报告,虚假信息被转发的可能性比真实信息高出70%,真实信息覆盖1 500人所用的时间是虚假信息的6倍。[17]

(四)显性与隐性危害后果加持,辟谣难以修复

深度伪造生成的第一步即数据提取环节需要大量被伪造者的数据,包括照片、视频、音频资料,以便从中提取被伪造者的生物识别特征,实现内容的替换。深度伪造信息根据内容的性质差异可将其造成的危害分为多个层面:首先,对个人隐私权等合法权益的侵害,常见于色情报复影片中的换脸,侵害他人名誉、肖像等;其次,对社会稳定和秩序的危害,如伪造上市公司总裁发布不当言论,导致股价异常波动,伪造成社会名流发布恐袭信息,引发社会恐慌;最后,对国家安全造成潜在威胁。[18]2019年1月29日,美国国家情报局(ODNI)发布了《2019全球威胁评估》[19],其中提到利用网络影响和干扰选举成为美国面临的安全威胁之一,而深度伪造技术是该威胁可兹利用的具体手段方法,敌对势力和竞争对手完全可以在总统竞选过程中利用伪造且无法辨明真伪的信息在媒体公开,以诋毁竞争对手,影响选民的思维和行为,间接影响总统竞选结果。传统地方媒体在互联网发展趋势下生存空间被无限挤压,本应由其承担的深入调查、揭露真相的功能被不断弱化,无法与新媒体势力形成事实对抗验证机制。假视频最终被澄清,但还是会造成负面影响。人们的大脑天生喜欢用“可得性启发式”来判断信息的可信度,即更熟悉、更容易让我们回想起来的信息,我们更倾向于认为它是真的,“重复”“熟悉”是虚假信息混淆视听的必要条件。人们对于事实的基本共识会被破坏,何为“真实”将会被反复质疑。在一个互相信任程度很低、缺乏共识的社会,协作成本高昂、社会严重撕裂。Meta在2019年12月20日发布公告称,封杀其来自美国和越南的610个账号、89个粉丝页面、156个群组和72个Instagram账号,粉丝量累计超过5 500万,这些账号采用人工智能合成虚假个人照片,发布大量有关美国政治新闻和议题的内容,主要涉及“支持特朗普”和“攻击中国政府”,Meta安全政策主管格莱切尔(Nathaniel Gleicher)称这是“我们第一次看到个人或组织系统性地使用AI技术,以便让账号看起来更真实。”[20]2018年8月,中央网信办已在虚假不良信息辟谣领域发力,通过在网络端建立自主举报、发现处置于一体的联动处置平台。在收集到新的谣言线索后,辟谣平台会根据谣言内容,发送至相关部委、地方或专家学者,请他们协助查证,并组织成员单位、合作单位进行联合辟谣。[21]但由此不难发现,相比起辟谣所需花费的人力、物力、时间成本而言,谎言生成的难易度及其危害蔓延的范围远超前者。

三、深度伪造的法律规制困境

深度伪造应用的负面效应反映出技术发展与法律规制之间存在的普遍矛盾,通过深度伪造技术的属性解析,阐释在高新技术领域进行法律规制的特殊性与普遍性之间的张力,多元价值冲突之间的调和与统一,变动性与稳定性之间的冲突等困境。

(一)技术风险的不确定性与法律规制的确定性之间的紧张关系愈发激烈

对技术开发持有的鼓励、包容的态度成为技术蛮荒增长的必要条件。国家人工智能战略规划的落地实施,使人工智能吸纳了更多的资源支持,更有力的政策保障。鼓励、支持的包容态度使得人们选择性地遮蔽了技术隐含的风险。技术本身所蕴含的风险与发展共生,与时代共存,与全球互联,成为生活方式的常态。技术风险存在着传统价值规范的失效与现代控制准则虚设的问题。技术开发带来的隐形风险层出不穷,造成人工智能领域的规制补全需求不断凸显。行业规范性文件的形式无法提供深度伪造行为规制的制度支撑,惩罚机制的缺失亦使得其无法实现预期的效力。

(二)技术伦理的刚性制度约束欠缺,多元价值冲突难以调和

深度伪造技术背后包含了多元价值冲突:既包括言论自由在互联网领域的拓展与延伸,也包括个人隐私与个人信息应受保护的期待,还包括智能技术开发与利用同人伦道德不得相悖的基本遵循。“技术的‘不良应用’主要指三个方面:一是应用特定技术所要实现的目的是什么;二是不管出于什么目的,特定技术是如何被应用的;三是设计技术中应用技术原理的方式。”[22]人工智能治理专业委员会在《新一代人工智能治理原则——发展负责的人工智能》中提出8项关于人工智能发展的基本原则。《人工智能伦理风险分析报告》将遵循人类根本利益和责任原则嵌入其中:一方面人工智能应以实现人类根本利益为终极目标,另一方面,在人工智能相关的技术开发和应用两个方面都建立明确的责任体系,据此应遵循透明度原则和权责一致原则。国家网信办、文旅部和广电总局等三个部门联合发布《网络音视频信息服务管理规定》,其中增加了针对换脸技术的新规定,在虚假图像、虚拟现实等内容方面需建立专门的辟谣机制。同时,需对依赖深度学习、虚拟现实等新技术制作、分发的内容进行特别标注,以提醒公众形成正确认识,且不得利用该技术“制作、发布、传播虚假信息”。技术伦理的多元探索反映出人们对技术风险规制的美好渴求,但原则性的伦理指引无法形成刚性的制度约束,确保技术风险位于可控风险范围。

(三)法律否定性评价的量化处罚形式无法达成罪责刑相适应

行为规制模式与权利化模式成为法律介入社会生活,调整彼此间权利义务关系的基本策略,“行为规制”是指从他人行为控制的角度来构建利益空间,通过对他人特定行为的控制来维护利益享有者的利益。相较于权利化模式,行为规制模式的保护力度较弱。[23]消极性的、防御性的权利保护模式无法与经过互联网放大后的危害程度相匹配。①法释〔2014〕11号:《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》,2014年8月21日发布。法律规范作为社会治理的手段,它是以调整公民个体行为与行为之间的关系,以协调或弥补可能由之产生的利益冲突和法益侵害为中心,这种抽象机制的强化会导致行为间的关系间接化从而带来规制的困境。侵权法和刑事法所关注的核心都是行为造成损害时,如何基于损害结果或行为具备的抽象危险,对行为进行归责。“共犯行为正犯化、预备行为实行化、网络服务提供者的平台责任”[24]这三种责任模式的立法转向与实践探索已为《刑法》解决网络帮助行为的危害性过大从而确定适当的刑事责任问题提供新的思路[25],但面对深度伪造这种新的社会危害行为尚未纳入现行刑事法评价体系进行客观归责,尤其是在认定深度伪造行为危害后果的程度上存在较大困境。

四、深度伪造平台化治理的理论证成

商务交易、互联网金融以及各类互联网公共服务类应用规模急速增长,充分体现出网络服务提供者在我国经济社会中愈加重要的地位,然而,网络服务提供者重要性增强的同时,也是我国经济社会运转对服务提供者依赖性的同步增强,从整体上构建以网络服务提供者为规制对象的法律制度以应对网络犯罪风险成为应然之选。

(一)获取渠道影响力与内容审核责任一致性

信息哲学认为,信息是物质存在方式和状态的自身现实。个人信息准确记录和描述了个体的存在状态,是单个个体区别于其他个体的外在表现[26],意即识别性是个人信息的本质属性。识别既可以是将信息主体与其他人区分开来或联络到本人,也可以是权利人的行为状态和行为轨迹等。要求平台对其上的内容承担责任的理由也渐渐出现,平台媒体通过信息传播这一重要渠道,获得了影响社会的力量,这一地位的转变使得平台也应承担起防止传播作用被滥用、危害社会的责任。[27]美国谷歌、Meta、推特等互联网平台因深度伪造信息的泛滥而备受指责,但他们却以自身仅提供信息发布平台来逃避信息审核的责任。

2019年10月4日,欧盟法院在一份裁决中表示,如果一家法院裁定某项言论具有诽谤性,则网络服务公司应删除该言论,且有责任在平台上搜索与之相同言论并删除,这一裁决是对《欧盟电子商务指令》的扩大解释,以强化网络平台的管理责任。[28]此举还可视为欧盟通过向网络服务平台施加责任,进而实现对域外信息内容的间接管控。Meta已经采取措施执行所有承诺,并利用消费者授权工具促进其与整个欧盟范围内的事实检查人员和研究界的合作。谷歌已采取举措履行其所有承诺,尤其是强化广告展示位置的审查,增加政治广告的透明度并为用户提供信息、工具和支持,以增强他们的在线体验感受。推特对恶意行为者采取了优先行动,关闭了假的或可疑的账户以及系统自动或机器人操控的账号。Mozilla即将启动其浏览器的升级版本,默认情况下将阻止跨站点跟踪,换言之,这将限制披露有关用户浏览活动的信息,以避免这些信息被用于虚假信息宣传活动。[29]2017年5月2日,国家互联网信息办公室发布1号令,《互联网新闻信息服务管理规定》,其中明确了总编辑及从业人员管理、信息安全管理、平台用户管理等要求。赋予内容服务平台者更多的审核责任与审查义务已成为世界各国的普遍共识,并已经由制度化规范予以调整。

(二)代理式监管的便利考量

罗斯科·庞德曾言:“法律必须稳定,但又不能静止不变……社会生活环境的不断变化,则要求法律须根据其他社会利益的压力和危及安全的新形式不断做出新的调整。”[30]科技进步不得以损害人的权利为代价,法律在此过程中起到平抑科技进步造成的负性危害,增进全体社会成员福祉的重要作用。[31]深度伪造信息的传播须经历内容策划、制作、分发、传播、沉寂等多个阶段,分发与传播是诱导大众形成认知错误或认知偏差,发生危害性后果的关键环节。互联网服务平台作为内容发布者或中介平台,与平台使用者之间可基于所订契约形成彼此的权利义务约束,而社会责任的价值应在双方签订的契约中得到体现,因此经由契约方式约束内容发布者的行为,确保深度伪造内容无法获得任意发布的机会,及事后审查发现的撤销权利,从而将代表公共利益的公权行使与监管职责分到私权主体上,形成监管的便利化。2018年9月26日欧盟发布的《反虚假信息行为准则》成为世界范围内首个基于行业自愿原则联合达成的行业自律准则。该准则在自愿和自律的基础上确立了四项基本目标,即提高侦测识别能力,协作响应能力,平台与行业自律,提高公民防范意识和能力,从而打造高透明度的互联网信息环境,赋予公众对抗虚假信息的权利和能力,消除民主和政策制定过程中遭遇的虚假信息威胁。这彰显出欧盟治理互联网虚假信息的迫切希望,同时也意味着欧洲一向奉为圭臬的“互联网自由”的破产。上述内容也成为各协议签订机构所需定期上报的整改事项。

2020年1月1日起实施的《网络音视频信息服务管理规定》(以下简称《规定》)调整的主体主要包括三个:行政主管机关、网络音视频信息服务提供者和网络音视频信息服务使用者,强化了音视频服务提供者的主体责任要求,具体可分为三个方面:事前真实身份核验、信息发布审核、信息标注、安全评估和未成年人保护责任,事中的信息安全管理、技术鉴别、停止传输、应急处置、知识产权保护等责任,事后的辟谣措施、信息服务使用者的违约惩处。《规定》从正面积极引导和反面禁止性行为的角度给从业者提供明确的指引。其中对网络信息内容服务平台的责任规定中,明确其内容管理责任,在重点环节应予展示的内容加以明确,对不得予以传播的内容建立全流程的审核、筛查、截停、删除、固定、留存机制。从现行制度规范的功能取向而言,不断强化平台服务者的主体责任已成常态,细致全面的审查落实机制为服务平台的操作落实提供了详细指引。[32]

(三)主导人工智能治理话语体系的必然要求

在国家层面关于AI的规则制定并不平衡,有的国家已经优先制定了机器人和人工智能的规则,甚至通过立法规制自动驾驶汽车试验,但大多数国家还并未着手进行处理。在2018年发布欧洲人工智能策略(European Strategy on AI)后,经过广泛的协商讨论,人工智能高阶专家小组(High-Level Expert Group on Artificial Intelligence)在2019年制定了可信赖人工智能准则(Guidelines for Trustworthy AI),并在2020年制定了可信赖人工智能评估列表(Assessment List for Trustworthy AI)。同时,2018年12月发布了第一个人工智能协调计划,以作为成员国的联合承诺。2020年2月,欧盟委员会发布了三份重要的数字战略文件:《塑造欧洲的数字未来》(Shaping Europe’s digital future)、《人工智能白皮书》(the White Paper on Artificial Intelligence)、《欧洲数据战略》(European Data Strategy),分别从基础设施和工具、标准和法律规则以及价值观和社会模式三个层面实现规制自主(regulatory autonomy),以实现数字欧洲所反映出的欧洲最好属性:开放、公平、多样化、民主和自信,欧盟委员会主席乌尔苏拉·冯德莱恩提出的“技术主权”(technological sovereignty)成为统辖上述内容的关键词。人工智能白皮书(White Paper on AI)为欧洲的人工智能提出了一个清晰的愿景:一个卓越和信任的生态系统,为AI法规提案奠定基础。[33]

科技发展引发社会范式的转变,从而对人们的传统观念和规范构成威胁和挑战。科技对人类的影响如此深入和彻底,人工智能作为新一轮产业变革和科技革命的颠覆性技术,为人类带来巨大福祉的同时,因其滥用而引发的风险成为新的隐患。全球看来,中国、美国、欧洲是AI领域的主要“玩家”。为避免制度监管的滞后导致技术监管的不到位,致使AI系统的社会危害不可控,欧盟于2019年4月8日颁布了《人工智能(AI)道德准则》,以期利用原则化概括条款提前介入到AI技术发展的技术规制中,以期提前规制AI技术发展可能带来的不利后果,改变了针对新兴技术领域的传统法律规制模式。IBM欧洲主席马丁·叶特(Martin Jetter)认为欧盟委员会的人工智能道德标准为推动AI的道德和责任制定了全球标准。欧盟发布《人工智能道德准则》确立“可信赖AI”的框架:第一,道德指向——应享有的基本权利、原则和价值观;第二,实现路径——技术和非技术方法,罗列了满足“可信赖AI”的7个条件:人类的监管、技术的安全可靠、隐私和数据保护、透明可理解性、多样非歧视与公平性、环境友好与社会福祉增进、可追责。该准则面向开发、部署或使用AI的所有利益攸关方,但其是否能获得认可将由上述主体自行决定。欧盟委员会表示,其目前正采取三步行动促进可信赖的人工智能健康发展:制定值得信赖的人工智能的关键要求,启动利益相关者的大规模试点,为以人为中心的人工智能建立国际共识,并于2019年启动一套人工智能研究卓越中心网络,建立数字创新中心网络,与欧盟成员国和利益相关者讨论制定数据共享模型。欧盟为确保执法效力,实现域内执法尺度的统一,采用统一立法的方式对欧盟各国适用形成普遍约束力,但本该在《通用数据保护条例》(General Data Protection Regulation)之后出台以配合该条例顺利执行的系列操作细则并未如期执行,在结束2019年“竞赛式执法”过程后,个别国家对如此严厉的信息规范是否会导致欧盟域内各国本已落后的产业再次陷入发展的僵局产生不同看法。本欲通过立法规范各主体开发利用公民个人信息的技术和行为,以规范和保护本国信息主体的合法权益,换取本国相关产业发展的契机,但事与愿违,初衷并未如期达成。

《新一代人工智能治理原则——发展负责的人工智能》 成为我国应对AI伦理和治理的体现。2019年5月,OECD成员国批准了全球首个由各国政府签署的AI原则——“负责任地管理可信AI的原则”。[34]2023年7月,美国政府召集AI领域科技巨头商讨人工智能领域衍生巨大风险的应对举措,其中将“安全、可靠、信任”确立为未来人工智能开发所应遵循的基本原则,参会的7大科技巨头亦纷纷承诺将采取技术促使人工智能开发朝着负责任的方向前行。2023年7月10日中央网信办连同数个国家部委正式出台了《生成式人工智能服务管理暂行办法》,该办法于2023年8月15日生效。显示出各个国家已进入AI的实质性治理阶段,规则之治的国际竞争更加激烈。

五、深度伪造平台化治理模式构建

网络平台是数字社会的中枢,在共建共治共享的数字社会治理制度中,平台应发挥应有的作用,在政府治理和平台治理之间寻找合适的平衡点,坚持“多元共治、权责一致”思路,使平台治理成为国家互联网信息内容治理中的关键环节和重要助推。深度伪造作为技术发展的产物,不可避免地附带有技术发展的天然属性。传统制造业领域的“价值无涉论”在第四次工业革命浪潮的驱动下已然具备附随的价值取向,技术开发者的价值取向嵌入到了程序运行的过程中,尤其是深度伪造融入了政治性、社会性,形成利益的交织。面对现有的技术主导推进,商业推广占主体,以及政府直接监管效能低下的现状,应推进平台化治理模式,以技术伦理的柔性规制和法律规范的刚性约束,行政主体与商业机构相互配合,确保其在良性轨道内顺畅运行。

(一)确立网络服务提供者的监管主体责任

对深度伪造所涉及法律关系会运用到民事责任、刑事责任和行政责任制度来进行调整,单一的规范体系无法全部实现规范或制裁的目的,并且处于变动不居状态的科技并非相对稳定的某一部门法所能及时适应的,需要通过法律的“综合治理”。在事前审核端设立审核者的严格责任义务,事中的监控环节应设定平台提供者的巡查发现义务,在事中的发现处置端应增加发布者和平台共同的危害消除义务,在事后的法律惩戒环节设置直观可量化的罪责刑标准。在《民法典人格权编》《数据安全管理办法》以及《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等法律规范中针对深度伪造相关行为的危害后果、侵权责任也作出规定。网络平台在被赋予体系化的共性义务之外,还根据内容的不同被赋予了不同管理义务,以制度规范形式将平台特定的行政义务加以确立。2015年公布的《网络安全法》,2021年经修订施行的《未成年人保护法》从被保护对象的利益出发,规定了网络平台对待上述主体的共性保护义务。在平台的个性保护义务方面,2019年中央网信办分别针对网络信息内容服务平台、关键信息基础设施运营者在内的6个主体发布包括《网络信息内容生态治理规定》和《网络安全审查办法》在内的6项规定,从特定内容出发规制网络平台的特定义务,与共性义务形成互补。

(二)统一技术向善的基本伦理准则

刚性制度规范应为技术发展留下足够的拓展空间,尤其是在技术兴起的早期阶段,其未来应用领域和方向尚未明确的情况下,以框架式、原则式的政策引导技术发展趋向更有利于技术正效应的充分发挥,伦理准则成为引领和指引技术发展的重要框架和可行举措。欧盟委员会于2021年4月提出了人工智能法规,根据人工智能应用对人们的安全带来的风险高低,分为四个层级:不可接受的风险(Unacceptable risk)、高风险(High-risk)、有限风险(Limited risk)、最小的风险(Minimal risk),分别规定了各自的使用场景与范围,以减少风险。[35]在技术发展与风险规制之间尚未探索出明确的文本规范之前,原则性的指引将发挥重要作用,保护用户数据安全、尊重隐私、保障个人的知情权和选择权、负责任开发、社会可持续发展等一系列人工智能伦理准则已在监管机构和行业从业机构之间形成共识[36],并通过行业协会、政府治理白皮书等方式将理念传递至全体行业从业者,将技术向善的基本伦理准则作为技术发展初期的指导性原则。

(三)建立多层次的治理体系

技术无所谓善恶,不存在原罪,关键在于使用技术的人。技术使用所关涉利益维度的复杂性也决定了人工智能领域治理应采用多层级的治理体系[37],对深度伪造涉及到的数据和技术两个层面分别予以规制,再以顶层规范的边界划定,中层的行业自律,到底层的公众教育与意识培养相结合的方式构建多层次的治理体系。

顶层的法律规范采取分类分级、分阶段的方式进行适度监管,中层的行业和企业自律也需发挥重要作用,鼓励践行科技向善、负责任创新与研究等理念,以采取行业标准、自律公约、最佳实践做法、技术指南、伦理框架等敏捷灵活的治理方式来规范、引导人工智能的发展应用,实现科技向善。底层公众教育和意识培养同样不可或缺,公众意识的培养与从业者自律习惯的养成得益于日常的规则普及与全面教化,形成明确稳定的法律后果预期,使得民众的自我维权意识和从业者的自律精神得到充分发挥。由此可以形成覆盖数据和技术,多主体参与,全方位监督的多层级治理体系。

猜你喜欢
深度人工智能信息
深度理解一元一次方程
深度观察
深度观察
2019:人工智能
人工智能与就业
深度观察
数读人工智能
订阅信息
下一幕,人工智能!
展会信息