网络猥亵儿童犯罪治理中网络平台责任的缺位及其完善

2023-08-31 11:05魏雪然
预防青少年犯罪研究 2023年2期
关键词:监护人网络平台个人信息

魏雪然

一、问题的提出

截至2020年,我国未成年人的互联网普及率高达94.9%,网民规模达到了1.83亿,①中国互联网络信息中心、共青团中央维护青少年权益部:《2020 年全国未成年人互联网使用情况研究报告》,载中国互联网络中心官网:http://www.cnnic.net.cn/NMediaFile/old_attach/P020210720571098696248.pdf未成年人已逐步成为网络空间的重要参与主体。然而,随着网络空间越来越成为犯罪的高发场域,未成年人面临的网络安全风险也更加复杂。②汪全胜、宋琳璘:《我国未成年人网络安全风险及其防范措施的完善》,载《法学杂志》2021 年第4 期,第91 页。其中,针对儿童的网络性侵害行为损害儿童身心健康、破坏社会公序良俗,对其进行治理成为了我国未成年人网络安全保护工作中的重点。2023年5月24日,最高人民法院、最高人民检察院联合公布的《最高人民法院、最高人民检察院关于办理强奸、猥亵未成年人刑事案件适用法律若干问题的解释》第9条第1款首次对于“网络猥亵儿童”的形式进行了规定。③《最高人民法院、最高人民检察院关于办理强奸、猥亵未成年人案件适用法律若干问题的解释》第9 条第1 款规定:“胁迫、诱骗未成年人通过网络视频聊天或者发送视频、照片等方式,暴露身体隐私部位或者实施淫秽行为,符合刑法第二百三十七条规定的,以强制猥亵罪或者猥亵儿童罪定罪处罚。”这意味着对于网络猥亵儿童这一儿童性侵害形式治理的规范化、法治化程度上升到了新的高度。诱骗、威胁儿童发送裸照等“非接触性”线上作案手段使得猥亵儿童罪闯入了“家”这一私密空间,对儿童、家长防范意识的提升提出了新的要求。近年来,为兼顾儿童的身心健康和使用网络的自由,国家高度重视儿童的网络安全,充分调动多元监管主体的力量与优势,致力于肃清网络环境、监管文化产品,为儿童接入互联网提供特殊保护。作为网络空间内产品和服务的主要提供者,网络平台在获取巨额经济利益的同时,也凭借其数据技术、组织结构上的优势在网络空间治理中承担起了相应的主体责任。在网络猥亵儿童犯罪治理的视域下,现有研究成果对网络平台在防范儿童性侵害上的职能缺位进行了深入研究,并设想将提供未成年人特殊保护的义务法定化。国家通过拒绝承担特殊保护责任成本的方式倒逼网络平台提升治理能力,营造有利于儿童身心健康的网络环境。然而,当下学者的研究主要从网络平台的逐利性出发,探讨其怠于履行职责的主观因素及其解决对策,但却鲜少从现有的立法空缺、操作成本等方面挖掘网络平台参与不足的客观原因。因此,本文拟从网络平台参与网络空间治理的流程出发,梳理、分析“识别对象–特殊保护”模式下网络猥亵儿童犯罪的治理成本。在此基础上厘清网络平台义务履行效果不佳的客观原因并从降低对象识别成本、增强保护措施可操作性等角度予以完善,以遏制网络猥亵儿童犯罪、切实保障儿童的身心健康。

二、网络平台介入猥亵儿童犯罪的问题检视

我国网络犯罪治理相关的法律建设起步较晚,立法规定比较粗疏。就网络猥亵儿童犯罪的治理来说,目前《未成年人保护法》《网络安全法》等法律中仅笼统地规定网络平台应当承担提供青少年模式、审查文化产品、遏制网络犯罪、提供救济渠道等方面的义务,而有关特殊保护模式、程度的细化规定有所欠缺。这导致网络平台仅能依据“应对不利于未成年人身心健康信息”的法律条文追求“形式上的合法”,难以满足遏制网络儿童性侵害犯罪的具体要求,从而出现了平台积极性不强、青少年模式功能有限、治理模式不完善等问题。这些客观层面的阻滞进一步降低了网络平台参与网络猥亵儿童犯罪治理的积极性。

(一)网络平台不够积极

诚然,网络平台拒绝为儿童用户提供特殊保护有其主观层面的原因。为了扩大用户群体、降低运营成本、攫取经济利益,网络平台往往不愿履行特殊保护的义务。但通过梳理现有的法律规定可以发现,为精准识别儿童用户从而有针对性地实施特殊保护,立法者给网络平台创设了一系列与儿童个人信息相关的法律义务。履行此类法律义务所付出的高额成本在一定程度上也打消了平台履行特殊保护义务的积极性。

在儿童网络保护的逻辑中,我国当前立法的基本思路是在精准识别儿童身份的基础上再对其进行特殊保护。①佟丽华:《未成年人网络保护中的身份确认与隐私保护》,载《中国青年社会科学》2019 年第6 期,第123 页。为此,关涉未成年人网络安全保护的相关立法中均要求落实网络实名制,通过收集用户姓名、年龄等身份信息以及使用时段、功能、发言等使用信息对儿童进行数据画像以提供特殊保护。然而,《个人信息保护法》的相关规定却大大增加了网络平台收集、分析、利用儿童个人信息的操作成本,使得儿童身份识别的程序出现了不当的复杂化。

根据《个人信息保护法》第28条之规定,未满十四周岁未成年人的个人信息均属于敏感个人信息的范畴,在收集、分析、利用上需要遵循更为严格、复杂的流程与要求。网络平台欲以提供特殊保护为目的获取儿童个人信息并加以分析利用至少需要面临以下两方面的高额成本。一方面,网络平台需要付出获得授权的成本。根据《个人信息保护法》第30条、第31条第1款,处理儿童个人信息不仅需要以简洁清晰的用语准确而完整地向信息所有者告知处理目的,而且需要征得监护人的同意。此外,由于儿童冒用监护人身份的现象大量存在,网络平台不仅需要付出一定的成本核实儿童所提供的身份信息的准确性,同时也不得不投入人力、物力确保“真实的监护人表达了明示的同意”,以规避由于监护人同意瑕疵而可能产生的法律风险。这将大大降低分析数据、提供保护的效率。另一方面,网络平台需要付出构建配套制度的成本。根据《个人信息保护法》第31条第2款,网络平台在分析、处理儿童的个人信息之前需要制定专门的信息处理规则,以保证儿童个人信息处理流程的规范化,防止由于操作不当造成儿童个人信息的泄露。然而,我国在应对儿童个人信息处理风险上还存在一定的立法空白。虽然于2019年10月1日生效的《儿童个人信息网络保护规定》被认为是我国第一部保护未成年人网络个人信息的法律,①华颉:《论〈儿童个人信息网络保护规定〉之完善——以美欧儿童网络隐私保护立法的比较和借鉴为视角》,载《重庆邮电大学学报(社会科学版)》2021 年第1 期,第56 页。但通览其条文可以发现,大部分内容仍然属于对《个人信息保护法》中敏感信息处理规则的再强调,真正具备可操作性、能够为网络平台日常信息处理工作提供指引的条款并不多。另外,《儿童个人信息网络保护规定》隶属于部门规章,效力层级较低,对网络平台行为规约的作用极其有限。质言之,儿童身份信息、使用信息性质的特殊性使得网络平台在通过数据描摹的手段对儿童进行精准识别时需要承担一系列较高的操作成本、降低了信息收集、分析的效率,儿童网络安全特殊保护的前提有所动摇。

(二)青少年模式功能有限

为保证未成年人浏览内容的安全性,降低其暴露在网络安全风险中的概率,2019年3月28日,国家互联网信息办公室组织一批短视频平台上线试点青少年模式,评估通过完全隔离、限制功能、审核内容等手段防止未成年人遭受网络安全风险的可行性。随着青少年模式在游戏、直播等网络平台中逐渐普及并初显成效,国家也及时通过立法对网络平台研发、使用青少年模式的行为进行规范。2021年9月15日,国家互联网信息办公室发布了《关于进一步压实网站平台信息内容管理主体责任的意见》,其中明确将“研发、升级青少年模式”作为一项重点任务,以进一步发挥青少年模式在未成年人网络特殊保护方面的积极作用。然而,这一旨在阻断未成年人网络安全风险的“防火墙”在现实中似乎没有起到理想的作用。②雷雳、王兴超:《网络平台青少年模式缘何形同虚设》,载《人民论坛》2020 年第28 期,第123 页。而具体到遏制网络猥亵儿童犯罪的场景,青少年模式所能发挥的作用更是微乎其微。

青少年模式在网络猥亵儿童犯罪治理中作用失灵的原因有二。从网络猥亵儿童多发的场域来看,青少年模式的理念与社交媒体平台的功能存在一定冲突。青少年模式是“在各类网络平台上线的,旨在限制青少年支付、交友等功能的防沉迷系统。”③吴运时:《网络平台“青少年模式”的失范及治理》,载《少年儿童研究》2022 年第5 期,第13 页。而可能滋生网络猥亵儿童犯罪的社交媒体平台其主要功能正是提供即时通讯工具,进而减少用户的社交壁垒。这种理念上的冲突导致社交媒体平台中青少年模式的设置往往“徒有其表”,几乎不可能发挥隔离成年用户、过滤不良信息的作用。以QQ为例,开启青少年模式后聊天功能并未受到影响,“不可被陌生人搜索到”的设置也可以手动关闭。因此,从现实层面上说,当前青少年模式被广泛使用在视频、游戏、直播等网络平台中,而在QQ、微信等社交软件上的应用稍显不足,青少年模式很难发挥杜绝网络猥亵儿童犯罪的作用。从青少年模式本身的性质来看,青少年模式这一完全隔离的特殊保护手段不完全符合“儿童最佳发展”原则,易引起儿童的反感,导致其主动选择开启青少年模式的动力不强。“儿童最佳发展”原则的总体意涵在于将儿童视为独立的个体,给予法律的特殊保护。①程捷:《未成年人刑事司法的福利内涵及其窘困——以儿童最佳利益原则为中心》,载《中国青年研究》2013 年第10 期,第62 页。既然作为一类“应受法律特殊保护的独立个体”,那么在选择保护模式和手段时就必然需要认识到儿童这一群体的发展性,并根据该群体各阶段不同的身心特征适用安排不同的特殊保护手段。事实上,随着儿童的成长以及认知水平、认知能力的不断提高,其依赖家长并需要被照顾的需求逐渐下降,国家、法律等手段对于其网络行为选择的干预程度也应当同时下降。②高奇、刘庆帅:《场景完整性理论在儿童数据保护监管中的应用——以英国〈适龄准则〉和美国COPPA 为例》,载《中国青年社会科学》2021 年第4 期,第135 页。以《游戏适龄提示(草案)》中对儿童认知能力以及相应监管程度的划分为例,该草案根据用户的不同特征将之划分为五个阶段。就儿童来说,6周岁以下的儿童需要在家长陪同下进入游戏,6-11周岁儿童不被提倡在游戏中过度社交,12-14周岁的儿童应当被予以针对性关注。③《人民网起草〈游戏适龄提示草案〉将搭建网上提示平台》,载人民网:http://society.people.com.cn/n1/2019/0626/c1008-31197366.html。此种在对儿童进行进一步分层的基础上调整特殊保护手段的做法值得推广,但反观大多数网络平台,其提供的青少年模式都采取“一刀切”的保护策略,罔顾不同适龄用户的认知水平与身心特点,统一设置在线时长、充值消费等功能的限制并推送相同的内容,相当于在一定程度上剥夺了一些具备较高自控能力与认知水平儿童的行为自决权,侵害了其网络权益,易引发反感、抵触的心理。可见,虽然青少年模式以其遏制网络不良信息、防止不当网络行为的设计初衷一度被认为是维护未成年人网络安全的有效之策,但由于理念错位、设计缺憾等原因很难在网络猥亵儿童犯罪的治理中发挥积极作用,亟待进一步的法律规范与实践探索。

(三)治理模式不够完善

承接上文论述,由于功能、性质等方面的局限性,网络环境中儿童的特殊保护不能仅靠普及青少年模式的方式来完成。从更宏观的角度上说,对于风险信息的及时监测、清除,以及塑造安全的网络环境更应该被重视起来,以平衡儿童使用网络的自由以及特殊保护的需求。当前,我国有关风险信息监测控制的法律法规日益增多,形成了完备、周延的制度供给。2022年4月13日,《未成年人网络保护条例》(以下简称《条例》)结束了第三次意见征集。作为一部专门应对未成年人网络安全隐患的部门规章,《条例》对网络猥亵儿童行为进行了全环节的控制。从宏观层面上说,《条例》要求增加网络平台提供未成年人特殊保护的规范供给,以实现未成年人网络安全隐患的规范化应对。从微观层面来说,平台不仅被赋予了内容筛选、监测行为等义务,同时还应当履行犯罪发现、控制等职责。此外,《条例》第23条同时禁止制作、复制、发布、传播有关未成年人的淫秽色情制品,在一定程度上延伸了应对儿童网络性侵害手段的保护范围,有力地防止儿童可能遭受的二次伤害。④汤盛佳、周崇文、金华捷:《未成年人网络性侵害犯罪的惩治与预防》,载《上海法学研究》,2020 年第20 卷,第69 页。质言之,从禁止含有诱骗内容信息的发布、剥夺行为人实施网络猥亵行为的能力到遏制网络猥亵行为衍生物的传播,《条例》对网络猥亵儿童犯罪的治理基本做到了全环节覆盖,尽一切可能消除滋生网络猥亵儿童行为的诸多不良因素。然而,从制度落实的角度看,《条例》的相关规定总体还停留在总纲性规定层面,以大量禁止性条款为网络平台设计平台规范提供了指引。然而,《条例》规定的可操作性不足,无法从制度层面上解决网络平台由于追求“形式合法”而导致的保护水平良莠不齐的问题。具体而言,制度层面供给不足的问题主要表现为以下两点:

其一,现有规定难以对治理对象进行周延的囊括。根据当下网络猥亵儿童行为的常见样态来看,《条例》第22条之规定“禁止向未成年人发送可能影响未成年人身心健康的信息”很难成为阻断信息传播、未成年人预警的法律依据。通过现有案例的检索分析可以发现,当前网络猥亵儿童的行为人主要通过QQ、微信等社交媒体平台与不特定儿童取得联系,通过“招募童星”“传授生理知识”“赠送游戏装备”等方法诱骗儿童遵从其指令以达到猥亵的目的。①王瑞山:《网络猥亵儿童行为的犯罪脚本分析及防控策略》,载《中国人民公安大学学报(社会科学版)》2021 年第2 期,第16 页。此类消息作为《条例》第22条的治理对象可能存在以下两方面的困境。一方面,由于征集、招募的消息并不必然具备诱骗未成年人的抽象风险,因而很难从字面上被认定为“有可能影响未成年人身心健康的信息”。另一方面,由于此类消息可能发送在聊天群组、游戏频道等空间之中,直接面向不特定大多数人,因此,相关行为很难直接被认定为“向未成年人发送信息”。质言之,信息内容以及传播范围的限制导致部分形式上不具备危险性但实际上可能蕴含着诱骗儿童风险的信息难以直接触发特殊保护机制而无法对之进行预警。

其二,我国现下针对网络猥亵儿童风险信息的监管制度立法水平不高、针对性不强,难以对相关行为进行有效的预防和打击。《条例》延续了《网络安全法》的相关规定,通过停止服务的方式剥夺利用网络侵害儿童行为人的犯罪条件,以达到肃清网络安全隐患的目的。然而,现有的规定均比较粗疏,难以满足打击网络猥亵儿童犯罪的现实需求。一方面,笼统地要求网络平台发挥对于风险信息的监控、识别、预警作用对于打击网络猥亵儿童犯罪而言不具有针对性。在社交媒体平台的运营过程中,就如何把握信息监测的重点、采取何种管控路径、如何对儿童用户进行预警等问题,我国现有的法律规定均没有做出提示。另一方面,因为司法实践中存在着大量行为人使用他人账户或拥有多个账户共同实施犯罪的情况,所以仅单纯限制某一账号的使用很难有效遏制相关的犯罪行为。可见,未成年人特殊保护制度体系立法的粗疏影响了其功能,应当在广泛总结实践经验、深入进行理论研究的基础上予以细化和补全。

三、网络平台介入网络猥亵儿童犯罪治理的理论基础

日益崛起的网络化、数字化和智能化平台深刻地改变了社会治理体系,孕育了全新的智慧治理。②马长山:《数字社会的治理逻辑及其法治化展开》,载《法律科学(西北政法大学学报)》2020 年第5 期,第5 页。在网络犯罪的治理中,平台的主体地位既来自于社会权力结构的转向,也是国家有意赋权的结果。网络平台以算法决策为基本手段,掌握着用户网络行为信息、数据的绝对优势,在情报获取、遏制犯罪等方面具有相当的优越性。然而,具体到网络猥亵儿童行为的治理,由于受害群体、平台类型等方面的特殊性,社交媒体平台参与网络猥亵儿童犯罪治理的形式、程度也相应地与其他网络犯罪的治理模式存在差异,应当在理论研究中进一步阐释、明晰。

(一)网络平台参与网络猥亵儿童犯罪治理的正当性来源

互联网技术的发展畅通了交往渠道,也加剧了网络犯罪中“性勒索”的趋势。①袁翠清:《我国网络环境下儿童性权益保障的缺失及对策探讨》,载《北京青年研究》2014 年第4 期,第61 页。由于儿童认知能力有限、判断能力不高、防护意识缺乏,②郑卫、胥兴春:《美国“儿童网络保护”及其对我国的启示》,载《教育探索》2016 年第10 期,第151 页。他们更容易在诱骗和威胁下遭受性侵害。其弱势地位决定了儿童需要来自国家、社会、监护人等利益相关方的共同保护。③佟丽华:《儿童网络安全风险、网络保护的国际发展及其启示》,载《中国青年社会科学》2018 年第1 期,第132 页。然而,传统的网络监管手段主要依赖于国家主管机关的执法活动,监管队伍专业化建设水平有限,无法及时对网络环境下侵害儿童性权益的行为进行网络监管。因此,强化网络平台的参与是治理网络犯罪、提供特殊保护的紧迫需要。随着技术优势以及数据资源占有能力的不断提升,网络平台运用“准公权力”④参见陈全真:《论数字时代的平台权力:生成逻辑及规制进路》,载《上海法学研究》2022 年第16 卷,第70 页。对用户进行了实际规制以保障平台功能的正常发挥与平台秩序的持续稳定,引发了数字社会权力运行机制的深刻变革。具体来说,网络平台的“准公权力”主要体现为“准立法权”“准执法权”和“准司法权”三种形式。“准立法权”体现为网络平台创制了一系列的监管规则、纠纷处理规则等自治规范,一旦用户进入网络平台则必须接受其自制规则的约束,有序进行平台活动。“准司法权”体现为网络平台依据其自治规范设置专门机构进行定分止争,并对违反平台规则的行为及用户做出认定。“准执法权”体现为网络平台依托其技术手段,能够通过禁止访问、限制功能等方式对违反平台规则的行为及相关主体进行制裁。由此,网络平台通过创设平台规则并推动规则的具体运行,在很大程度上形成了稳定的约束力并切实影响着用户的网络行为选择。网络平台在与用户以及其他利益相关者的关系中进行着一种“私治理”,⑤参见刘晗:《平台权力的发生学——网络社会的再中心化机制》,载《文化纵横》2021 年第1 期,第31 页。形成了一体化的网络空间治理机制,促使“公权力-私权利”的二元架构逐渐向“公权力-私权力-私权利”的三元形态转化。在这个过程中,网络平台对于依托网络实施的越轨行为的认定与制裁与部分行政法律的立法目的趋向一致,实际上承担起了部分与公共利益密切相关的“行政职能”,⑥罗英、谷雨:《网络平台自治规则的治理逻辑》,载《学习与实践》2021 年第8 期,第36 页。足以充分发挥在场优势,提高对于网络犯罪的反应效率。

虽然在网络世界中,自治是网络的灵魂,⑦蔡文之:《自律与法治的结合和统一——论网络空间的监管原则》,载《社会科学》2004 年第1 期,第72 页。网络平台的自我赋权在规范用户网络使用行为、肃清网络空间等方面发挥了较大的积极作用,但由于以平台规则为主要表现形式的软法治理模式影响力有限、软法治理生态尚未发育成熟。⑧郭渐强、陈荣昌:《网络平台权力治理:法治困境与现实出路》,载《理论探索》2019 年第4 期,第118 页。因此,由主管机关提供相关的法律规范对网络空间自治模式的方向、内容、程度进行规约,提高网络平台自治的能力和水平是必要的。为给广大网络平台自治建设提供必要的规范制度供给,在《中共中央关于全面推进依法治国若干重大问题的决定》中强调了“支持各类社会主体自我约束、自我管理”之后,以网络安全为治理内容的法律法规纷纷增设有关内容,推动平台自治克服其权源正当性不足的缺憾。就维护未成年人网络安全的需要来看,不仅《未成年人保护法》在2020年修订时专门增设了第五章网络保护的内容,《条例》也加快了立法进程,两者均强调网络平台治理应当贯彻未成年人特殊保护理念,持续推动平台的未成年人网络安全评估并积极建设合规制度以有效应对未成年人网络风险。质言之,基于网络空间的自治需要以及法律规范的主动赋权,网络平台在保护儿童网络安全、塑造清朗网络空间等方面发挥着重要的积极作用。在与公权力就网络空间治理形成合力的过程中,网络平台的自治权力也在不断扩展其权力外延,开始在监测违法行为、遏制网络犯罪等方面发挥作用,逐步形成了系统的犯罪控制义务。

(二)网络平台参与网络猥亵儿童犯罪治理的两个面向

由于网络猥亵儿童犯罪的非接触性以及被害人的特殊性,侦查机关往往需要仰仗网络平台提供案件线索、协助收集、固定证据,甚至主动承担犯罪发现、控制的责任。网络平台协助治理、侦查等义务法定化的必要性尤为明显。具体而言,其一,行为人主动规避以及被害人防范意识不强往往使得犯罪线索很难直接被公安机关知悉。在网络猥亵儿童的案件中,案件线索获悉的渠道几乎全部失灵。不仅行为人经常利用技术手段试图绕过平台监管对儿童实施性侵害,被害儿童也可能由于认知水平有限而未能及时意识到性侵害已经发生,无法主动寻求帮助。而由于网络猥亵儿童犯罪直接入侵“家庭”这一隐私场所,监护人的警惕性有所下降,也可能难以及时关注到儿童是否存在被猥亵的风险或者已经受到猥亵。此时网络平台就成为发现犯罪行为并向公安机关报告的重要途径,在网络猥亵儿童犯罪治理中的作用可见一斑。其二,网络猥亵儿童案件发生之后,包括聊天记录、照片、视频等在内的电子数据经常会受到来自行为人、被害人、监护人三方的共同破坏。除行为人为逃避法律制裁删除证据之外,也存在着被害儿童为避免父母责骂、监护人为保全儿童声誉而主动销毁聊天记录的情况。①陈诺:《网络隔空猥亵儿童犯罪行为治理刍议》,载《上海法学研究》2021 年第11 卷,第33 页。虽然公安机关可以利用数据恢复技术尝试对证据进行还原,但由于技术水平以及操作成本的双重限制,电子数据修复的效果并不理想。相较之下由网络平台及时对聊天记录、照片、视频等证据材料进行收集保存是比较经济、合理的做法。

由于直接参与犯罪场景的运营与治理,网络平台作为信息的强势方具有弥补知悉案件、收集证据等方面缺憾的天然优势。面对层出不穷的网络犯罪,为实现网络平台参与网络犯罪治理的规范化,我国有关法律法规详细规定了平台自治模式下网络平台发现犯罪以及协助取证的义务,初步形成了“主动控制+被动配合”的二元义务体系,确保其运用数据优势、技术优势承担起发现犯罪行为、收集固定证据的职责。一方面,延续《网络安全法》第47条规定平台发现违法信息后具有处置义务的义务配置思路,其他法律也积极通过法律条款强化网络平台的“发现”义务,要求平台主动进行违法信息的搜寻和监控,②吴丹盈:《网络平台证据协助义务的现状检视与规则建构——基于社会连带主义的分析》,载刘贵祥主编《审判体系和审判能力现代化与行政法律适用问题研究——全国法院第32 届学术讨论会获奖论文集(下)》,人民法院出版社2021 年版,第1190 页。提前了平台监管的介入时间、加大了平台监管的处置力度。就网络猥亵儿童犯罪而言,社交媒体平台的“发现”职责进一步向预防犯罪的方面延伸,要求社交媒体平台及时监控“可能对未成年人身心健康造成不利影响的信息”并及时切断未成年人接触到此类信息的可能。另一方面,在侦查活动的现实需要以及法律规定的规范形塑的双重领导下,网络平台协助取证义务的内容也不断被充实,目前已经形成了“收集储存–审查监控–披露报告”的完整义务体系,①裴炜:《针对用户个人信息的网络服务提供者协助执法义务边界》,载《网络信息法学研究》2018 年第1 期,第32 页。在固定保存电子数据的方面发挥了重要的作用。其中,针对网络猥亵儿童案件中电子数据面临多方破坏的现实困境,数据留存作为履行协助取证义务的基础,②夷冰倩:《论网络服务提供者在侦查取证中的协助义务》,中国人民公安大学2020 届硕士学位论文,第6 页。对社交媒体平台精准识别违法行为、快速冻结数据信息的能力提出了较高的要求。

(三)网络平台参与网络猥亵儿童犯罪治理的优势所在

网络平台承担网络犯罪控制义务的优势主要集中在数据与组织两个方面。具体而言,一方面,在网络环境中,行为人及其行为最终都被还原为数据,留存在网络平台生态之中,③单勇:《论网络平台的犯罪控制义务》,载《现代法学》2022 年第3 期,第72 页。由网络平台保存、使用。另一方面,网络平台沟通国家主管机关和用户,在履行违法行为报告义务以及阻断义务时均不存在任何障碍。

在网络猥亵儿童犯罪的治理中,网络平台的上述优势具体从行为人身份识别、客观证据链条以及危险预警阻断三方面切入。就身份识别而言,网络平台在日常运营中所收集到的用户身份信息、计算机系统数据信息等都可以用以锁定嫌疑人。网络平台依据优化服务质量、监控触法行为等需要对用户的个人信息以及使用信息进行收集、分析和利用,形成了海量的数据痕迹。这些数据是刑事侦查活动中重要的信息来源,发挥着识别行为人的重要功能。以社交媒体平台为例,无论是行为人在完善个人信息资料中主动提供的籍贯、年龄、电话等身份信息还是行为人接入网络时基于计算机系统交流产生的位置、路径、时间、体量以及类型等交互信息,均可以被用来判断计算机系统的实际位置并进一步识别个人身份。④裴炜:《犯罪侦查中网络服务提供商的信息披露义务——以比例原则为指导》,载《比较法研究》2016 年第4 期,第96-97 页。社交媒体平台在协助刑事侦查的过程中对用户个人信息以及交互信息的提供与分析能够为公安机关提供方向性线索,⑤单勇:《论网络平台的犯罪控制义务》,载《现代法学》2022 年第3 期,第75 页。促使其更快地锁定嫌疑人。就留存证据而言,用户在使用社交媒体平台时所形成的好友验证信息、聊天记录、视频、音频资料传输等数据痕迹均可以经由保存、固定形成证据链条,对行为人的罪质、罪量起到一定程度的证明作用。就危险阻断而言,网络平台的组织优势使之可以快速对网络犯罪行为作出反应,最大程度地减少犯罪的社会危害。由于网络猥亵儿童犯罪挑战了传统的安全观念,监护人保障儿童网络安全的职能出现了一定程度的失灵,而网络平台的组织形式弥补了这一缺憾。治理网络犯罪的需要催生了“国家机关–网络平台–犯罪行为”的反应模式,畅通了网络平台接受主管机关管辖并有效管理平台用户的双向渠道。由于政府主管部门无法直接触及用户,而平台则可以通过平台规则、算法技术等方式对用户实现直接管理,⑥王坤、周鲁耀:《平台企业的自治与共治》,载《浙江学刊》2021 年第1 期,第10-11 页。因而平台拥有对犯罪作出快速反应的技术优势。具体到网络猥亵儿童犯罪的治理,一方面,社交媒体平台可以通过功能禁用、暂时禁言等手段直接影响用户的行为,及时切断行为人与被害人之间的联系,防止行为人进一步对被害人进行威胁、诱骗,对被害儿童的身心健康造成更大的伤害,有力地弥补主管机关在反应速率上的不足。另一方面,由于持续就网络犯罪治理与公权力机关展开合作,因此,社交媒体平台能够依据犯罪样态及时调整违法行为监测的方向及策略,进而提升发现并预防犯罪行为的针对性及有效性。这是公权力机关犯罪治理权能在网络空间的进一步延伸与展开。

四、网络平台参与网络猥亵儿童犯罪治理的具体进路

如前所述,当下网络猥亵儿童犯罪多见于QQ、微信等社交媒体平台。与其他更受实务界、学界关注的购物、直播、游戏、视频平台不同的是,此类软件旨在为用户提供即时通讯服务,功能人定位比较统一。其天然具备的社交属性意味着《未成年保护法》《条例》中有关儿童特殊保护的内容应当有所调整,在尽可能完整保留其功能的基础上保障儿童的网络安全。具体而言,应当在降低识别儿童的操作成本、精准定位儿童的前提下,采取“分类保护”的策略。一方面,针对社交媒体平台的特点合理规划青少年模式的功能与适用人群;另一方面,继续强化对于社交媒体平台环境的监测整顿,消除未成年人用户接触到风险信息的可能。

(一)提升识别儿童的操作能力

为有效识别14周岁以下用户群体、提高儿童特殊保护措施的针对性,社交媒体平台应当积极改进儿童个人信息收集、分析的工作模式,降低获取信息的成本、限缩获取信息的范围,提升利用有限信息为儿童进行数据画像的水平,并使之成为儿童网络安全特殊保护体系的实施基础。

首先,应当限缩知情同意、监护人明示同意等意图将个人信息风险纳入自我答责范围的机制的适用范围。这是因为在网络时代下,真正产生风险的环节正是网络平台等信息处理者利用个人信息的时刻。因此,信息处理者理应成为信息保护的主要义务人、保护路径也应当实现从倚重知情同意原则到倚重对个人信息处理者合规的转变。①劳东燕:《个人信息法律保护体系的基本目标与归责机制》,载《政法论坛》2021 年第6 期,第13 页。随着履行监护人明示同意义务对于网络平台在收集、分析儿童个人信息、精准识别儿童用户行为中重要性的下降,为履行此种义务所付出的成本也会随之自然降低,并投入到构建专门针对儿童特殊保护的合规制度中来。

其次,应当在充分满足监护人知情权的前提下拓宽其表达意愿的渠道。一方面,应当精准传达收集信息的使用目的以保证监护人的知情权利,使之能够在此基础上做出理性选择。虽然《个人信息保护法》第17条第1款明确对社交媒体平台等网络平台履行告知义务的形式进行了规定,②《个人信息保护法》第17 条第1 款规定:“个人信息处理者在处理个人信息前,应当以显著方式、清晰易懂的语言真实、准确、完整地向个人告知下列事项...”但现实生活中网络平台的授权页面依旧充斥着大量文字,很难达到平台清晰告知、监护人理性同意的目的。由此,为有效告知监护人社交媒体平台收集、分析儿童个人信息的目的,在设计告知义务界面时,应当尽量用简洁易懂的语句进行说明,改善当前知情同意原则落实形式化严重的问题。具体而言,社交媒体平台在向监护人履行告知义务时应当着重说明以下三方面的内容:其一,收集儿童个人信息的目的在于数据画像,用于分析研判儿童使用社交媒体平台的特征,为精准识别儿童以便进行特殊保护提供必要的操作标准。其二,明确儿童个人信息收集的范围仅限于能证明儿童身份的个人信息以及能彰显使用特征的使用信息,主要包括年龄、性别、使用时长、使用时段、使用频率、使用功能等方面的内容。其三,告知监护人平台已经建立了完备、安全的信息处理规则并向监护人开示必要的救济渠道以及要求删除已获取儿童个人信息的权利。另一方面,应当通过扩充获取同意渠道的方式促使监护人表达意愿。当下世界各国在儿童个人信息处理领域为获得父母的明示同意做出了许多有益的尝试,具有一定的借鉴意义。例如,美国《儿童线上隐私保护法案》(Children’s Online Privacy Protection Act,以下简称《法案》)中规定,互联网服务提供者可以采取传真、邮寄书面同意、接听由专业工作人员拨打的电话、回复邮件等方式获取监护人的同意,①《Children’s Online Privacy Protection Act》,载美国联邦贸易委员会官网:https://www.ftc.gov/legal-library/browse/rules/childrens-online-privacy-protection-rule-coppa。为收集、分析儿童个人信息行为的合法性背书。对此,我国社交媒体平台可以“儿童难以规避、冒充”“操作成本较低”两个标准为参考,选择性地借鉴部分可行的方式。目前受到我国学者认可的方式主要包括电话告知监护人并获取同意以及用邮件发送电子签名等,②张继红:《数字时代未成年人个人信息的法律保护》,载《青少年犯罪问题》2021 年第2 期,第102 页。可以尝试作为网络平台获取监护人同意的途径以验证其有效性。

再次,应当完善相关的法律制度,保证监护人同意的真实性。就我国现有的制度供给而言,《个人信息保护法》并没有进一步规定网络平台应当采取何种措施以验证同意的真实性。为此,可以通过对标国际上验证同意真实性制度设计的标准遵循来弥补我国立法在该制度方面的空白。为防范儿童冒用监护人的身份表示同意给收集、分析儿童个人信息带来的法律风险,其他国家在设计同意验证制度时需要参考两个标准——网络平台是否与监护人直接取得联系以及网络平台必须验证只有监护人本人才能提供的信息。例如,《法案》中规定,网络服务提供者可以要求监护人提供驾照、社保等政府颁发证件中的一段号码或信用卡支付信息等内容用以核实其身份。虽然此类方法能够最大限度地保证监护人同意的真实性,但目前各国立法者针对监护人同意的核实制度尚存在较大争议。一方面,监护人的信息安全与儿童的信息安全产生了激烈的博弈;另一方面,核实的成本与规避儿童冒用的风险难以达成平衡。这两对矛盾极大地影响着核实监护人同意真实性的手段选择。对此,笔者认为,在目前尚没有其他有效途径可以防止儿童冒充家长进行虚假同意的情况下,验证只有监护人能够提供的信息依然是核实监护人同意真实性的最优解。在此前提下,为弥合儿童权益与监护人权益之间的冲突,可以考虑借鉴《法案》中的“平台同意验证模式”,即由专门的第三方平台专门提供核实监护人同意真实性的服务,③《Children’s Online Privacy Protection Act》,载美国联邦贸易委员会官网:https://www.ftc.gov/legal-library/browse/rules/childrens-online-privacy-protection-rule-coppa。以降低单一网络平台获取监护人同意的操作成本。具体而言,在保留“验证仅能由监护人提供的信息”这一方式的基础上,可以考虑由主管机关构建一个独立的平台用以专门核实监护人同意的真实性。根据构想,该平台将依据《个人信息保护法》第13条第3项之规定被允许短暂收集并保障监护人相关个人信息的安全,以在有效核实监护人同意真实性的同时降低核实程序的操作成本。

最后,就制定信息的处理规则而言,《个人信息保护法》第31条第2款之规定①《个人信息保护法》第31 条第2 款规定:“个人信息处理者处理不满十四周岁未成年人个人信息的,应当制定专门的个人信息处理规则。”并非是要求网络平台另起炉灶,建立起完全独立于《个人信息保护法》《网络安全法》等法律规定的信息数据安全保护体系,而是作为一种“理念提醒”,要求网络平台及时以儿童特殊保护为理念,回应平台在收集、分析、处理儿童个人信息时关于收集范围、使用限度、事后保障等方面的需求,以补全维护儿童网络安全的前端环节,加强其制度保障。因此,建立专门的信息处理规则的重点应当在于寻找儿童信息数据保护的痛点与诉求并有针对性地依托现有的制度基础以融合儿童特殊保护的理念。总体而言,儿童个人信息的收集、处理主要涉及到授权难度大、操作范围窄、法律责任重等方面的特殊性,应当在现有的信息处理规则上加以完善。例如,社交媒体平台等网络平台可以尝试将上文中提到的获取监护人同意的域外经验以平台规则的方式予以本土化,以扩大获取监护人同意的渠道并降低相应的操作成本。与此同时,网络平台也可以授权特定的部门、特定的工作人员来分析、处理儿童用户的使用信息,以满足《个人信息保护法》中尽量压缩儿童个人信息传播范围的要求。②《未成年人网络保护条例》第42 条规定:“个人信息处理者对其工作人员应当以最小授权为原则,严格设定信息访问权限,控制未成年人个人信息知悉范围。”

(二)优化青少年模式的使用场景

如前所述,虽然青少年模式为未成年人特殊保护提供了必要的制度支撑,但其主要应用场景却不包括QQ、微信等社交媒体平台。这就导致了青少年模式在应对网络猥亵儿童犯罪上难以发挥应有的作用。为弥合青少年模式和社交媒体平台之间的理念差异,提高即时通讯平台应对网络猥亵儿童犯罪的能力,社交媒体平台应当积极探索青少年模式应用的可能性。在完整保留软件功能的前提下发挥青少年模式隔绝网络安全风险的重要作用。总的来说,社交媒体平台在完善、推广青少年模式时应当重点关注以下两方面内容:一方面,应当依照未成年人认知水平、道德水平发展的特点对青少年模式的适用范围进行重新划分,以合理限缩其适用范围。另一方面,应当明确就社交媒体平台而言,青少年模式的定位应当是“主动隔离未知成年用户”,在确保儿童用户的社交范围“严进”的基础上,尽量保证即时通讯、文件传输等功能的正常运用。

具体而言,在适用范围的方面,可以考虑将强制使用青少年模式的年龄范围划定为6-11周岁。现有的司法判例表明,网络猥亵儿童犯罪中年龄最小的受害人仅8周岁,③“赵某某猥亵儿童案”,上海市青浦区人民法院(2020)沪0118 刑初928 号判决书。这意味着尚未表现出性特征的儿童也有可能成为网络猥亵犯罪的对象,以“主动隔离未知成年用户”的方式加强对低龄儿童网络安全的保护有其强烈的现实需求。然而,盲目地将14周岁以下儿童全部纳入青少年模式的保护范围也有侵越其网络权利边界之虞。因此,比较合理的做法则是借鉴前文中《游戏适龄提醒(草案)》中的相关规定。根据未成年人认知水平、辨别能力的发展规律,6-11周岁的儿童不应在网络游戏中过度社交。将这一年龄段的儿童作为青少年模式的保护对象能够弥补其在使用社交媒体软件时辨别能力的不足,避免其暴露在网络风险之中。综上所述,将青少年模式的适用范围划定在6-11周岁的儿童之间是比较合理的。不仅有力地回应了司法实践中完全隔离低龄儿童与未知成年人的需求,而且从未成年人的身心发展特点出发,合理下调了青少年模式的适用年龄上限,以符合“儿童最佳发展”原则的基本要求。

在完善路径方面,应当从适用的便利性以及功能的隔离性两方面入手,对社交媒体平台推出的青少年模式进行完善与优化。首先,针对QQ、微信等社交媒体平台中启动“青少年模式”的方式比较隐蔽的问题,应当将“青少年模式”按钮设置在比较显眼的位置,甚至可以考虑在收集用户年龄信息的基础上主动识别儿童用户并开启“青少年模式”。其次,从适用目的上看,适度减少被陌生人加为好友的渠道是社交媒体平台中青少年模式的主要任务。为此,应当以QQ中设置“不可被陌生人搜索到”、微信中“‘摇一摇’功能受限”等内容为思路,并逐步优化其性能。从启动方式上说,上述功能应当跟随青少年模式一同强制启动且不能被手动取消。从作用对象上说,儿童用户与成年用户的隔离是双向意义上的隐去个人信息,因此不仅应当防止陌生成年用户利用年龄、性别等信息搜索到儿童用户,也应当采取手段避免儿童用户擅自搜索陌生成年用户的信息并试图加为好友。从功能限度上说,应当允许儿童通过精准搜索的方式添加好友以满足儿童与父母、老师、同学等正常联系的社交需求。最后,为保证青少年模式的作用能够正常发挥,应当敦促家长积极参与到儿童青少年模式使用情况的监督中来。一项旨在了解未成年人网络保护机制使用情况的调查表明,未成年人居住方式的差异会对未成年人网络保护机制的使用率产生影响。具体来说,与父母双方或与其中一方生活在一起时,未成年人网络保护机制使用率更高。①谷乾铷:《未成年人网络保护机制问题与对策研究》,黑龙江大学2022 届硕士毕业论文,第26 页。因此,有鉴于父母参与对儿童使用青少年模式的积极影响,有学者建议应当增强社交媒体平台与家长的联动,将儿童账号与家长联系方式进行关联,并在儿童的使用行为出现异常时及时向家长发出预警,②陈诺:《网络隔空猥亵儿童犯罪行为治理刍议》,载《上海法学研究》2021 年第11 卷,第36 页。便于家长及时了解、介入可能存在的网络安全风险,最大限度地防范网络猥亵儿童犯罪的发生。

质言之,社交媒体平台的青少年模式设置应当遵循着“分类治之、严把入口”的原则,合理地对儿童用户以及陌生成年用户进行隔离,最大限度地防止儿童用户成为潜在的被害人。同时,在肃清儿童用户线上社交范围的基础之上,尽可能地保留即时通讯、文件传输等功能,以防止对于儿童用户网络权益的过度侵害,最终达到平衡保障需求与社交功能之间矛盾冲突的目的。

(三)补全信息隔离的保护模式

当前,我国针对网络未成年人性侵害犯罪缺乏专门的法律治理。③叶慧娟、淦茂杰:《网络性侵害未成年人法律保护研究》,载《做优刑事检察之网络犯罪治理的理论与实践——第十六届国家高级检察官论坛会议论文集》,第531 页。《未成年人保护法》《条例》等法律法规并未对以网络猥亵儿童为代表的网络儿童性侵害犯罪设置专门的保护条款,而是采取统一立法的模式,将之作为儿童网络安全风险中的一种,囊括在肃清网络环境、筛选网络产品等平台义务之中。通过对上述规定的系统梳理可以看出,依据运作方式、干涉程度的不同,我国对于未成年人网络安全的外部约束主要分为两种模式。一方面,我国法律要求网络平台积极开发、推广青少年模式的适用,即要求网络平台从受害人方面入手,研发、投入青少年专区、青少年模式,严格把控未成年人所能接触到的用户、内容,防止其陷入网络安全风险。另一方面,我国法律敦促网络平台加强对于网络安全风险信息的监管与控制。此种保护模式下网络平台对于未成年人的网络行为干涉较少,其主要从监测潜在犯罪人及其行为的角度入手,识别可能影响未成年人身心健康的网络使用行为并及时采取制止措施,防止此类风险信息被未成年人接收。根据此种保护模式的运作特点,以下将之称为信息隔离模式。

信息隔离模式以《条例》第22条第2款以及《未成年人保护法》第80条第2款为主要法律依据,①《 未成年人网络保护条例》第22 条第2 款规定:“禁止向未成年人发送含有危害或者可能影响未成年人身心健康内容的信息。”《未成年人保护法》第80 条第2 款规定:“网络服务提供者发现用户发布、传播含有危害未成年人身心健康内容的信息的,应当立即停止传输相关信息,采取删除、屏蔽、断开链接等处置措施,保存有关记录,并向网信、公安等部门报告。”间接规定了网络平台对于可能影响未成年人身心健康的网络使用行为的监督职责。由于未成年人认知水平有限,为防止其接触到不良信息而暴露在网络安全风险之中,信息隔离模式的主要思路就是识别、筛选风险信息并采取强制删除、断开链接等手段避免此类信息被未成年人所接收。犯罪的发现与控制成为了网络平台履行平台自治职责的基本行为方式。从网络猥亵儿童犯罪的角度来说,犯罪人对潜在被害儿童发送的信息主要包括“好友验证信息”“聊天信息”两种类型,前者旨在与被害儿童建立沟通渠道,后者则通过言语诱骗、恐吓对被害儿童发出侵害指令,分别包含着侵害儿童身心健康的紧迫风险与现实损害。在信息隔离模式下,此类信息将是网络平台监测、识别、预警的重点领域。通过对“好友信息”“聊天信息”的监测与评估,构筑起对风险信息的预警系统,以避免儿童成为网络猥亵的受害者,切实维护儿童的网络安全。

具体而言,为切实起到防范网络猥亵儿童犯罪的效果,社交媒体平台应当从账号、群组等切入,对部分可能会使未成年人陷入猥亵风险的“好友验证信息”“聊天信息”进行识别、监测、预警。一方面,应当依托当下QQ、微信等平台存在的“暂时中止服务”的功能,对部分可能存在猥亵儿童风险的账户进行管控。就具体的管控路径而言,我国《反电信网络诈骗法》中互联网企业面对涉诈异常账户的相关义务对合理设置社交媒体平台识别、控制涉及网络猥亵儿童风险账户的义务具有借鉴意义。根据《反电信网络诈骗法》第22条之规定,互联网企业应当对涉诈异常账户进行核验,并根据需要采取限制功能、暂停服务等措施。笔者认为,上述规定提供了一个比较好的思路。可以进一步挖掘“算法模型–行为模式–账户识别–介入干涉”这一管控模式在遏制网络猥亵儿童犯罪方面的实践价值,成为“好友验证信息”监测方面的重要工具。例如,有鉴于网络猥亵儿童犯罪隐匿身份、多次作案等惯常样态,依托目前QQ会对短时间内批量添加好友的疑似涉诈账号发出预警并对其做出暂时禁言的监测手段,可以要求其识别具有“短期内试图搜索、添加多名儿童账号为好友”,“仅以年龄、性别等信息进行模糊搜索”和“登陆地异常、有使用虚拟IP软件的可能性”等特征的账户,在暂停其添加好友的功能的同时向儿童用户发出预警,提醒其此类账户可能存在风险,应当拒绝此类账户发出的添加好友的请求。与此同时,为避免行为人同时使用多个账号接近被害儿童,应当在落实网络实名制、明确同一身份信息只能申请一个账号的基础上加强对与可疑账号同时期注册并且疑似存在相同行为模式的账户的监控,进一步压缩使用多个身份信息注册多个账号企图实施网络猥亵儿童的行为空间。

另一方面,应当推动包含未成年用户的群组消息监测的常态化、精准化。受到现有技术水平以及隐私权利保护的双重限制,在监测成本合理化的范围之内,不能也不宜对儿童账户的即时通讯内容进行全方位的监测、识别。针对司法实践中频繁出现的行为人在包含未成年用户的聊天群组中发送交友兼职、赠送红包、游戏装备、招募童星等诱骗消息以吸引被害儿童主动添加好友的情况,①邵守刚:《猥亵儿童犯罪的网络化演变与刑法应对》,载《预防青少年犯罪研究》2020 年第3 期,第50 页。为平衡监测需要与信息规模,可以考虑通过识别敏感词的方式有针对性地强化对于内含未成年用户的群组消息的监测,并进一步对发送不当消息的账号的网络使用行为进行监测。此外,为提升群组消息监测识别职责义务的正当性,破除监测手段适用时可能产生的法律困境,应当明确的是,未成年人可能接触到的群组消息、弹幕消息同样应当包含在《条例》第22条第2款“向未成年人发送有碍其身心健康信息”的范围之内。其原因在于,回归到该条款的立法本意,信息隔离措施的目的在于避免未成年人接触到可能影响其身心健康的信息。从这个角度出发,某种信息能否纳入本条款的规制范围是以未成年人是否有收悉此类信息的可能作为判断依据的,而非以未成年人是否是唯一的接收对象为判断依据,否则将大大限制本条款的作用范围。此外,出于规避平台监测的需要,实践中行为人诱骗被害儿童的话术层出不穷。为了保障监测手段的有效性,最大可能地识别涉嫌猥亵儿童的网络使用行为,社交媒体平台也应当积极分析平台运营过程中出现的暗语、敏感词,并通过算法学习手段将之纳入检测系统,提高有效识别网络猥亵儿童行为的能力。

五、结语

新型网络犯罪治理结构的变化让网络平台担负起了更多的职责,要求其在犯罪预防、犯罪识别、犯罪治理的过程中充分发挥其数据优势、技术优势以及组织优势。具体到网络猥亵儿童犯罪治理的视域下,被害人认知水平的有限性以及身心健康的脆弱性使得网络平台履行侵害儿童相关犯罪控制义务的需求更为迫切。为避免儿童成为潜在的性侵害对象,网络平台应当在降低个人信息收集、分析成本的前提下,精确识别网络平台中的儿童用户并合理确定“对象隔离”“信息隔离”等特殊保护模式的适用范围及保护措施,切实保护未成年人的身心健康。

猜你喜欢
监护人网络平台个人信息
如何保护劳动者的个人信息?
个人信息保护进入“法时代”
一种基于5G网络平台下的车险理赔
石狮市妇联依职权申请撤销监护人资格
监护人责任之探究
警惕个人信息泄露
网络平台补短板 办学质量稳提升
网络平台打开代表履职新视窗
依托网络平台,构建学习评价新模式
个人信息保护等6项通信行业标准征求意见