人工智能算法个人信息利用刑法规制与个人信息安全刑法保护

2022-04-23 12:45麦买提·乌斯曼,阿不都米吉提·吾买尔
关键词:刑法保护刑法规制个人信息

麦买提·乌斯曼,阿不都米吉提·吾买尔

摘要:在智能社会,刑法对个人信息的保护是以个人信息权入法为基础,将信息的私权保障与利用作为基本原则,导致了人工智能算法个人信息利用刑法规制的错位和提前。当人工智能利用个人信息进行算法分析,一方面,信息主体拥有个人信息权,另一方面,信息使用者也应当拥有信息用益权。个人信息的刑法保护必须从权利说出发并超越权利说,重新回到信息主体和信息使用者共同拥有个人信息安全法益的轨道。然而,刑法尚未明确规定个人信息安全法益,人工智能算法个人信息利用刑法规制与个人信息刑法保护应考虑信息主体和信息使用者对个人信息各自拥有的利益,从场景化行为主义规制的进路出发,对人工智能算法个人信息进行刑法保护和刑法规制。

关键词:人工智能;个人信息;刑法保护;刑法规制

中图分类号:D925.2;D923

文獻标识码:A

文章编号:1673-8268(2022)01-0048-13

为了达到监管和改造罪犯的目的,1785年,英国哲学家杰里米·边沁设计并提出了新型监狱——“圆形监狱”。在这种圆形监狱中,狱警处在中心望塔,犯人却在中心望塔外围环形建筑之中,警察能够完全监视犯人的一举一动,犯人无隐私可言。虽然边沁的此一监狱设计未被当时的英国政府所采纳,但是并不能说边沁的此种想法在现实社会就不能实现。因为20世纪70年代,福柯在《规训与惩罚》中就提到“全景敞视主义”,认为“圆形监狱”理论应该适用在整个当代社会范围之中[1]。随着智能社会的到来,算法成为了驱动人工智能的驱动器[2],算法应用早已无处不在。但是,正如英国科学家贝尔纳所指出:“科学技术的发展本身既为我们揭开了改善人类生活的前景,也为我们开辟了毁灭人类的可能。”[3]人们通过海量数据的智能算法分析,实现了海量数据的智能挖掘,得到了高效、便捷和经济的决策根据。与此同时,人工智能算法的应用也产生了一系列法律和社会治理问题。其中,人工智能算法个人信息利用与个人信息安全的保护问题最为典型。

一、人工智能算法应用表征:法益增长与危机

英国科学家霍金断言:“人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。”[4]自人工智能算法在我国使用以来,其凭借技术优势迅速抢占了用户的注意力市场,远远超过了人工算法,相继在新闻领域、社交平台、短视频平台中被广泛运用。但是,人工智能算法的应用在为用户提供便捷的同时,也引发了人们对个人信息安全问题的大讨论。因为人工智能算法的应用使人“无往不在枷锁之中”。例如,“今日头条”向用户推荐的新闻界面是根据用户注册时使用的姓名、手机号等基本信息和用户点击浏览的相关类新闻的次数、停留时间等数据推算出用户的爱好后推荐的私人订制式新闻界面。也就是说,人工智能算法的实质是算法系统处理、利用用户存在于网络之中的个人信息。从这种意义上讲,算法系统类似于一座圆形监狱,算法作为中心望塔无时无刻不在读取并挖掘着个人信息。用户作为环形建筑中不断被监视下的犯人,面临着“天下谁人不识君”的尴尬场面,用户个人信息权益遭受损害,用户个人隐私也受到了极大的威胁。因此,有必要在理论上对人工智能算法个人信息利用刑法规制与个人信息安全的刑法保护进行前瞻性的研究。

(一)人工智能算法应用的价值剖析与法益的增长

人类社会的发展在进入21世纪之后呈现出了加速变革的态势,其表现就是人们在几乎没有做好准备之前就被迅速地推入智能社会。虽然智能社会借用“智能”来命名,但是,智能社会标志性的先进生产力是人工智能算法。那么,人工智能算法应用的巨大价值是如何体现的呢?从本质上讲,人工智能算法是智能社会中的超级力量,是智能社会的驱动器[2]。在智能社会,信息和数据是最重要的资源[5]。但是,互联网中海量的数据使有价值的信息变得极为分散,不能在有限的时间内抓取用户全面的数据。随着人工智能算法的广泛应用,蕴藏在网络空间中的海量个人信息(浏览记录、阅读兴趣、行为习惯、位置信息和消费记录等)像滚雪球般地急速增加,人工智能能够在极短的时间内通过算法统计挖掘分析信息,使数据成为了具有高度应用价值和商业价值的“数据黄金”[6]。其中,人工智能的商业价值尤为凸显。对商业环境的健康运行而言,个人信息至关重要[7]。例如,网站为了扩展自己的商业机会,通过算法推荐技术分析网站用户的个人消费习惯数据;网络购物网站通过算法对消费者以往的消费习惯进行分析后推荐同类的商品,这已经成为了各大购物网站的促销手段。再比如,在购物网站浏览图书或商品之后,紧接着登录“今日头条”等新闻平台时,平台会自动推荐之前浏览过的图书或商品甚至相关或类似的书籍。可以发现,人工智能算法应用已经充分发挥了个人信息在我们日常生活中的经济价值和社会价值。鉴于此,人工智能算法不仅推动了电子商务的变革,而且也转变了商业运营模式甚至有学者断言:“个人信息已经成为现代商业和政府运行的基础动力。”(参见Perri Six, Private Life and Public Policy, The Future o f Privacy,Vol.1, 1998,pp23)“在商业运行中,个人信息已经成为营销之目的而被广泛使用。”(参见戴恩·罗兰德、伊丽莎白·麦克唐纳德:《信息技术法》,武汉大学出版社2004年版,第298页),个人信息的经济价值和商业价值急剧膨胀,引发了个人信息使用者财产性法益的扩张。

(二)人工智能算法应用的危机与刑法关切

人工智能算法的本质是解决问题的数学过程[8]。人工智能算法独特的运行逻辑导致法律赖以存在和生存的社会场景发生变化[9],使人们日益被数据化和算法化[10],可能对个人权益甚至对公共安全法益带来风险。尤其是人工智能算法的应用提升了个人信息所具有的经济价值,使得针对个人信息的违法犯罪行为与日俱增。

1.个人信息整合后的不当利用造成隐私风险

对于大多数用户而言,人工智能算法如同一个“技术黑箱”[11],难以看清庐山真面目。根据2017年5月8日最高人民法院和最高人民检察院联合发布的《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》(以下简称《解释》)第1条的规定《解释》第1条规定:“刑法第二百五十三条之一规定的‘公民个人信息’,是指以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人身份或者反映特定自然人活动情况的各种信息,包括姓名、身份证件号码、通信通讯联系方式、住址、账号密码、财产状况、行踪轨迹等。”,公民个人信息是身份识别信息,身份识别的标准分为“单独识别”与“结合识别”。对于人工智能算法而言,任何可数字化的事物,都是信息[12],即涉及个人的可数字化的分散单一信息或行为痕迹,经过应用人工智能算法就会形成具有指向性的身份识别信息,故通过应用人工智能算法结合识别出来的个人信息就是信息性隐私根据我国民法学界通说,隐私大致可分为安宁性隐私和信息性隐私两大类。安宁性隐私要求私人住宅不被侵犯、秘密活动不被他人偷窥或监控;信息性隐私则要求个人秘密不被他人随意公开或滥用。(参见程啸:《侵权责任法》,法律出版社2015年版,第168-173页)。这种整合形成的整合型信息性隐私已经成为了隐私信息的常态现象[5]。例如,用户在购物平台中所点击、浏览或者购买过的各类商品都会被人工智能记录下来。虽然这些记录简单粗糙,但是,人工智能通过算法来推算出用户的兴趣。因此,人工智能算法在此就会被看作用户行为信息的收集器和分析器[13]。客观而言,这些通过应用人工智能算法整合后取得的信息,如果合理运用可以带来很多便利。例如,从用户对算法新闻认可度的调查来看,约40%的参与者认可人工智能算法应用在新闻分发领域;42%的参与者认为人工智能算法可以为用户提供全新的阅读习惯和信息获取模式;约41%的参与者认为人工智能算法节省了用户大量时间[14]。

智能社会多领域人工智能算法的创新应用对个人信息性隐私构成了严峻的冲击。根据学者的研究可知,约67%的参与者认为其隐私通过个人信息收集或浏览记录被披露并被他人利用[14]。人工智能在用户不知晓的情况下对用户信息进行追踪和密集收集,并对这些数据进行算法分析,挖掘了用户不愿为他人知晓的敏感信息,构建出了用户完整的人格图像[15]。更为严重的是,用户个人信息被许多企业二次或多次利用获取了一定的经济价值,例如广告投放等。传统个人信息保护架构其机制建构在“知情同意”(notice-and-consent framework)架构的基础上,其立法模式通常是“强同意”。但是,正如学者所言,“隐私声明远非为人类使用而设计”[16]。用户对信息获取者提供的冗长隐私声明仅仅是一瞥而过并点击“同意”,使隐私声明沦为一纸空文相关研究表明,用户仅阅读一年中使用的网络服务的隐私声明就要花费244小时的时间。(参见范为:《大数据时代个人信息保护的路径重构》,《环球法律评论》2016年第5期,第93页)。与此同时,“知情同意”架构在司法实践中也表现出了鲜明的弱化倾向。例如,在“百度公司与朱某隐私侵权纠纷案”中,法院根据“场景和风险导向”模式认为,网络服务提供者通过算法向用户提供的个性化推荐服务,并未是个人信息直接向第三方或公众展示或公开,不符合侵害个人信息隐私的行为。可见,此种现实和司法实践使得数据获得使用者逃脱了传统“知情同意”架构[17]。然而,这种告知义务和同意形式的放宽本身就存在个人信息被滥用的风险。

2.信息主体的控制力减弱

人工智能算法应用使个人信息作为基础性的生产资料,个人信息日益成为了企业提升竞争力的核心。人工智能在收集个人信息,通過算法使个人信息成为价值创造的源泉的同时,也重构了向去中心化方向发展的个人信息生态系统(personal data ecosystem)[18]。与此同时,在人工智能算法中,算法定义的对象逐渐变成被数据化和计算化的个人,客体个人可以被计算、被预测和被控制[19]。这种技术的异化导致的最终结果就是个人对自身信息的控制能力日益削弱,人与人之间的信任逐渐转向对机器和算法的信任[20]。

二、问题的提出:个人信息利用与刑法保护再平衡

人工智能算法是智能社会及其法律秩序的核心[2]。在智能社会,整个社会对人工智能算法的应用依赖和应用需求不断在增强,人工智能算法利用个人信息在不断增进个人和社会福祉的同时,也可能引起信息主体的权益受到威胁和侵害。由此,个人乃至整个社会都催生了个人信息保护的需要。但是,人工智能算法在利用个人信息时却又增加了信息使用者的利益,即增加了信息使用者合法、合理和安全使用个人信息的法益。面对彼此冲突化的个人信息生产者和信息使用者本文中的信息生产者是信息主体,信息使用者是信息企业。的利益,刑法必须在无限需求和有限资源之间寻求平衡的最佳机制,实现不同利益上下位阶的合理安排[7],而目前我国刑法尚未完成此种合理安排。

(一)信息私权化使人工智能算法个人信息利用刑法规制错位

人们已经从互联网、大数据时代进入到了智能时代。在智能时代,信息的开发和利用在很大程度上依赖于信息的共享,而信息使用者盈利的主要模式也是信息的共享。所以,智能时代信息采集和共享的方式在发生日新月异的变化。在智能时代,应用人工智能算法最大限度地获取了个人信息,既节省了成本,又创造了更大的社会效益,成为信息共享利用的一种重要方式。但是,现阶段信息刑法立法是以信息权入法为基础,将信息的私权保障与利用作为基本原则,轻信息使用者的利益、重信息主体的保护。所以,如不对个人信息私权化进行调整,除了抹杀信息的共享之外,更为严重的是会扼杀人工智能算法技术的继续发展,不利于合作、共享、繁荣社会的构建。

法律是时代的产物[21]。随着信息技术的发展,刑法作为“后置法”也开始回应信息和隐私威胁的持续蔓延[22]。我国以《刑法修正案(七)》《刑法修正案(九)》和《解释》为标志,正式设立了“侵犯公民个人信息罪”并扩大了犯罪主体和侵犯行为的范围,初步建立了个人信息的刑法保护体系。由此可知,目前我国刑事立法对大数据(信息)保护等方面的表现就是犯罪化[23]。除此之外,侵犯公民个人信息罪的法条设置属于典型的空白罪状立法模式,为了确保统一法秩序下公民个人信息的有效保护,法条中“个人信息”的认定无疑应以《民法典》在内的前置法为基础[24]。然而,一方面,我国《民法典》总则第五章第111条规定,“自然人的个人信息受法律保护”;另一方面,第四编人格权第六章第1034条至第1039条则对个人信息保护做了详细的规定。所以,在民法领域出现了个人信息是隐私权还是新型个人信息权之争。而我国民事司法实践则更倾向于在隐私权的框架内对公民个人信息的保护参见北京市第三中级人民法院(2016)京03民终9992号民事判决书;北京市第一中级人民法院(2017)京01民终509号民事判决书;广西壮族自治区百色市人民法院(2015)百中民一终字第1199号民事判决书。。但是,随着个人信息内容的不断扩充,“隐私性”不再是个人信息的构成要素2016年11月7日发布的《网络安全法》对个人信息的定义删除了“隐私信息”的描述,不再区分“能够识别公民个人身份”的信息与“涉及公民个人隐私”的信息,统称为“能够识别公民个人身份”的信息。(参见商希雪:《个人信息隐私利益与自决权益的权利实现路径》,《法律科学》2020年第3期,第72页)。与此同时,除了《民法典》明确并列规定个人信息保护和隐私权保护[25]之外,在网络信息技术迅猛发展之下,个人信息财产利益的保护需求也愈发强烈[17]。所以,个人信息权益在性质上属于一种集人格利益与财产利益于一体的综合性权利[26],即个人信息权。个人信息权起源于德国,作为不同类型和性质[27]的新型权利本文中的新型权利和新兴权利是同一概念。,个人信息权是指“个人依照法律控制自己的个人信息并决定是否收集和利用的权利”[28]。根据当今民法通说观点,“权利就是为了满足个人利益,由法律规范授予人的意思力”[29]。所以,个人信息权的基础是个人的自决权,权利人同意他人收集、利用都是权利人控制权的具体表现[30],其本身体现的就是一种私益[28]。所以,为了保护个人自身信息利益而产生的权利是个人信息权,由当事人决定个人信息权的行使和利用,其是当事人的一项私法权利[31],即绝对控制权。

侵犯公民个人信息罪中,“个人信息”所包括的内容成为侵犯公民个人信息罪的构成要件之一,所以,民法中对“个人信息”权利的私权性认定则成为侵犯公民个人信息罪的违法性根据[32]。这也决定了侵犯公民个人信息罪是法定犯[33]。对于法定犯而言,要确定行为违法性的前提是确定行为人是否实施了违反前置法的行为[34]。根据民法关于个人信息控制权属性的认定,个人信息权与物权一样属于民法中的绝对权[28],信息使用者在收集、利用个人信息时必须尽到最大的注意义务[34]。鉴于此,为了明确“个人信息”所包含的内容,使信息收集、利用者能够更好地履行注意义务,刑法在不断扩大“个人信息”的范围。根据《刑法》第253条“违反国家有关规定”此表述,该条文的前置法并不仅仅局限于民法,作为行政法的《网络安全法》可以是另一个前置法。我国2017年颁布实施的《网络安全法》第76条规定了个人信息的范围《网络安全法》第76条第5款规定:“个人信息,是指以电子或者其他方式记录的能够单独或者与其他信息结合识别自然人个人身份的各种信息,包括但不限于自然人的姓名、出生日期、身份证件号码、个人生物识别信息、住址、电话号码等。”公民个人信息,是指以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人身份或者反映特定自然人活动情况的各种信息,包括姓名、身份证件号码、通信通讯联系方式、住址、账号密码、财产状况、行踪轨迹等。。与此同时,《解释》第1条也明确规定了个人信息的范围。但是,个人信息的范围大于《网络安全法》的规定,即增加了“账号密码、财产状况、行踪轨迹等”。然而,刑法中的个人信息概念与《网络安全法》规定的不一致的现象,已经违背了法定犯的立法初衷[33]。所以,如果刑法在保护个人信息中完全以个人信息主体对信息的私权保护为原则,则极有可能造成对人工智能算法行为处罚范围的扩大就《刑法》适用而言,办理侵犯公民个人信息刑事案件,特别是对相关获取、提供公民个人信息行为定性时,要对标《民法典》的相关规定,坚决防止将符合《民法典》规定的行为认定为“违反国家有关规定”,甚至按照犯罪处罚。,导致应用人工智能算法只要分析个人任何一类信息就有可能构成犯罪,此为刑法规制的错位。如果此种趋势继续发展,则必然导致个人信息的共享利用会遇到根本上的难题首先,信息越关联越有价值,但是,“个人信息”内容的扩大不利于破解地域性、狭隘性、封闭式的运营模式;其次,信息不能被独占,不能有绝对排他性状态存在,如果“个人信息”内容不断扩大,则必然导致信息领域新型“公地悲剧”的出现。(参见任颖:《数据立法转向:从数据权利入法到数据法益保护》,《政治与法律》2020年第6期,第136页)。

(二)信息私权化使人工智能算法个人信息利用刑法规制提前

如前所述,在信息已经成为“黄金”的时代,人工智能算法将从以能源、资本为核心的工业时代的经济发展模式转变为以网络信息为核心的经济发展模式,其正在成为一种创造财富的手段。特别是信息使用者(数据控制者)信息控制者又称为数据控制者,数据控制者来源于欧洲委员会的《个人数据自动化处理中的个人保护公约》,其使用“档案控制人”,之后的《个人数据保护令》《通用数据保护条例》都采用了数据控制人,用来涵盖所有可以决定数据处理或使用目的的主体,并非实际控制个人数据者。因此,信息使用者和数据控制者可以互换使用。通过人工智能算法增长着自己对数据的财产权益数据经济是一种双向动态结构,且在生产重要经济价值的数据收集、存储、加工、利用等环节中,用户授权或协议同意数据经营者进行数据采集,数据经营者则通过开展集合加工等活动实现数据的资产化。(参见刘新宇:《大数据时代数据权属分析及其体系构建》,《上海大学学报(社会科学版)》2019年第6期,第20页)。然而,《刑法》第253条“侵犯公民个人信息罪”的空白罪状特征,使得民法领域对个人信息作为一种新型权利即个人信息权的认定影响到了刑法对个人信息的保护,其结果就是除了扩大侵犯对象“个人信息”所包含的内容之外,更为重要的是又导致侵犯公民个人信息罪客观构成要件行为的扩大化。

根据我国《刑法》第253条第1款的规定,侵犯公民个人信息罪的客观构成要件是“违反国家有关规定,向他人出售或者提供公民个人信息”。民法作为前置法,个人信息权在民法领域不断被承认导致我国《刑法》对个人信息的保护从以转移型侵害为核心的刑法规制思路当前,个人信息专门刑法规定只对非法提供(出售)、获取、泄露个人信息的转移信息型行为处以刑事责任。扩大到包括信息滥用在内的行为的刑法规制上。尤其是我国《刑法》对“合法取得,不当滥用”个人信息行为尚未作明确规定,难以通过刑法规制加以有效防范,导致刑法的严重失灵。所以,《解释》第3条就规定:“未经被收集者同意,将合法收集的公民个人信息向他人提供的,属于刑法253条之一规定的‘提供公民个人信息’。”但是,《解釋》无法适应数据流动和利用的巨大市场需求,除了抬高个人信息使用的门槛之外,还加速了侵犯公民个人信息罪的成立,即只要信息使用者(数据控制者)未经信息主体同意而使用他人信息,就能认定信息主体的信息自决权受到侵犯,信息使用者(数据控制者)的行为构成侵犯个人信息罪。进一步说,“同意规则”一般化的法律效果就是个人信息被刑法所保护,其目的就是防范因个人信息被滥用而可能产生的抽象危险,因为侵犯个人信息的行为具有造成个人隐私权受侵害、名誉受损或财产损失的潜在危险性。可以说,在刑法犯罪构成要件中规定行为与结果之间具有典型的危险关系,不考察行为是否实际侵犯了法益或制造了法益侵害

危险的犯罪就是抽象危险犯。所以,侵犯个人信息罪是一种抽象危险犯。在刑法学界,刑法为什么规定抽象危险犯?笔者认为,除了体系内因素,即“抽象危险犯是对法益保护的前置化措施”[35]之外,还有一个体系外因素,就是现代性风险控制逻辑与抽象危险犯理论结构相互暗合。具体到信息时代,网络技术的发展使得个人信息生态系统朝着去中心化方向发展,个人信息主体除了与服务提供者之间产生直接的联系之外,还要面对信息间接使用者和信息后续利用者对信息的使用。因此,信息主体对个人信息的控制能力日益削弱。更为严重的是,随着人工智能算法技术的出现,信息使用者(数据控制者)通过算法更容易获得他人不愿让人知晓的明暗信息,为个人带来了不安、困扰,乃至造成财产损失。所以,为了让个人能更好地控制自身个人信息,在积极的个人信息支配权的影响下,刑法秉承了大数据时代个人信息利用的严格控制,并制定了相关规定。但是,这些规定在信息主体利益保护方面具有严重的规制超前性《解释》意在强调,侵犯公民个人信息罪不是针对结果,而是对行为人进行非难,只要求行为人明知自己提供或购买个人信息就构成犯罪。,其极容易忽视数据使用者(数据控制者)的合法利益。

三、新型法益的证成:人工智能算法个人信息利用与个人信息刑法保护之法益

侵犯公民个人信息罪作为刑法分则侵犯公民人身权利、民主权利罪中的具体罪名,其侵犯的是公民最基本、最重要的个人专属权利。就目前来讲,在新型权利——个人信息权的影响下,刑法对信息主体赋予了权利,对信息使用者(数据控制者)则增加了义务。但是,这种脱胎于隐私保护、以个人自决为核心的个人信息权,其强调个人对自身信息的控制美国学者认为,隐私必须被重新界定为“个人、群体或机构对自身信息在何时、何地以及在什么程度与他人沟通的主张,导致个人对自身信息控制的独立意义”。(参见Alan Westin,Privacy and Freedom,Atheneum Press,1967,pp7)德国理论界认为,通过“小普查案”和“人口普查案”等案例,德国已经确立了个人信息自决权。(参见彭礼堂、饶传平:《网络隐私权的属性:从传统人格权到资讯自决权》,《法学评论》2006年第1期,第60页),在理论上有一定的缺陷。

首先,个人信息权不具有周延性。从个人信息权在西方提出的社会背景和立法轨迹来看,电子计算机出现并广泛应用是个人信息权出现的前提,即个人信息权是电子计算机技术的产物。所以,个人信息权仅仅适用于电子网络环境下的个人信息的控制,并不能适用于日常生活和传统媒体的信息控制,也不能成为一种普遍适用的权利。

其次,在以个人信息权为基础的个人信息保护规则中,并不能找到个人信息为个人所独占《通用数据保护条例》第1条第2款明确规定:“本条例保护自然人的基本权利和自由,特别是保护自然人享有的个人数据保护的权利。”该条文明确表明了个人享有个人数据而非独占。,并能排除他人合理使用、分享和流通的相关规则。立法确立个人信息权的目的似乎更多倾向于有效阻止个人信息被非法滥用。

最后,个人信息权忽视了大量个人信息已经被他人分享的现实,无法保证信息使用者(数据控制者)的利益。在智能社会,个人信息使用者(数据控制者)利用算法对个人信息进行分析,从而生产出更受大众欢迎的产品,如果个人信息再依“权利说”成为信息主体的“专属品”,则不能刺激个人信息使用者(数据控制者)保护个人信息安全的积极性,不利于个人信息使用者(数据控制者)利益的保护。

法律是为保护利益而生,法所保护的利益即为法益,在立法中,保护利益的手段之一是创设权利。所以,有些学者指出,现今新型权利的研究“仅仅将重心放在外在经验的生活化描述上”[36],少有本质的探讨。具体到人工智能算法技术下个人信息的刑法保护,其本质是共同保护信息主体和信息使用者(数据控制者)的利益,所以,必须从权利说出发并超越权利说,即从作为权利上位概念的法益[37]角度来平衡人工智能算法个人信息利用与个人信息刑法保护之间的利益冲突。

(一)信息用益权是人工智能算法信息使用者利益的基础

在物理世界,个人特征与特定主体不可分离,即个人特征必须依附着某个特定主体。但是,在互联网时代,个人特征的表现形式则转换成为数据并广泛存在于网络世界中[38]。当下,随着互联网和新一代信息技术的发展,人类又进入了网络信息时代,数据已经成为创造和捕获价值的新经济资源,成为财产权的客体。例如,我国《民法典》第127条明确规定:“法律对数据、网络虚拟财产的保护有规定的,依照其规定。”但是,我国《民法典》对数据和个人信息做了明确的区分,即上述表明个人特征的数据在《民法典》第四编人格权中称为个人信息,并通过第1034条至第1039条对个人信息权进行了较为详尽的保护。所以,在我国《民法典》中,表述个人特征的个人数据被称为个人信息,这与其他类型的数据是相互区分的,具有不同的权利属性。当下,民法作为前置法深深地影响着刑法,特别是对我国《刑法》第253条之一“侵犯公民个人信息罪”的影响尤为深刻。民法中数据与个人信息两者权利属性的不同认定,在《刑法》第253条之一“侵犯公民个人信息罪”中出现了单一赋权思维模式,即侵犯公民个人信息罪仅保护人格权下信息主体的个人信息权,并造成了信息主体与信息使用者之间利益的失衡。为此,刑法必须调整思路,重新构建个人信息权利体系,以便信息使用者利益的有效保护。

刑法在保护个人信息时出现信息使用者和信息主体利益的失衡,其问题的根本在于对个人信息属性的认定。根据我国《民法典》的规定,无论是隐私权还是新型个人信息权,都属于人格权下的權利我国《民法典》中个人信息的保护条款体现在第四编人格权编中。,所以,其不具有财产权属性。其中,隐私权倡导者认为,对任何数据的控制都会对个人信息控制造成风险,如果信息使用者通过财产权来控制个人数据,则不可能保护隐私权。此种推理的结果就是个人数据等于个人信息[39]。但是,笔者认为,个人信息并不等同于个人数据,因为:一是数据是人类发明的一种符号,而信息是人对这种符号的认识,具有一定的主观性,信息是经过加工处理后的数据[40]。除此之外,在互联网信息时代,许多单个零星的个人数据并不必然是个人信息。尤其是通过人工智能算法应用取得的相关个人信息更不是简单的个人数据。如果把侵犯公民个人信息罪中的个人信息简单等同于个人数据,那么,不属于个人信息的个人数据就不能被纳入到保护范围中。二是通过人工智能算法应用取得的个人信息。根据洛克所倡导的劳动论,利用人工智能算法的信息使用者在对个人数据进行分析的过程中付出了劳动,享有劳动产品的财产权。有鉴于此,个人信息的实际控制者是信息使用者,那么,在人工智能技术下,信息使用者对个人信息的实际控制其权利属性是什么?笔者认为,在网络信息时代,大多数信息使用者通过授权协议取得相关个人数据并通过人工智能算法分析出所需要的个人信息。所以,信息使用者除了具有使用该信息的权利,还拥有通过信息获益的权利。此种具有利用和收益两种权能的权利就是一种用益权[41]。

用益权制度发端于罗马法,并对后世民法典产生了重大影响。在大陆法系的传统意义上,用益权属于人役权的范畴,是为了特定人的利益而设立。所以,对权利主体、权利行使等方面作了较大的限制,其体现在“人役权不可转移原则”上。但是,网络信息时代,特别是当下与数字经济相结合的网络信息时代,作为信息所有人的信息主体只能支配着作为信息基础的数据,尚不发生网络信息时代意义上的信息的利用和收益问题。所以,为促进信息权益的畅通流转并确保各方的交易安全,构建信息用益权制度尤为重要。与此同时,信息用益权显然不能等同于我国立法上的“用益物权”。信息用益权是围绕着信息管理和利用所形成的一种兼容性财产权[39]。信息用益权的出现并不违反物权法定原则。根据《民法典》第三分编用益物权第323条的规定,对“他人所有的不动产或者动产都可以设定占有、使用和收益的权利”。所以,对他人个人数据权可以设定信息使用者对信息使用和收益的用益权。有鉴于此,在民法领域应该确认信息使用者所拥有的信息用益权,其中,个人信息权属于作为信息来源的信息主体,而用益权则属于信息使用者。只有民法中信息用益权的确立,才能使刑法中形成个人信息保护的“个人信息权+用益权”的两权分立模式。当信息使用者对信息具有控制、开发、许可和转让等用益权时,刑法才能保护信息使用者的合法权益,侵犯公民个人信息罪才能在保护信息使用者和信息主体利益方面达到平衡。

(二)个人信息安全是侵犯公民个人信息罪中保护的法益

随着信息用益权的提出而形成的对个人信息保护的“个人信息权+用益权”的两权分立模式,使得刑法在侵犯公民个人信息罪中所要保护的不仅仅是信息主体的利益,而且也应该包括合法拥有公民个人信息的信息使用者(数据控制者)的利益。而要达到这一目的,就必须对刑法中公民个人信息罪保护的法益进行重新定义,以使其能够促成个人信息刑法保护体系的形成。

1.刑法应从局部特殊保护到整体同等保护

德国宪法法院的相关判决指出,为了实现国家赋予的保护责任,立法者有义务动用刑法手段来保护人民共同有效的生活。但是,立法者动用刑罚必须具有宪法上的正当性,即当刑法是共同生活保护的最后手段时才能允许动用刑罚[42]。这明确确立并形成了刑法与其他部门法之间的规范分工和结构安排,即在宪法价值秩序的指引下,刑法之外的前置法确立了法律保护的生活利益即法益,所以,前置法应作为调整性规范调整性规范以法律权利和义务的设定为内容,以假定和处理为形式。。而刑法包含着责任和制裁形式,对调整性规范确立的法益给予了保护,所以,刑法应该具有保护性规范保护性规范以法律责任的设定为内容,以假定和制裁为形式。的任务。虽然前置法也包含着一定的保护性规范,即第一保护性规范,但是,通过第一保护性规范来实现责任的强度和严厉性终究有限,难以有效恢复重要的调整性法益,通过刑事责任的追究与制裁的实施来对第一保护性规范予以强力增援就只能是作为第二保护性规范的刑法的任务。具体到人工智能算法技術下个人信息的刑法保护问题而言,作为前置法第一保护性规范的我国民法对信息用益权尚未作明确规定我国《民法典》规定,用益物权包括土地承包经营权、建设用地使用权、宅基地使用权、居住权和地役权等。,导致了作为前置法的民法对信息使用者信息用益权的保护滞后。同时,作为最严厉、对前置法的利益保护起到增援作用的刑法,在前置法的影响下也同样不能保护信息使用者的利益。所以,在刑法对前置法起到增援作用的同时,必须把保护的范围从仅仅保护信息主体利益的局部特殊保护扩大到包含信息使用的利益的范围,以便达到信息主体和信息使用者利益整体的同等保护。

2.刑法应从权利保护转变为信息安全法益的保护

利益作为事实概念,是法益的“前生”,而法益是规范概念,是利益的“来世”[43]。刑法法益的来源是经验事实,即利益,而刑法保护利益的手段之一就是在立法中创设权利。但是,刑法并非保护权利,而是保护利益,即在刑法中通过规范评价被称为法益的利益。有鉴于此,《刑法》第253条之一“侵犯公民个人信息罪”中刑法保护的利益是信息主体的法益和信息使用者的法益,而两者的法益都涉及信息利用、使用和收益等有关信息安全的问题。所以,重视个人信息自身安全或许能够满足信息主体个人信息权利和信息使用者信息用益权保护的双重需求。所以,刑法对个人信息的保护应从新型权利转变为新型法益,即个人信息安全法益。

个人信息安全法益是法律所识别、确认、保护的信息安全利益。个人信息安全法益不同于个人信息权利,两者之间的差异是刑法信息立法从新型权利保障转向新型法益保护,并为个人信息安全法益的保护奠定了法理基础。从功能方面看,个人信息安全法益的刑法保障是刑法对特定主体(信息使用者和信息主体)信息利益的认可。正如哈赛默所说:

“构成合法法益基础的是单个的个人利益,而非群体的和国家的利益。”[44]“刑法的任务是法益保护”[45],这是现代刑法学的核心概念。而个人信息权利则强调的是信息权利人(信息主体)的自由意志以及由此而来的选择自由[46]不被非法干预。从价值方面看,个人信息安全法益既保护公益又保护私益,而个人信息权以信息私益保护为侧重点,忽视了社会共同信息秩序的维护。从应用方面看,个人信息安全法益除了可以保护信息主体和信息使用者的利益之外,还可以保护信息间接使用者等多主体的利益。因此,个人信息安全法益的适用前提是多样化的信息利益的衡量。而信息权利的适用则是单向度的,即仅仅保护信息主体的利益。从总体上看,刑法中个人信息安全法益的确立不仅具备现实基础,而且还有深刻的理论基础。首先,刑法确立个人信息安全法益源于刑法对多样化的信息利益保护的现实需求。作为社会的实在利益,个人信息安全法益的存在对个人乃至社会具有有用性和有益性。特别是在人工智能算法技术下,对于信息主体而言,个人信息安全的保障有利于个人人身权和财产权的保障,而对信息使用者而言,其通过算法使个人信息成为争夺市场占有率的新型手段参见山东省泰安市中级人民法院(2014)泰刑终字第27号刑事裁决书。。在此基础上,个人信息安全法益应当成为独立的法律保护对象,“个人信息法益可以成为刑法法益的新内容,并成为独立的刑法保护对象”[47]。其次,个人信息安全法益应成为刑法信息保护立法的核心。一是个人信息安全法益在刑法信息保护中的确立可以破解刑法个人信息保护的私权化,避免刑法规制错位现象的出现。个人信息安全法益是数字经济背景下的新型法益[48]。正如有些学者指出的,信息“不能归入表彰民事权利的客体”“也不宜将其独立视作财产”。但是,随着前置法民法对个人信息权利的不断承认,片面认为个人信息是个人信息权的客体,个人对自身个人信息具有绝对排他权,使刑法个人信息保护私权化,导致了刑法个人信息规制的错位,即不管什么原因,未经信息生产者同意使用个人信息都受刑法的追究。个人信息安全法益的确立赋予了信息使用者刑法法益保障,形成了二元刑法保护模式,避免了刑法规制错位的出现。二是个人信息安全法益在刑法中的确立使侵犯公民个人信息犯罪成为具体危险犯。“刑法是以强制措施来威慑危害社会的行为,从而维系社会秩序的重要手段。”[49]但是,刑法介入并成为维系社会秩序的重要手段必须具有正当性。即,刑法“除了维系社会秩序之外,在规范保护层面还有规制的必要性”[50]。所以,刑法在规范层面规定,只要有“出售或者提供”行为,就构成侵犯公民个人信息罪,使侵犯个人信息罪成了抽象危险犯。但是,刑法中个人信息安全法益的确立给予了信息使用者使用和收益的利益,信息使用者只有通过非法收集信息、非法交易信息获取利益时,才能受到刑法否定性评价。即只有信息使用者的行为产生具体的危险时,才能承担侵犯公民个人信息罪的刑事责任。

四、场景化行为主义规制:个人信息安全刑法保护与人工智能算法个人信息利用刑法规制

“刑法在国家对公民权利的所有干涉中是最严厉的一种,只有在比较轻缓的手段不能充分保证效果的情况下,才允许适用刑法。”[51]有鉴于此,刑法并不保护所有的法益,刑法只保护其他前置法不能给予充分保护的法益,即刑法向前置法保护法益提供增援。所以,根据罪刑法定原则,刑法所保护的法益必须在刑法中明文规定。现阶段,我国刑法在侵犯公民个人信息罪中承认的遭到破坏的法益是个人的人身权利。对新型个人信息安全法益,刑法尚未给予承认。虽然如此,但是这不能成为我们坐以待毙的理由,出现问题必须勇敢面对并予以解决。通过对人工智能个人信息利用与个人信息刑法保护之间紧张关系的分析了解到,两者之间的主要问题在于个人信息主体与信息使用者在个人信息利用和收益方面的利益冲突。所以,笔者认为,首先,刑法个人信息安全问题不能通过个人信息权来解决。侵犯公民个人信息罪的核心是通过重点防控个人信息非法获取、泄露的行为来保护个人信息本身的保密性、完整性和可用性等静态安全问题[52]。但是,随着人工智能算法技术的迅猛发展,个人信息安全在形式、内容上均有了不断的异化,尤其是信息使用者通过算法分析个人信息,不断提供各类新产品,推动着数字经济乃至社会经济的发展。信息使用者与个人信息之间有密切的财产联系,此种趋势给现行刑法对侵犯公民个人信息罪的评价治理模式带来了新的挑战。其次,人工智能算法技术承认个人信息使用者在个人信息方面的利用和收益的用益权,如不做好监管,则必然会导致过度采集目标用户的基本信息、上网习惯、消费记录、位置信息等,给个人信息生产者的个人信息安全带来风险。例如,2018年的美国Facebook数据泄露事件等。由此可见,大数据信息的庞大性、复杂性容易造成信息的泄露和受损,一旦作为信息使用者的企业等对信息利用安全的控制力度不足,就会带来信息的滥用风险[53]。所以,必须对信息使用者设定大量的数据安全保障义务,确立信息使用者的保证人地位。总之,互联网信息时代,人工智能算法技术下个人信息的刑法保护问题的来源及出现的各类问题的根源都在于人们对信息使用者利用个人信息的恐惧,其解决问题的路径是在不损害信息使用者合法利益的前提下,合理规制信息利用的算法行为,不对信息主体的个人信息安全造成损害。笔者认为,考虑到信息主体和信息使用者对个人信息各自具有的利益,从行为主义规制的进路出发,在个人信息使用的不同阶段和不同场景分不同的情况进行刑法规制和保护。场景化行为主义规制不同于刑法上的行为主义规制,刑法上某些行为被确定为犯罪之后,该行为在任何一类场景中都会被认定为犯罪。场景化行为主义规制是指对行为进行规制的必要性和合理性完全取决于不同的场景,即行为的规制高度场景化。人工智能算法个人信息利用的刑法规制和个人信息的刑法保护都与个人信息安全有关,使得个人信息方面存有多重权益。正因为这种多重权益的存在,使人工智能算法个人信息利用刑法规制和个人信息刑法保护不能制定出统一或单一的规制和保护标准。为了保护个人信息和促进信息使用者的权益,刑法必定要重点考虑行为实施的场景变化。

(一)个人信息安全的刑法行为主义保护

人工智能算法是指“网络服务提供者对网络用户在一定时间内已经做出的历史选择记录、评论以及相关辅助信息进行分析后发现网络用户所关注的信息并进行个性化推送信息的技术”[54]。所以,在人工智能算法中,信息(数据)成为了基础原料,信息(数据)在人工智能算法下得到了进一步的分析并产生出了新的信息(数据)。但是,随着人工智能算法的不断推广应用,个人信息保护方面的风险在日益增加。例如,信息使用者未经个人信息生产者同意,擅自使用他们的信息,侵犯信息主体个人信息权的行为不断出现。因此,个人信息的刑法保护应根据不同行为所可能侵犯的信息主体与信息使用者的权益而进行不同程度的规制。

信息收集阶段,对个人信息的保护应采取相对宽松的刑事政策。侵犯个人信息罪的源头是信息的收集行为。但是,在智能社会,个人大量信息已经被他人分享,个人信息被他人所收集已成为普遍行為。为此,如若在个人信息的收集阶段,刑法采取的是严格保护个人信息的刑事政策,那么,必然会阻碍个人信息的合理使用、分享和流通,造成信息使用者法益受损。所以,在信息收集阶段,信息收集者只要不使用欺诈或胁迫等刑法禁止的行为,其收集信息的行为则不构成犯罪。即使在信息收集阶段个人信息拥有者和收集者之间发生争议,也要尽量使用前置法(民法或行政法)来解决争议。

相比起个人信息的收集,个人信息的处理会直接造成信息主体法益的受损,所以,在个人信息的分析处理阶段应采取严格、区分的刑事政策。信息使用者具有合理使用、分享和流通信息的权益,但此种权益不能滥用。所以,刑法必须在保护信息使用者合法权益的同时,也要严格限制并处罚信息使用者的滥用权益行为。为此,必须对我国《刑法》第253条之一“侵犯公民个人信息罪”进行修订。根据我国《刑法》第253条之一“侵犯公民个人信息罪”的规定,该条文并没有明确“向他人出售或者提供的公民个人信息”是经过算法分析的可识别性个人信息还是原始取得的非可识别性个人信息。这种不区分直接导致的结果就是只要向他人提供任何一类个人信息都可能构成“侵犯公民个人信息罪”。所以,为了保护信息使用者的合法权益,同时又不失去权益滥用行为的刑法处罚,《刑法》第253条之一“侵犯公民个人信息罪”就要进一步明确“向他人提供的个人信息”的类型。

(二)人工智能算法个人信息利用的刑法行为主义规制

2019年发布的《数据安全管理办法(征求意见稿)》第17条规定:“网络运营者以营利为目的收集重要数据或个人敏感信息的,应当明确数据安全责任人。”人工智能从某种意义上说是一种能够自主学习、判断的算法[55]。智能社会,人类把选择权和决策权让渡于算法,算法取得了决策权和控制权。但是,算法的高度技术性,使算法的运行往往掌握在专业人士手中,这使得技术中立原则早已消失,算法并非绝对中立。在信息利用者通过人工智能算法分析信息生产者的个人信息时,刑法规制的中心应当立足于人工智能算法利用者的主观故意或过失。

具有主观故意并实施行为是构成侵犯公民个人信息罪的重要构成要件。信息使用者利用人工智能算法技术分析他人个人信息时,不得有故意侵犯信息主体个人信息的主观故意并实施行为,如果明知是属于他人敏感个人信息还继续使用并进行算法分析,应构成侵犯公民个人信息罪。如果因过错利用了他人敏感信息并进行分析,在收到他人的通知之后应立即停止对个人信息的进一步算法分析,收到通知之后仍不停止算法分析行为,信息使用者的行为应构成侵犯公民个人信息罪。

我国《刑法》第253条之一“侵犯公民个人信息罪”的规定并没有区分行为人在实施行为时是故意、过失还是过错,即“向他人提供公民个人信息时”对信息使用者的主观条件没有进行区分。此种对信息使用者主观条件的不区分直接导致的结果就是只要向他人提供了公民个人信息,即提供行为不管是故意、过失还是过错都构成侵犯公民个人信息罪。在智能社会,为了算法技术的发展和信息使用者信息利用权益的保护,不应扩大信息使用者行为的处罚范围。所以,我国《刑法》第253条之一“侵犯公民个人信息罪”应明确主观条件。

五、结语

智能社会,算法早已是社会发展的驱动器。人工智能算法的应用除创造了新的法益之外,还对个人信息安全造成了恐惧和不安。

所以,“加强个人信息保护已成为社会共识”[56]。

刑法作为最严厉的法,对人工智能算法技术下个人信息的保护问题也作出了回应。但是,我国刑法侵犯公民个人信息罪以个人信息权入法为基础,以信息的私权保障与利用为基本原则,导致了人工智能算法个人信息利用刑法规制的错位和刑法规制的提前。笔者认为,人工智能算法个人信息利用与个人信息安全刑法保护之间的此种紧张关系可通过以下路径加以解决。

第一,人工智能算法技术下个人信息的刑法保护,其本质是共同保护信息主体和信息使用者的利益。

第二,个人信息的拥有并非信息主体的绝对控制权,信息使用者也有安全使用信息的权益。所以,侵犯个人信息罪的传统法益应从权利转变为法益,即个人信息安全法益。

第三,刑法中的法益应在刑法中明文规定,在刑法尚未对个人信息安全法益作明文规定的情况下,考虑到信息主体和信息使用者对个人信息具有的利益,对人工智能算法个人信息利用的刑法规制和个人信息安全的刑法保护应从行为主义规制的进路出发,在个人信息利用的不同阶段和不同场景分不同的情况进行刑法规制。

首先,在信息利用的不同阶段,刑法应采取不同的刑事政策。在个人信息的收集阶段,为了使个人信息合理使用、分享和流通,进而保护信息使用者的合法权益,刑法应采取相对宽松的刑事政策。在个人信息的分析和处理阶段,刑法应采取严格、区分的刑事政策,即除了限制信息使用者滥用权益行为之外,还要保护信息使用者的合法权益。为此,对《刑法》第253条之一“侵犯公民个人信息”中的“向他人提供的个人信息”的类型进行进一步明确。

其次,根据信息利用的不同场景,区分信息使用者的故意或过失。但是,《刑法》第253条之一“侵犯公民个人信息罪”的规定并没有区分行为人在实施行为时是故意、过失还是过错,即“向他人提供公民个人信息时”对信息使用者的主观条件没有进行区分。所以,我国《刑法》第253条之一“侵犯公民个人信息罪”应明确主观条件。

参考文献:

[1]米歇尔·福柯.规训与惩罚[M].刘北成,杨远婴,译.北京:生活·读书·新知三联书店,2013:2.

[2]张文显.构建智能社会的法律秩序[J].东方法学,2020(5):7.

[3]贝尔纳 J D.科学的社会功能[M].陈体芳,译.北京:商务印书馆,1982:317.

[4]霍金.让人工智能造福人类及其赖以生存的家园[J].科技中国,2017(6):87.

[5]顾理平.无感伤害:大数据时代隐私侵权的新特点[J].新闻大学,2019(2):25.

[6]维克托·迈尔-舍恩伯格,肯尼思·库克耶.大数据时代:生活、工作与思维的大变革[M].盛杨燕,周涛,译.杭州:浙江人民出版社,2013:57.

[7]张宝新.从隐私到个人信息:利益再衡量的理论与制度安排[J].中国法学,2015(3):46.

[8]VALENTINE S. Impoverished Algorithms: Misguided Governments, Flawed Technologies, and Social Control[J]. Fordham Urban Law Journal,2019(2):365.

[9]齐延平.论人工智能时代法律场景的变迁[J].法律科学,2018(4):38.

[10]郑智航.人工智能算法的伦理危机与法律规制[J].法律科学,2021(1):15.

[11]陈昌凤,霍婕.权力迁移与人本精神:算法式新闻分发的技术伦理[J].新闻与写作,2018(1):63.

[12]卡尔·夏皮罗,哈尔·R·范里安.信息规则:网络经济的策略指导[M].孟邵莉,牛露晴,译.北京:中国人民大学出版社,2017:2.

[13]莫雅娴.算法推荐新闻与个人信息保护的冲突和平衡[J].编辑学刊,2019(5):41.

[14]黄忻渊.用户对于算法新闻的认知与态度研究——基于1075名算法推荐资讯平台使用者的实证调查[J].编辑之友,2019(6):65.

[15]范为.大数据时代個人信息保护的路径重构[J].环球法律评论,2016(5):93.

[16]LANDAU S. Control use of data to protect privacy[J].Science,2015(6221):504-506.

[17]张忆然.大数据时代“个人信息”的权利变迁与刑法保护的教义学限缩——以“数据财产权”与“信息自决权”的二分为视角[J].政治与法律,2020(6):63.

[18]The World Economic Forum. Rethinking Personal Data: Trust and Context in User-Centred Data Ecosystems[R/OL] (2014-05-01)[2020-01-12].http://www3.weforum.org/docs/WEF_Rethinking Personal Data_Trustand Context_Report_2014.pdf.

[19]CHENEY-LIPPOLD J. We Are Data: Algorithms and the Making of Our Digital Selves[M]. New York: New York University Press,2017:141.

[20]LUSTIG C,NARDI B. Algorithmic Authority: The Case of Bitcoin [J].Hawaii International Conference on System Sciences,2015(48):743.

[21]喻海松.《民法典》視域下侵犯公民个人信息罪的司法适用[J].北京航空航天大学学报,2020(11):2.

[22]DODD J D. Data Security Law-State Statutory Requirements for Protecting Personal Data[J].American Journal of Trial Advocacy,2015(38):623.

[23]刘艳红.以科学立法促进刑法话语体系发展[J].学术月刊,2019(4):94.

[24]程啸.民法典编纂视野下的个人信息保护[J].社会科学文摘,2019(11):71-73.

[25]李永军.论《民法总则》中个人隐私与信息的“二元制”保护及请求权基础[J].浙江工商大学学报,2017(3):10.

[26]王利明.论个人信息权的法律保护——以个人信息权与隐私权的界分为中心[J].现代法学,2013(7):66.

[27]姚建宗.新兴权利研究[M].北京:中国人民大学出版社,2011:7.

[28]王利明.论个人信息权在人格权法中的地位[J].苏州大学学报(哲学社会科学版),2012(6):70.

[29]程啸.论大数据时代的个人数据权利[J].中国社会科学,2018(3):111.

[30]李震山.人性尊严与人权保障[M].台北:元照出版有限公司,2000:288.

[31]严鸿雁.论个人信息权益的民事权利性质与立法路径——兼评《个人信息保护法》(专家建议稿)的不足[J].情报理论与实践,2013(4):44.

[32]刘艳红.侵犯公民个人信息罪法益:个人法益及新型权利之确证[J].中国刑事法杂志,2019(5):24.

[33]李怀胜.公民个人信息保护的刑法扩展路径及策略转变[J].江淮论坛,2020(3):118.

[34]蒋玲.刑法中“违反国家规定”的理解与适用[J].中国刑事杂志,2012(7):30-37.

[35]王皇玉.论贩卖毒品罪[J].正大法学评论,2005(84):225-275.

[36]周赟.新兴权利的逻辑基础[J].江汉论坛,2017(5):115.

[37]孙山.寻找被遗忘的法益[J].法律科学,2011(1):60.

[38]周斯佳.个人数据权与个人信息权关系的厘清[J].华东政法大学学报,2020(2):89.

[39]申卫星.论数据用益权[J].中国社会科学,2020(11):110-131,207.

[40]李建新.两岸四地的个人信息保护与行政信息公开[J].法学,2013(7):95-104.

[41]李永军.论我国民法典上用益物权的内涵与外延[J].清华法学,2020(3):85.

[42]徐凯.抽象危险犯正当性问题研究——以德国法为视角[M].北京:中国政法大学出版社,2014:135.

[43]田宏杰.刑法法益:现代刑法的正当根基和规制边界[J].法商研究,2020(6):78.

[44]京特·雅各布斯.保护法益?——论刑法的合法性[G]//当代德国刑事法研究:第1卷.赵书鸿,译.北京:法律出版社,2016:13.

[45]伊沃·阿佩尔.通过刑法进行法益保护?——以宪法为视角的评注[G]//当代德国刑事法研究:第1卷.马寅翔,译.北京:法律出版社,2016:49.

[46]陈景辉.权利的规范力:一个对利益论的批判[J].中外法学,2019(3):585.

[47]赵秉志.中国刑法改革与适用研究:上册[M].北京:中国人民公安大学出版社,2016:454.

[48]任颖.数据立法转向:从数据权利入法到数据法益保护[J].政治与法律,2020(6):140.

[49]凯尔森.法与国家的一般理论[M].沈宗灵,译.北京:商务印书馆,2013:49.

[50]姚万勤.高利转贷除罪化实证研究[J].政治与法律,2018(3):39.

[51]克劳斯·罗克辛.德国刑法学 总论:第1卷——犯罪原理的基础构造[M].王世洲,译.北京:法律出版社,2005:23.

[52]于冲.数据安全犯罪的迭代异化与刑法规制路径——以刑事合规计划的引入为视角[J].西北大学学报(哲学社会科学版),2020(5):94.

[53]张尼,张云勇,胡坤.大数据安全:技术与应用[M].北京:人民邮电出版社,2014:62-72.

[54]熊琦.“算法推送”与网络服务提供者共同侵权认定规则[J].中国应用法学,2020(4):126.

[55]郑戈.算法的法律与法律的算法[J].中国法律评论,2018(2):77.

[56]张力,黄鑫.大数据背景下个人信息保护的公私法衔接[J].重庆邮电大学学报(社会科学版),2021(1):47.

Artificial Intelligence Algorithm Personal Information Utilization Criminal

Regulations and Personal Information Security Criminal Law Protection:

From New Rights to New Legal Interests

MAIMAITI Usman1, ABUDUMIJITI Wumaier2

(1. School of Management, Xinjiang Agricultural University, Urumqi 830052, China;

2. School of Politics and Law, Xinjiang Normal University, Urumqi 830054, China)

Abstract:

In the intelligent society, the protection of personal information in criminal law is based on the entry of personal information right into the law, and takes the protection and utilization of private rights of information as the basic principle, which leads to the dislocation and advance of the regulation of criminal law on the utilization of personal information by artificial intelligence algorithm. When artificial intelligence uses personal information for algorithm analysis, in addition to the personal information right, the information user should also have the information usufruct. Therefore, the criminal protection of personal information must start from the right theory and go beyond the right theory, and return to the personal information security legal interests shared by the information subject and the information user. However, the criminal law has not clearly stipulated the legal interests of personal information security. The criminal law regulation and criminal law protection of artificial intelligence algorithm personal information utilization should consider the respective interests of information subjects and information users on personal information, and carry out criminal law protection and criminal law regulation on personal information and artificial intelligence algorithm personal information utilization from the perspective of situational behaviorism regulation.

Keywords:artificial intelligence; personal information; criminal law protection; criminal law regulation

(編辑:刘仲秋)

收稿日期:2021-02-21修订日期:2021-06-15

基金项目:新疆维吾尔自治区文科基地重点项目:新疆未成年人犯罪早期预防机制研究(XJEDU2017RI014)

作者简介:

麦买提·乌斯曼,副教授,法学博士(博士后),主要从事人权法和刑法学研究,E-mail:mamat2002@163.com;

阿不都米吉提·吾买尔,副教授,法学博士,主要从事刑事诉讼法研究,E-mail:23600348@qq.com。

猜你喜欢
刑法保护刑法规制个人信息
保护死者个人信息 维权要不留死角
敏感个人信息保护:我国《个人信息保护法》的重要内容
浅论非法使用个人信息的刑法规制
主题语境九:个人信息(1)
以司法实务为视角论传销的刑法规制
我国行贿犯罪的刑法规制
食品安全犯罪的刑法规制
论对代孕行为中遗传基因的刑法保护
网络游戏的虚拟财产的法律性质及其刑法保护
浅述非法利用信息网络罪的相关问题