人工智能趋势下自动化行政的个人数据保护机制之构建

2020-09-10 07:22夏韵
信息技术时代·下旬刊 2020年5期
关键词:数据保护公民算法

自动化行政借助电子媒介开展行政活动,为行政效率的提高和行政流程的再造提供了可能性,而对人工智能技术的引入则使其应用实效进一步提升。但与此同时,人工智能趋势下的自动化行政亦显现出多方面的潜在风险,其中较为突出的是智能系统对信息供给的高需求为公民个人数据保护所带来的挑战,包括敏感个人数据采集常态化、智能系统之算法歧视缺乏有效监管等。2018年5月25日,欧洲联盟出台《通用数据保护条例》,对企业获取和使用个人数据作出体系化规制,也为我国自动化行政中个人数据保护机制之构建提供了参考。

一、概述

相较传统行政模式,人工智能趋势下的自动化行政显现出其独特的优越性,能够大幅提高行政行为的效率,促进对公共资源的合理配置,其特征是以自动化设备的运作过程而不必人为操作的程度来衡量。但人工智能技术在行政行为中的引入也并非全为裨益。人工智能中枢对行政行为之范式的深度学习及此后在个案中应用是以数据库的支撑为基础。如在人工智能的研发阶段,需要大规模的数据储备;人工智能的运行阶段,是为个人提供个性化服务的过程,是收集用户信息、生成新信息的过程。因此,当人工智能技术广泛应用于行政领域后,势必会对行政相对人的个人数据保护造成威胁。2018年5月25日,欧洲联盟出台《通用数据保护条例》(GDPR),对企业采集、处理、流通公民个人数据的行为作出了系统化的规制,也为我国自动化行政中个人数据保护机制的构建提供了参考路径。

二、个人数据保护视阈下自动化行政智能化的潜在风险

(一)常态化采集生物性识别数据

随着人工智能技术的发展,虹膜、面部信息等生物性识别数据的使用率有所提高,“刷脸支付”功能的推出更是将人脸识别技术推向了新一轮的应用高峰。在自动化行政领域,该技术亦逐渐扩大使用。例如,目前已有多个城市在交通管制中引入“电子警察”系统。毋庸置疑,这一系统的引入的确能够对交警部门起到有效的辅佐作用。然而,面部信息等生物性识别数据相较姓名、联系方式等个人信息具有其特殊性,此类信息的泄露具有不可逆性。以支付领域中的个人信息为例,当传统数字型密码泄露后,用户可通过修改密码的方式防止个人账户被盗用。但当可用于“刷脸支付”的面部信息被泄露后,公民很难采取措施逆转由此可能产生的不利后果。虽然目前的人脸识别系统多配备活体检测功能,仅通过照片很难破解。但当3D结构光技术逐渐发展后,未来通过对人脸结构光的解析运算和3D打印相结合将极有可能产生能够破解人臉识别系统的人脸面具,届时将使面部信息泄露带来的风险大幅提升。

(二)智能系统的技术性瑕疵缺乏有效监管

随着人工智能技术的日臻成熟,人工智能系统逐渐成为一个决策过程不可见的“黑箱”,机器学习模型的内部决策逻辑并不总是可以被理解的,即使对于程序员也是如此。算法黑箱的存在将导致作出行政决策的内部逻辑和依据出现不透明性。同时,人工智能系统已经被发现存在“算法歧视”问题。因此,当算法黑箱和算法歧视同时存在时,就将导致部分行政决策由于智能系统内部的算法歧视而在公民的个人数据间产生倾向性,产生对行政相对人不公正的后果,同时,这种不公正性又将因为算法黑箱而无法被行政部门和行政相对人所知晓,对行政法的合理行政原则和程序正当原则提出巨大挑战。

(三)存在过度使用个人数据之嫌

人工智能趋势下的自动化行政强调信息融通,各行政部门间建立信息联动机制,以期建立数据源最健全的人工智能中枢。然而,这种对公民个人数据采集后提供给其他部门进行二次使用的行为模式的正当性是有待考量的。例如,当公民以办理证件为目的同意某部门采集其面部数据时,该部门是否有权将采集到的信息归入智能数据库,使交警部门能够借助“电子警察”系统对违规行人的面部数据进行比对?而在前述对公民个人数据联动使用的情景中,显然已经明显不符目的限制原则。因此,当前自动化行政中对公民个人数据的处理方式存在过度使用之嫌,有权采集并不意味着有权控制数据之流通,行政主体在自动化行政中需厘清其处理公民个人数据的权限边界。

三、我国自动化行政中个人数据保护机制的构建路径

(一)确立行政主体的算法透明度义务

在构建自动化行政的法律规制时,应当确立使用自动化行政的行政主体的算法透明度义务。以行政许可为例,《行政许可法》第三十八条规定:“行政机关依法作出不予行政许可的书面决定的,应当说明理由。”在自动化行政的环境下,行政许可决定不再由行政主体直接作出,而是由智能系统作出。传统行政模式下行政主体作出行政许可决定的原因转化为自动化行政模式下智能系统作出行政许可决定的算法依据。据此,此时应对《行政许可法》第三十八条中的“理由”作扩大解释,即“理由”包括智能系统的程式逻辑、内部算法,否则将导致在自动化行政中该条款无法有效适用。此外,当存在算法歧视的潜在风险性时,不同行政相对人的个人数据被赋予或优或劣的倾向性,这意味着行政相对人在行政行为的实施过程中地位不再平等。而确立行政主体的算法透明度则一方面可以通过社会监督反作用于行政主体,促进其尽可能完善自动化行政的智能系统、尽可能规避算法歧视问题,促进行政相对人得到公平对待。

(二)构建行政相对人个人数据之被遗忘权

在不影响行政主体正常行使职能的范围内清除可能造成智能系统倾向性的过往数据,以良好的数据库基础支持自动化行政智能系统合理运作。此种对数据的合理清除即为被遗忘权,即权利主体享有要求义务主体立即清除与其相关的个人数据,而义务主体在没有正当原因的情况下不能延误清除数据主体个人数据的权利。自2012年欧盟委员会提出创建被遗忘权以来,其在多国司法实践中得到体现。构建个人数据之被遗忘权,不仅仅是出于数据隐私保护的需求,同时也是出于应对人工智能系统潜在技术性瑕疵的需求。

(三)注重个人数据权利之内涵微观化

我国目前关于保护公民个人信息的法律规制可见之于《侵权责任法》、《消费者权益保护法》、《刑法》及司法解释等多部文件中,碎片化现象严重,进而又导致无法对个人数据权利的权利内涵作出体系性的规定。据此,笔者认为在构建自动化行政的个人数据保护机制时,应当注重权利内涵微观化——即保障公民个人数据的法律规制应当细化體现在获取、使用、保存阶段中的不同权利,例如在获取数据阶段行政相对人要求其说明数据用途的权利、在数据使用阶段行政相对人要求数据在行政相对人此先说明的范围内使用的权利、在数据的保存阶段行政相对人要求在合理范围内行使被遗忘权的权利。如此方可使对行政相对人的个人数据保护机制能够真正产生实效,对各类侵犯行政相对人数据权利发挥有效规制作用。

参考文献

[1]张顺彬,孟然,李博:《对行政自动化的再思考》,《辽宁经济》2005年02期。

[2]雷悦:《人工智能发展中的法律问题探析》,《北京邮电大学学报(社会科学版)》2018年第1期。

[3]卢有学,窦泽正:《论刑法如何对自动驾驶进行规制———以交通肇事罪为视角》,载《学术交流》,2018年4月。

[4]李慧:《被遗忘权的本土化研究》,《法制博览》2018年10月.

作者简介:夏韵(1998.09-),女,浙江杭州人,学历:2017级本科生。

猜你喜欢
数据保护公民算法
中国公民分批撤离乌克兰
Travellng thg World Full—time for Rree
欧盟最严数据保护条例生效 违反将严惩不贷
欧盟“最严”数据保护条例生效
未成年人能不能上社交网络
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点
公民并积极着
公民生来有权说话:言论自由海报