智能推荐的法律问题及其纾解之径

2018-01-01 14:13晨,张
安徽警官职业学院学报 2018年6期
关键词:个人信息算法智能

雍 晨,张 冉

(西南政法大学,重庆 401120)

【关键字】智能推荐;算法偏见;隐私权;个人信息;自由发展权

一、智能推荐概述

在当今复杂的商业竞争中,企业必须变得更加协作、准确、同步、自适应和敏捷,以求能够迅速响应市场需求和变化。[1]因此,数据和信息正在成为许多企业的主要资产。拥有高效、有效的决策流程和正确的数据,并通过数据驱动的转化为有意义的信息,正成为企业运行更智能、更敏捷和更高效业务的主流流程。

智能推荐系统正是如此应运而生。它旨在向用户提供个性化的产品或服务建议,以处理日益增长的信息过载问题,改善客户关系管理,[2]为了实现这个目标,推荐系统通过挖掘用户的行为,研究和理解用户的兴趣,定位用户的个性化需求,并从中找到其与内容或应用的关系。换句话说,智能推荐就是通过人工智能的技术,分析用户的行为喜好,推荐用户感兴趣的内容,一方面帮助用户发现对自己有价值的信息,另一方面让信息展现在对它感兴趣的用户面前,[3]从而实现消费者与生产者的双赢。“今日头条”新闻推送、淘宝的“猜你喜欢”、微博的“关注推送”机制,均是如此。

个性化智能推荐系统设计建设由三步构成:第一,建立平台用户行为的召回模型,维度基于用户历史行为数据召回、用户偏好召回和用户地域召回来实现。用户历史行为数据召回基于用户历史浏览、点击、购买、评论、分享、收藏、关注等触点;基于用户偏好召回是基于用户归类画像与平台多屏互通融合;基于用户地域召回是基于用户地域的网格化来实现地域行为推荐算法。第二,召回模型匹配算法,得出与用户召回行为的匹配商品及广告信息。第三,平台针对匹配模型推荐结果的排序算法,实现自动匹配个性化推荐。

二、智能推荐与用户隐私

在大数据时代,世界上任何一个物体、行为、时间都可以形成数据,被记录保存形成庞大的数据库,平台则各种利用技术手段无需经过信息主体的同意,就能自由地收集、处理与利用个人信息,[4]甚至是不当披露、非法销售消费者个人信息。这对于我们用户的个人隐私保护来讲,是致命的危害。

(一)智能推荐与隐私权

1.用户信息的隐私权保护困境

很明显,从隐私权保护的角度看,用户网络浏览的痕迹、身份信息、购物偏好等等都属于公民隐私,而毫无疑问智能推荐的运用使用了我们的隐私。目前,规范运作的各种互联网传播平台都制定有隐私政策,但这些政策制定过程缺少与用户的“商讨”,公开性明显不足,所以彼此的权利义务很难对等。与此同时,这些隐私政策可能也被“明示”,但往往由于文字十分冗长,表达也比较含混。但遗憾的是。对于个人隐私的保护,我国信息隐私的法律保护并不完善:宪法对隐私权的保护没有直接性规定,一般认为其间接体现于宪法对公民的人格尊严、住宅以及通信自由和通信秘密的保护,即传统“隐私权”的定义似乎没有涵盖公民个人信息隐私。[5]并且对于隐私权的保护我国法律体系主要倾向于侵权法上的保护,而在智能推荐系统运作过程中,目前我们似乎也没有发现对于隐私信息使用导致不利后果发生的侵权问题。因此,如果以隐私权保护为视角,个人隐私信息还暂属于隐私保护的空白领域。

2.智能推荐的个人信息保护尝试

正如前文所述,目前通过隐私权对用户信息进行保护暂且行不通。那么通过对个人信息保护来实现用户信息的保护是否可行?《个人信息安全规范》第3.1条规定:个人信息是指以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人身份或者反映特定自然人活动情况的各种信息。在该种语境下,似乎网页浏览痕迹不算是用户信息。如此一来,自然出现平台钻空子的行为。虽然有学者指出,因为个人信息与多种权利相关,且保护难度大等各种因素以个人信息保护代替隐私权的保护并非明智之举。[6]但现有体系下,类似于浏览痕迹等隐私信息交由信息保护更为妥当,以来目前我国有以《网络安全法》为基础的信息安全保护体系,可以较为妥善的保护用户信息。但如需实现上述目的,个人信息的概念界定则应当进一步的改善,对于“可识别”这样的要求则有待商议。大数据和人工智能的时代,算法海量地收集、抓取和处理个人信息,借助大量的看似不可识别的个人信息却仍然可以精准地定位个人。因此,将个人信息定义放宽,将隐私信息纳入个人信息保护范围是最为合适的方法——禁止平台未经告知及用户同意而收集、使用用户历史浏览痕迹等隐私信息。

(二)跨平台间的用户信息保护

日常生活中,往往会出现这样一个现象:用户在某购物网站或某个搜索引擎上输入某一词条,此后,在别的购物网站或者网页广告栏里就会出现相关词条的商品或信息。甚至更为“危言耸听”的是,用户在私下讨论了某种商品或者某件事情以后,电商网站、网页新闻就会出现相关的推送。正如某位学者在“人工智能与法”论坛上所说的,“智能音响为什么能在你说出某个关键字的时候及时作出回应,因为他在无时无刻的监听、识别你所说的信息”。智能推荐也是如此。

任何浏览器运行时都会向目标网站发送大量的信息,如Cookie,IP地址及其他标准电脑信息。用户在浏览的过程相关痕迹就会被其他的网站读取,跨平台间的用户信息分享悄无声息,但却是一个无法回避的问题。正如对上文的分析,平台内的信息抓取已经引发了用户的隐私保护问题,那么跨平台间的数据读取更加隐秘不可发现,却更容易暴露个人隐私,爆发安全危机。所以理所当然这些情况都应当是严格禁止的或者是有选择的授权。所以,采用智能推荐的相关平台在为用户提供服务时,在关闭窗口之前,需要以明显的标识为用户提供一个选择,此次的浏览痕迹是否选择被删除,不计入智能推荐的数据抓取行列。更进一步的,在浏览界面设计一个选项:“此次浏览是否计入智能推荐或者设置智能推荐浏览模式”。在进入该平台界面的时候进行提示,保证用户充分的选择。这样,某些不愿意被记录的浏览痕迹就不在被收集。

三、智能推荐与用户自由权之辩

网络上信息的爆炸式增长以及新电子商务服务的快速引入,常常让用户不堪重负,导致他们做出糟糕的决定,选择的可用性并没有带来好处,反而开始降低用户的幸福感。[7]在这样的前提下,智能推荐系统应运而生,但我们需要考虑它是否会走向另外的一个极端,限制了用户的自由权。自由权是什么?究其性质应认定其为一项综合性权利,既是消极权利,也是积极权利。它应有两方面基本要求:积极方面—要求国家对个人发展提供条件;消极方面—要求个人发展不受非法、不正当及不合理的干预。因此,本文也将讨论两个方面:第一,智能推荐是否限制用户的自由选择;第二,智能推荐是否限制用户的自由发展。

(一)传统的非智能时代自由选择的限制

在讨论智能时代的自由权利问题前,我们会思考是否非智能时代的权利就更为自由呢?答案是否定的。“人人生而自由,但无往不在枷锁之中”,[8]非智能时代的选择甚至更窄,纸质印刷时代的资料文档都是经过编辑人工审核,购买平台限于所处地域,所有接触的资料也都是经过挑选之后呈现的。相比之下,在信息爆炸的时代,我们所接触的知识产品远多于过去。回溯推荐系统产生的本意,是使得用户能够从海量的信息、商品中挑选出更符合需求的以节省更多的挑选时间。如此一来,似乎没有讨论自由权的必要呢,也不是的。人类对自由的追求是无限的,我们总是追求在当下的条件下,达到最大限度的自由。“没有人愿意活了一辈子,到死才发现一切都是他人所安排的。”[9]这不是危言耸听,“因为人们总是会逐渐爱上压迫,崇拜那些使自己丧失思考的工业技术”,[10]久而久之,人们因为缺乏辩证的思维而导致判断力下降,群体意识将湮没个体意识。智能推荐使得这一想象在加速实现。

(二)智能推荐中的自由选择权

智能推荐有多种不同的模式,每个平台的算法都不一样,本文将其大概分为三类进行讨论:一类是通过对用户偏好进行大数据分析,为商家或者商品排序等,如淘宝、亚马逊等电商平台;二是根据平台运营者的管理权,自动做出的“最佳选择”,比如说百度等搜索引擎;三是纯粹的根据分析推荐,比如网易云的“今日歌单”、美团的“为你优选”。

通常情况下,我们不认为第三类纯粹的推荐信息的方式侵犯了自由选择权,因为用户仍有一定的自由选择空间。第二类,关于利用平台管理的权力为用户做出选择的此类平台,则一定程度上限制了自由选择。因为用户在获取信息时可以选择不同的模式:或者大量浏览各种信息,并从中找出对自己有用的部分加以利用;或者接受各APP经过筛选后的推荐信息,在相关信息中再次选择。第二类平台通过管理者的身份,在没有经过用户的授权下,自动屏蔽信息,本身就是对用户自主选择权的侵犯。例如高德地图,智能的为你选择了路径最短或者时间最少的路线,但就如用户抱怨的一样,用户想要走高速路线呢?可以优先推荐最短路线,但是没有高速路线这个选项就是对用户自由选择权的限制。至于第一类的商品排序问题,仅仅是基于算法进行的排序,不认为其存在对自由权的限制,但是排序问题可能会引发算法偏见,本文在下一章将会详细讨论。

(三)智能推荐与用户的自由发展权

如今的互联网平台,包括信息互换平台、新闻类客户端、搜索引擎在往往会使用人工智能技术为用户提供智能推荐,因为这是对于企业锁定用户、推广产品的最佳选择。长此以往,智能推荐为用户营造了“个人日报”①美国知名教授桑斯坦曾经在《网络共和国》中描述了“个人日报”现象:在互联网时代,伴随网络技术的发达和网络信息的剧增,人们能够在海量的信息中随意选择自己关注的话题,完全可以根据自己的喜好定制报纸和杂志,每个人都拥有为自己量身定制一份个人日报的可能。转引自:喻国明:“‘信息茧房’禁锢了我们的双眼”,《环球时报》,2016年12月2日。,但是,这种“个人日报”式的信息选择行为会导致“信息茧室”[11]的形成。长期处于过度的自主选择中,失去了解不同事物的能力和接触机会,不知不觉间为自己制造了一个“信息茧房”。并且,因为智能推荐所构建的“信息茧房”,人们会加深对各自群体观点的认同,并抵触、害怕其他群体的观点,具备跨群体性知识的人会越来越少,群体间的不理解加深,最终造成群体之间的知识隔离。

智能推荐不断推送个人认可的东西并形成 “过滤气泡”②这个概念由Eli Pariser在2010年提出。,使人们只看到感兴趣的内容,使人们隔离在信息孤岛上,阻碍人们认识真实的世界。毫无疑问,这限制了用户的自由发展权。并且,精准的个性化资讯分发最大限度地保证用户看到的都是自己想看的同时,带来的回声室效应③回声室效应:在一个相对封闭的环境下,一些意见相近的声音不断被重复和加强,最终使得处于该环境下的大多数人都认为这些扭曲的观点就是事实的全部。也是不容忽视的。长期只接受特定的信息,只会让我们在自己狭小的圈子里自娱自乐、故步自封、放大了证实偏见④当我们主观上倾向于某一观点时,我们往往会主动或被动地去接收那些有利于我们观点的信息,而对于那些有悖于我们观点的信息,我们通常会选择忽视,这在心理学上叫做证实偏见。,它使得我们在由自己兴趣编织的笼子里只看到自己想看到的内容,只接收自己赞同的观点。长此以往,甚至将一个人逐渐推向偏执甚至极端。这完全影响了用户的个人成长和发展,特别是未成年人。发展权作为一项基本人权,已成为国际的普遍共识,在我国,众多学者也将发展权作为宪法赋予公民的一项基本权利。因此,对于智能推荐所引发的对于用户自由发展的限制或者误导,应当引起足够的重视。

四、智能推荐中的算法偏见

智能推荐的第二环节就是通过算法对收集的信息进行处理,这里就可能涉及到了算法偏见。算法偏见指大数据的决策结果不平等,对社会某些主体带有歧视,这是大数据时代不可避免的副产品。比如在谷歌搜索中搜索黑人会比搜索白人出现更多暗示犯罪历史的内容,还有2016年微软推出了人工智能聊天机器人,让她在和网友对话中学习怎么交谈,不到一天这个智能聊天机器人就充满了种族歧视,微软只得立即关闭了这个智能聊天机器人。而在智能推荐这个领域中,也出现的典型算法偏见。例如,经调查发现谷歌推送给男性高薪酬工作的比例远远高于推送给女性的比例。

(一)算法偏见产生原因剖析[12]

大数据分析的结果受制于相应算法的设定,某一算法可能就是社会某一领域的规则的反映,若是这一规则本身有一定的价值偏向,那么算法也就带有相应的偏见,就会使得计算结果具有偏差,比如智能推荐中设定用户浏览量大或者购买量大的就是优秀产品,这样的算法得出的结果就会推荐这些用户浏览量大的产品,但是这一评价标准可能本身就是存在问题的。这样的算法会导致某些高质量的小众店铺或者新开的店铺得到更少的机会展示在前几页,进而降低了产品被购买的机会,并且前述的结果又会通过算法进一步强化重复,或者店铺更倾向于购买广告席位,但这些开支最终会消费者身上,并且购物平台广告的审查并不会实质审查产品的质量。也就是说,最终会导致产品质量差的店铺花费更多的广告费用,强化出现的机会,最终产生劣币驱逐良币的结果。

(二)智能推荐的算法偏见影响

1.限制了信息提供主体的公平竞争

信息的传输过程应当是平等的,每个有效信息都应当平等地呈现给用户,具体的选择权应当交给用户。在市场经济体制下,所有的产品都有平等竞争的机会。但是,智能推荐系统的筛选,使得信息传递给用户的机会是不平等的,有些内容就会被优先推荐,有些内容会被置后,甚至是被屏蔽。而且这个过程中不仅仅是用户的偏好、社会热度等一般性的因素影响智能推荐过程,还有一些人为设定的影响因素,比如某些平台购物推荐系统会偏好自己和自己合作伙伴的商品或者收费推广,这些智能推荐系统使得所有的信息被用户所接收到的可能性是不均等的,作为本应中立的平台实质上对市场的平等竞争产生了影响。

2.影响了信息接收者的平等权

智能系统对信息的筛选使得不同用户收到的信息是不相同的,有的用户收取的信息质量较高,有些用户收取的信息质量较低,同时这种差异性的存在是推荐系统代替用户作出的选择而产生的,而这种选择不一定是客观的合理的,这些差异的存在并不是为了实现实质的平等而对机会平等作出的调整,不属于必要差异的范围,这就对用户的平等权产生了不正当的影响。如上文所举出的谷歌推荐给男性的高薪工作的比例远高于推荐给女性的,这就是一种算法偏见。

3.评价标准的异化

当前智能推荐的算法主要是通过浏览记录,交互行为等,计算出使用者的偏好,基于用户偏好以及社会热度进行相应的推送。这样的设定会对价值评价标准产生异化,甚至会对社会产生不良影响。评价标准并不能仅仅基于所谓的用户的喜爱偏好,还需要综合其他标准进行综合评价,比如商品的质量,要基于某些国家或者行业标准,舒适度,使用寿命等内容进行评价,再比如资讯消息还应当基于表达的思想,对读者的启迪引导等内容进行评价,仅仅基于社会热度和用户偏好所进行的评价一方面会使得真正优秀的内容不能被用户获取;另一方面也会使得信息提供者为获得用户的关注采取不光彩甚至是违反相应法律的行为。这就是算法偏见只在乎关注度而不关注其他方面导致的不良后果。

五、智能推荐的问题纾解建议——缓和的平衡

(一)平衡用户隐私数据收集与保护

根据隐私权的私法属性,私权利者有权禁止他人妨碍其对自己相关信息的支配。因此,平台在设计应用的时候,应当提供用户一个选择:是否接受建立在读取隐私数据的基础上而建立起来的智能推荐服务,以个人隐私换取数据搜索的便捷,保证用户充分授权。平台在收集用户信息前应当履行必要的提示义务,如在需要收集时进行弹窗提示并将变更条款醒目加粗或标红,同时应当赋予用户充分的选择权,而不是现有的“同意或者离开”的霸王条款。此外,用户同意使用智能推荐,并不意味这平台对其隐私数据的任意使用。其平台收集的数据应当限制在本应用中使用,而不能够擅自出售、授权其他平台使用。关于这一点,可以适用《网络安全法》第四十一条和第四十二条关于用户信息保护的相关规定①平台收集、使用个人信息,或者向他人提供个人信息应经被搜集者同意,不得默认用户同意收集隐私信息。并且不得泄露、篡改、毁损其搜集的个人信息。,使用、收集个人信息需要获得授权,并且有义务采取技术措施和其他必要措施,确保信息安全。

(二)建立平衡、多维度的推荐机制

过度的智能推荐会限制用户的自由发展以及一定程度限制用户自由选择权。但本文并不赞极端的做法而去禁止智能推荐,而是有选择的推荐、多维度的推荐。一方面,增强用户自由选择,充分保障用户选择是否接受智能推荐功能的权利。并基于用户使用过程中的体验,可以使其自由选择继续接受智能推荐功能或者变更推荐内容的多维度的自由选择权。此外,对于个体自由发展的保护,不能纯粹的依托纯技术手段,还需要监管团队对产品世界中价值观体系的建立和维护,以保障那些还不具备完整辨识能力的用户。另一方面,限制智能推荐的滥用,引入平衡推荐机制。正如《电子商务法》中第十八条规定①《电子商务法》第18条:“电子商务经营者在根据消费者的兴趣爱好、消费习惯等特征向消费者提供商品或者服务的搜索结果的,还应当同时提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。”,在进行智能推荐的同时,需要向用户推送与个人特性、爱好等无关联性的商品或服务。智能推荐不仅适用在电子商务领域,还存在于智能搜索、新闻传送等各个方面。借鉴《电子商务法》这一规定,扩宽适用范围,保障用户接受信息的完整、全面、均衡。这不仅为用户提供多样性的选择,避免“信息茧室”,防止证实偏见,同时也为在平台上经营的商家提供更为公平的竞争环境。

(三)增强数据审查和过滤,矫正算法偏见

算法的偏见是大数据的固有缺陷,是无法完全规避与消除的,这是源于人类对事物的认知局限。因此,最终也需要人工对商品、资讯等信息提供者所提交的信息进行审查,排除虚假违法信息。当然,这也不影响我们对智能推荐的算法提出更高的要求。

算法是大数据分析的黑箱,在算法层面违背法律和道德伦理很难被发现追踪,比如在智能推荐中就有平台利用自己的算法谋取利益,对那些交费的或者是具有商业利益关联的人进行优先推荐。所以,大数据公司要公布自身的算法源码,这样可以避免这些大数据公司因为某些利益追求而牺牲社会公平。当然,公开的内容可能会涉及到智能推荐系统制作公司自身的商业秘密,所以公开的方式应当是成立专门的审查监督机构更为妥当,这些公司只需要向专门的审查监督机构报告自身所设定的算法源码以及所使用的数据,由专门的审查监督机构进行判定,如此也可以避免一些公众知情与公司商业秘密的冲突问题。

智能推荐系统仅仅基于用户偏好进行推送是不合理的,单一的评价指标在现实中很难覆盖所有内容,所以要优化算法,提高算法的合理性,在科技可能实现的情况下,可以使用多项指标进行评定,使得推荐给用户的既是用户所喜好的,又是具有相应的价值的。要实现多指标评价体系,可以在多个指标之间设定相应的权重,这样的评价会更加客观也更加合理。

结语

在大数据时代,智能推荐的浪潮不可避免,但我们也要警醒,意识到其中可能产生的危害并尽可能避免。本文主要探讨智能推荐与个人权利之间的矛盾和问题:智能推荐对用户信息的收集对用户的隐私侵犯,“信息茧室”对个人自由发展的限制以及智能推荐中算法偏见所产生的不公平对待问题。本文提出了较为缓和的建议以平衡二者的矛盾,以求更好的运用智能推荐,便捷的获取信息,而不是成为科技的奴隶。

猜你喜欢
个人信息算法智能
防范电信网络诈骗要做好个人信息保护
个人信息保护进入“法时代”
哪种算法简便
主题语境九:个人信息(1)
警惕个人信息泄露
Travellng thg World Full—time for Rree
智能前沿
进位加法的两种算法
根据问题 确定算法
智能前沿