个性化算法的公共性缺失风险及重塑路径

2021-07-27 08:36朱一婷王威
新媒体研究 2021年5期
关键词:信息茧房数字鸿沟公共性

朱一婷 王威

关键词 个性化算法;公共性;信息茧房;算法权力;数字鸿沟

中图分类号 G2 文献标识码 A 文章编号 2096-0360(2021)05-0090-03

在当今“万物互联,人机共生”的时代背景之下,“人工智能+算法”已经走上了风口浪尖,成为社会讨论的核心焦点。那什么是算法?简单来说,就是由计算机来模拟某些人的思维和智能,通过“算法”来实现在存在一定的输入的条件下,由计算机来完成特定功能的输出,替代或增强人类的某些决策任务与能力[1]。算法正利用其高效性不断地渗入到政治、经济、文化以及社会生活的方方面面。在新闻传播领域,算法有着更为具象的应用,比如机器人新闻写作、分布式新闻生产、数据新闻等新闻生产方式的出现。在为社会带来一系列便利的同时,算法作为一种新型媒介正在重构社会的公共空间,并以其特有的权力重塑社会结构,这给达成社会共识,凝聚社会力量带来巨大的风险挑战。

1 个性化算法的公共性缺失风险

当下,算法最广为人知的是“个性化算法”这一名称,核心是以用户为中心,搭建起以关系范式为主的利基市场,力求商业价值的最大化,这也是其技术逻辑所在。而所谓算法的“公共性”就是算法与公共利益相关,通过其公共性来实现社会效益的最大化,而不是使商业利益凌驾于公共利益之上,从而实现维持社会秩序,凝聚社会共识的作用,而这正是基于算法的社会逻辑来思考的。但是,由于商业价值和社会价值的冲突,算法正深陷于个性化与公共性二元对立的“囹圄”之中。因此个性化算法的公共性缺失会带来一系列社会风险,容易导致整个社会的“圈层化”及“非理性化”,人们难以进行有效的社会沟通,从而蕴藏着对于社会秩序的威胁。

1.1 “信息茧房”下的网络群体极化

最早研究网络群体极化现象的是美国哈佛大学教授凯斯·桑斯坦,他认为网络群体极化现象是部分人初始状态时对某一话题存有偏向,经过“交流、讨论与阅读等”,这类人朝着原有方向继续偏移,最后形成更加极端与固执的认知[2]。智媒时代,个性化算法无疑成为网络群体极化现象的加速器。个性化算法通过对用户画像进行精准描绘,以打造“千人千面”的内容使用体验,将用户从冗余信息中“拯救”出来,节约其时间成本并构建贴近用户的沉浸式体验,最终将用户牢牢控制在平台或媒体的信息网络中。表面上看,这是一项惠及普罗大众的社会性进展,但在算法所构建的信息空间中,由于商业逻辑大于公共逻辑,所以追求个性化不仅无法构建起公共空间,反而会因为信息壁垒的存在而导致个人或群体把自我禁锢在狭小的“信息茧房”之中。受困其中的人群由于同类信息和意见的“侵蚀”,认知行为逐渐趋同,极易诱发群体极化现象。在此情景之下,社会各个圈层之间因无法达成理性的沟通对话,从而导致公共空间无序化。

1.2 “算法权力”下的社会危机

在一个媒体和代码无处不在的社会,权力越来越存在于算法之中[3]。算法权力主要是通过其不透明机制实现的,即除了输入和输出端,人们无法知道算法的内部运行机制和原理。在此情境之下,由于“技术赋权”的天然权力以及数据、平台所附带的控制权,资本可以轻易地将自身的利益诉求植入算法,从而谋取利益最大化。其中就涉及“技术中立论”的问题,事实上,技术中立仅仅是个假象,技术无意识必然会导致价值的无意识植入,因此算法模型设计中的“歧视性设定”以及“价值偏向”等将成为社会发展进程中的“绊脚石”。当个性化算法应用到新闻生产与分发的流程之中时,算法所拥有的信息资源的配置权不断扩大,但与此相对的是责任机制并不清晰,这为算法黑箱提供了可乘之机,同时一些诸如民意操纵、种族歧视、性别歧视等潜在问题也被隐藏和掩盖起来。原本旨在通过算法的自主决策系统能够为人类社会生活各种事务提供公正、客观、可靠的算法推荐及生成机制,事实上正在改变社会秩序和规则。

1.3 “新数字鸿沟”下的阶层固化风险

“数字鸿沟”最早是由美国学者蒂奇诺1970年提出的“知沟理论”发展而来,特指在互联网时代,不同群体使用媒介的能力不同以及媒介内容获取行为的不同而形成的信息获取差异,与“知沟理论”相比,它弱化了不同社会阶层群体间信息形成的知识差距。然而在智能媒体这一时代背景之下,算法正在开辟新的、复杂的数字鸿沟,在个体的生活中以不可预见、往往被忽视的方式出现[4],同时将社会阶层固化的风险再次展现出来。个性化算法标签化信息本身就带有一定的“偏见”色彩,它将不同的人群分化开来,在一定程度上影响甚至控制着用户的信息接触与使用能力,想要弥合“数字鸿沟”愈发困难。比如“假靳东事件”,一名60多岁的女性在抖音平台上看到了“假靳东”账号,用靳东的动态画面配上其他声音,该女性就相信了这是真的靳东,并导致家庭关系出现裂痕。表面上看这是该女性缺乏网络骗局辨识能力所致,实质上是平台算法机制掌握了其受教育程度低、身处农村、缺少关爱等信息,从而为她精准推荐诸如此类的信息,这也就加大了她或者说此类人群与社会之间的鸿沟。因此,个性化算法加剧了社会各阶层间的不平等现象,想要真正实现社会公平和信息自由还要做出更大的努力。

2 探索多元的個性化算法公共性适配之路

如今,我们国家正处于社会转型期,各种新技术和新思潮的迭起,使社会各阶层的贫富差距加大,同时舆论领域日益呈现出两极分化的对立趋势,从而使社会陷入一种不稳定状态。因此,我们亟需转变算法技术使用的思维逻辑,寻找搭建个性化算法的公共性适配之路。

2.1 手握“缰绳”,明确算法伦理规制

俗话说“无规矩不成方圆”,算法也不例外,它犹如一把双刃剑,如若不在法律条文上对其予以规制,那么算法将如一匹“脱缰的野马”扰乱社会秩序。

当前国内外更多的是在人工智能及网络信息安全方面出台一些相关法律法规,然而对于算法本身还未有成形的规范。比如我国2017年施行的《网络安全法》以及2018年也开始实施的《信息安全技术个人信息安全规范》等法律,都对于用户数据的收集和使用等方面做了相应的规范,它们的确会对以数据为底层逻辑的算法使用产生一定的规制作用,但这些规范太过于宏观,无法解决复杂的算法伦理问题。相比之下,国外发达国家出台的关于人工智能和机器人伦理的规制更具有前瞻性,对于未来算法新闻法规的出台更具借鉴意义。譬如在人工智能作品的权利归属问题上,欧盟法律事务委员会建议欧盟委员会就与软硬件标准、代码有关的知识产权提出一个更平衡的路径,以便在保护创新的同时,也促进创新。同时,对于计算机或者机器人创作的可版权作品,需要提出界定人工智能的“独立智力创造”的标准,以便可以明确版权归属。由于近些年来算法已对社会产生结构性的变革,因此明确算法伦理规制是必然,也是趋势。

对于我国来说,明确算法伦理规制最为紧要的是以下方面。一方面,推行算法透明机制,在这一过程中,算法的设计者和应用者需要对算法在新闻领域中的生成和应用机制予以解释,公众有其知情权的必要性。同时各大平台必须定期发布算法透明度报告,公开算法的技术特征和主要技术内容,明确算法做出决策的过程,揭示算法在设计、应用和数据安全方面的技术要点以及相应风险。另一方面,明确算法机制的责任归属问题。当机器人生产出假新闻时,应该由新闻编辑还是算法设计者承担后果呢?同样,还有版权问题以及侵犯隐私等问题的责任归属。只有将这些法律条文进行细化,才能使算法以安全、透明、为人类做贡献的方向发展,当然这并不是说把算法关进了制度的“笼子”里,而是通过制定法律来促进算法的公共性发展。

2.2 摆脱唯“数据”论,以人本原则实现算法的多元性

算法并不是以技术中立性而独立存在的,它是与政治、经济、文化等共同构建的社会场域中互为影响。同时,算法的背后是人的意识,因此脱离了人去谈算法是完全不切实际的。由于算法以提供个性化信息为主要逻辑,因此其在社会整体性内容需求方面有所缺失,这就需要人来进行平衡。算法设计者可以人本原则不断优化算法,通过多种算法推荐方式的叠加来为用户带来多样化的信息需求,同时将公共性的价值观注入进算法程序之中,以帮助用户逃离“信息茧房”以及算法偏见、隐私泄露等伦理问题。目前我国技术公司所使用的主要是内容推荐、关联规则推荐及协同过滤推荐机制,其在不断完善之中,但归根结底尚未脱离开个性化的技术逻辑,即以用户为中心,采取数据至上的规则。比如抖音采取“赛马机制”,其主要由八级流量池所组成,当用户视频通过审核后会被丢入初级流量池中,之后算法技术会根据该视频的点赞量、评论量、转发量等数据情况决定是否推荐到下一级流量池中,虽然每升一级都要经过人工审核,但经过算法推荐过的信息已经窄化了工作人员的视野,选择权依旧掌握在算法的手中。事实上,国外媒体已经在算法公共性建构方面做出有益尝试,如英国卫报开设“刺破你的泡泡”专栏,华尔街日报设“红推送,蓝推送”模式等。因此摆脱唯“数据”论,在算法程序中加入公共性价值迫在眉睫。

2.3 因人而異的用户媒介“算法素养”

“媒介素养”是自互联网时代以来的一个老生常谈的话题,并且通常与用户相伴而生。在社会舆论众声喧哗的时代,提升用户的媒介素养被看作是平衡技术衍生问题的一剂良药。尤其随着智能时代的到来,算法为用户赋予了更多的权力,并解决其面对的海量信息与注意力资源无法适配的情况,但用户思维仍然停留在大众时代以媒体主导信息的定势中,因此,冲破原有的思维定势,培养用户的“算法思维”成为解决算法伦理问题的落点。

但媒介素养真有那么“神奇的疗效吗”?培养用户的算法思维又是一件很简单的事情吗?答案是否。之所以媒介素养会被予以重视,是因为无论媒体、平台、算法设计者等相关方面做出多大的努力,最终起决定作用的还是用户,如果用户自身不寻求改变,将会被束缚在个人狭小的圈层里而离社会公共空间越来越远。但在实践层面上,用户的社会阶层、知识背景等大不相同,归根结底是社会经济地位的不同,这会导致他们对媒介信息以及算法的接受能力大不相同。因此“提高媒介素养”这一论断本身就带有一定的偏见色彩,它针对的是高水平的知识性人才,并不是社会上的一般大众。这也意味着媒介素养的提升无法脱离社会运行机制,要想使其发挥作用,还需要因人而异,通过政府、社区、学校等社会各领域的介入制定切合实际的举措,而不是去空谈“媒介素养”。陈昌凤曾在算法的透明度相关论述上提到用户的话语权最容易被忽视,因而,在伦理原则的制定、伦理判断、伦理抉择以及信息公开等所有实施算法透明度的环节中,都要考虑用户的认知、态度与需求,这对促进“异质新闻/内容实践网络”中各主体的对话,改善各主体在伦理话语权方面的不平等具有重要意义[5]。

3 结语

随着科学技术的不断更迭,我们的媒介逻辑也随之改变,从Web1.0时代的内容连接到Web2.0时代的关系连接,再到Web3.0时代的价值连接,随之而来的是社会矛盾的出现以及结构的变迁。算法作为智能时代影响社会变革的重要因素早已渗透至社会生活的方方面面,如若不采取一定措施予以规制,其伦理问题将会成为社会发展的不稳定因素。因此,社会各攸关方亟需要转变思维逻辑,将视角从算法的个性化转向其公共性,在减弱算法伦理问题带来的社会影响的同时,使算法成为“有温度”而非“冰冷”的技术。

参考文献

[1]吴靖.“算法”具有自由意志吗?:算法主导社会行为背后的几个悖论[J].中国出版,2019(2):7-11.

[2]凯斯·桑斯坦.网络共和国:网络中的民主问题[M].上海:上海人民出版社,2006:47.

[3]Lash,Scott.Power after Hegemony:Cultural StudiesinMutation?[J].Theory,Culture & Society,2007,24(3):55-78.

[4]杨洸,佘佳玲.算法新闻用户的数字鸿沟:表现及影响[J].现代传播(中国传媒大学学报),2020,42(4):145-154.

[5]陈昌凤,张梦.智能时代的媒介伦理:算法透明度的可行性及其路径分析[J].新闻与写作,2020(8):75-83.

猜你喜欢
信息茧房数字鸿沟公共性
辅导员在大学生思政教育公共性中的角色探究
微时代大学生“信息茧房”效应干预
社交媒体时代下新闻产需变化刍议
“信息茧房”禁锢了我们的双眼
推进“信息化”消除“数字鸿沟”
“信息茧房”禁锢了我们的双眼(观察家)
数字鸿沟的视角下中国网络政治参与失衡研究
论大学图书馆公共性形成与发展
论政府的公共性及其实现