基于算法推荐机制的信息传播把关研究
——以“今日头条”为例

2020-11-14 17:12
声屏世界 2020年24期
关键词:今日头条过度个性化

信息爆炸时代,网络空间成为了信息生产、聚合、传播的主要阵地,无序且庞大的信息流量已经超出了人们所能承受范围且不断挑战人们的注意力和精力。在这样的背景下,今日头条APP率先应用算法技术,打出“你关心的才是头条”的口号,以用户的个性化需求为导向,围绕着核心算法构建了系统的传播机制从而完成一系列个性化推荐服务,帮助用户在信息大爆炸的时代里“减负”。但随着算法的进一步应用一些负面效应逐渐显露出来,信息茧房、过滤气泡、新闻价值观偏差、群体极化问题等显著问题普遍存在并被学界和媒体广泛关注和谴责。

这一系列负面效应是如何引发的,算法推荐是如何所发挥作用的,内在逻辑又是什么?只有理清问题发生的内在原因,挖掘出问题“根源”,才能进一步有效优化算法设计,优化平台技术设置和制度设立。如此,算法才能良性发展并在信息流动中起到更加积极高效的作用。

算法参与下的信息传播把关变化

一是结构上的变化。信息流通的把关由单环节变为双环节化。即原本由原有的信息生产审核环节把关加上由算法引导的信息扩散接收环节把关。新的变化下,平台管理者、算法、用户在信息扩散环节共同具有把关权力一起组成该环节的筛选机制。

二是把关主体的变化。网络的去中心化和技术赋权下,把关双环节化,传统的把关人角色单极化的模式被打破,把关主体变得多元化。在信息的扩散环节,算法和用户共同成为了具有动态化和互动性特点的“把关人”,当然特殊情况下平台管理者也可以通过设置关键词或“封号”等手段进行把关限制。而相比之下在此环节传统专业媒体的把关行为却极少甚至没有体现,因此从整个把关机制来看把关人的权力被逐渐分化,传统媒体的把关权逐渐下放至技术和用户。

把关变化引发的负面效应

把关变化引发的负面效应具体表现为“把关缺失”和“把关过度”两方面,在这两者的“相辅相成”相互作用下,负面效应显现。

负面效应之“把关缺失”。把关的缺失问题在整个把关机制中都所有体现,在信息生产审核环节最为明显。主要在两方面体现:

一是用户生产把关缺失。在聚合平台,专业生产内容仅是信息海洋中的组成的一小部分,除此之外还有庞大的UGC和PGC。技术赋权下个人头条号,企业头条号的设立,让普通用户和组织也拥有了内容生产权,但他们却没有像专业媒体一样的内容生产标准,没有各部门各层级的标准审核,也没有社会规范、法律法规、政治文化环境压力。他们有着相对宽松的生产条件,即使有平台的审核团队和算法的自动化审核,但由于一方面平台把关标准相对较低,一般情况下只要不涉及敏感话题,不当言论和“黄赌毒”等违法内容都可以被允许在平台流通。另外,惩罚标准也相对较低,只要不涉及以上内容一般都是发回重新修改,在上传次数上没有特别限制。另一方面,由于用户自身的媒介素养不高,容易粗制滥造,在版权意识和原创意识上也有所欠缺容易随意“复制粘贴”。因此,用户在生产上也容易出现把关缺失的问题使得生产随意化,从而表现出了显著的负面问题,如标题党、粗糙内容和同质化内容泛滥、侵权等问题。

二是编辑与算法审核把关缺失。在内容审核上,平台编辑和算法有把关决定权,他们的把关对象绝大多数是平台赋权下的UGC和PGC并共同决定它们是否能在渠道上流通。面对庞大的信息生产即使平台有审核编辑和算法共同把关也存在明显的把关缺失问题。对于平台编辑来说,一方面是庞大的信息量与有限的人力之间的矛盾,另一方面是多元化的内容生产领域与相对缺乏的专业媒介素养之间的矛盾。对于平台方面来讲,聚合平台始终是算法主导的信息自动化分发平台,其企业服务宗旨和围绕算法的个性化推荐而建构的平台机制就决定了平台的本质并非追求客观真实的媒体平台,而是追求高效率的企业平台。因此,依靠编辑来审核不会像媒体平台一样成为平台把关的主要方式,只能成为辅佐算法把关的备用手段负责少量的或者局部性的把关工作,而算法把关负责绝大多数的把关任务是平台的发展需要和本质特征。但算法审核的高效率也掩饰不了其自身的局限性。一方面算法只能识别一些在常规范围内的文字表达形式或图片形式达不到平台标准的内容,在真实性、价值观和内容质量上目前还无法有效识别判断,对于一些虚假低俗或者粗制滥造内容无法在审核环节阻断流通。另一方面算法把关机械化、固定化、标准化,对于一些非常规的表达无法有效识别,一些软色情、软广告或者非法宣传交易的内容容易进入传播环节。因此,表面上看在算法和平台编辑的双重把关下把关缺失现象难以出现,但实际上假新闻问题、内容低俗化、软色情软广告内容泛滥等负面效果显著并广为批评。

负面效应之“把关过度”。把关过度问题主要表现在信息扩散接收环节。在此环节,基于相似内容和协同过滤推荐原理的算法和基于个性化信息的用户成为了把关主体,打破了传统的把关机制和把关结构,将传统媒体的把关作用限制在生产发布前的环节中,最大程度地弱化了传统把关模式的把关效果,使得信息流动效果不再取决于传统媒体,而是算法和用户两者循环互动共同决定了信息的流动。也正因为如此,衍生出了“把关过度”的问题。把关过度主要体现在两方面:一是在流向上过滤筛选过度,过分突出局部,在流量上反复过度,形成闭环流动。二是群体把关,议程构建群体化。

应对和发展建议

一是针对把关缺失。把关缺失问题主要集中在信息生产审核环节,应该从生产制度和审核制度上入手。

首先,建立更为严格的生产准入标准和惩罚规则。建立更高的准入标准,筛选出具备一定媒介素养的用户生产者,可以从源头上有效减少粗制滥造的内容。不仅如此,还要建立完善更加灵活的审核制度和惩罚规则,定期排查违反平台规则的生产内容,限制相关生产者生产,对于发表审核不通过的内容的生产者,限制其发表次数。

其次,优化算法审核,建立灵活的把关规则。信息爆炸时代意味着光靠编辑审核是远远不足的,平台的企业性质也意味其无法像传统媒体一样建立极为标准化的把关,因此解决矛盾的最佳方式并非是大部分人认为的那样只要加大编辑雇佣就能解决问题,当然,增加审核人数确实必不可少也能在一定范围内缓解负面问题,但毕竟有限。最佳的解决方式还是应当依靠算法审核,但目前的算法技术也有一定的局限性,因此平台需要建立以算法把关为主,以编辑把关为辅的更为灵活的把关规则,同时平台也需要大力发展,深入优化算法技术使其更智能更有效识别。

最后,重视群体把关,依靠用户过滤。庞大的信息量要依靠庞大的用户群体来筛选,平台应该重视群体把关,善于利用群体用户的反馈实现不良信息的过滤。平台可以设置更为方便的反馈机制和有效的反馈奖励规则,比如在页面设计上使反馈功能更加凸显,让用户易于察觉方便反馈,在反馈规则上增加奖励让用户群体乐于反馈。

二是针对把关过度。把关过度问题主要集中在信息扩散接收环节,解决问题可以从算法原理和用户把关入手。

首先,削弱个性化推荐强度,以断续推荐取代连续推荐。算法的过度把关一定程度上也表现为个性化推荐强度过度。这种过度使得个性化的信息推送在流向和流量上呈现出输出内容类型固定化和连续反复的特性,影响着信息环境和个人信息环境。因此要缓解“信息茧房”等负面影响,应该从个性化的信息推荐强度入手从算法推荐原理上入手,适当优化算法使其推荐内容更加多样化,多元化,保持个性化定制但不以连续反复的方式推荐,可以断续推送,在推送内容、顺序、时间空间上灵活安排。在一定程度上削弱个性化推荐强度可以有效缓解负面问题。

其次,培养用户积极的把关能动性。积极地用户把关行为同样是缓解问题的有效方式,但目前绝大多数用户并没有把关意识,他们的阅读行为只是心理惯性和阅读惯性的驱使,他们可能清楚算法的个性化服务并懂得利用算法为自己更加方便获取信息服务,但他们可能没用意识到他们其实是自己的信息环境的把关人同时也是其他同他具有相同偏好的用户的把关人,在把关上具有能动性。因此,用户需要懂得和积极的利用把关权力,懂得通过反馈和举报限制不良信息的继续扩散或者通过评论区指出问题,让更多人发现问题、反馈问题实现“再把关”共同维护信息环境。而平台应该培养用户的这种把关能动性,通过更多样的平台结构和页面设计给予用户更为方便多样的把关功能选择和把关效果奖励,鼓励用户把关。

总结

把关双环节化和把关主体多元化是算法机制应用下把关变化的直接体现,“把关缺失”和“把关过度”则是把关变化的负面体现。“把关缺失”主要集中在生产审核环节,“把关过度”则更多的在扩散接收环节中体现,他们都有各自的发生逻辑,引发各自的负面效果在各。一些媒体和研究者过分强调技术的局限性忽视把关的能动作用,将一切归咎于技术从而全盘否定技术,另一些则过分强调把关的失误,忽视了技术所发挥的作用无法深入解释问题的内在逻辑,从而寄希望于加大平台的编辑雇佣数量。两种论点都具有偏差性,应该既要看到技术的有限性也要看到人的把关能动性,从技术和把关的角度来看待问题才能从根本上解决问题。

猜你喜欢
今日头条过度个性化
中药煎煮前不宜过度泡洗
过度减肥导致闭经?
坚持个性化的写作
希望你没在这里:对过度旅游的强烈抵制
新闻的个性化写作
上汽大通:C2B个性化定制未来
60亿收入进账但盈利仍未可知 “今日头条”创始人张一鸣底气何来
从“今日头条”看媒介融合
过度加班,咋就停不下来?
《今日头条》与《微信》的内容之战