智能传播时代信息传播的隐忧与规避路径

2020-11-16 09:41陈丹萍
新闻世界 2020年11期
关键词:信息传播

陈丹萍

【摘    要】智能传播时代,信息传播领域发生了新的转变。然而,现有技术的智能化程度以及技术应用的规范仍存在缺陷。本文认为现有智能技术在信息传播领域的应用可能存在降低用户搜寻有用信息效率、助推情绪化内容扩散与诱发群体极化、稀释用户自主选择权与助长“信息茧房”现象等信息传播隐忧。为此,尝试从平台、技术、用户、法律四个方面找寻合适的规避路径,以期推动智能技术在信息传播领域的良性应用。

【关键词】智能传播时代;信息传播;传播伦理

为进一步推动我国经济转型升级,实现产业高端化发展,近来国家愈发重视大数据、云计算、人工智能、区块链等新型基础设施建设,强调通过技术创新,找寻新的经济增长点。2018年,我国将“加强新一代信息基础设施建设”列入2019年的政府工作报告。2020年3月,中共中央政治局常务委员会提出,要加快5G网络、数据中心等新型基础设施建设进度。2020年6月,国家发改委提出,要以新发展理念为引领、以技术创新为驱动、以信息网络为基础,打造产业升级、融合、创新的基础设施体系。

随着国家对新技术基础设施建设步调的加快,智能技术也在加快向信息传播领域的渗透,大数据、云计算、物联网、人工智能等技术在信息传播领域的应用愈发普及。自此,信息传播领域迈向了智能传播时代。回顾信息传播领域的发展历程,不难发现每一次技术进步都会带来信息传播领域的巨大变革。然而,现有技术的智能化程度以及技术应用的规范仍存在缺陷,智能技术在信息传播领域的应用也存在技术风险,可能会给信息传播领域带来新的隐忧。为此,探讨智能技术应用带来的信息传播隐忧,及时找寻合适的规避路径,有助于推动智能技术在信息传播领域的良性应用。

一、技术逻辑影响信息内容

如今,人类迎来信息爆炸式增长的时代。以YouTube为例,其每分钟就有多达400小时的视频上传量,每天就有高达10亿的视频播放量。[1]面对海量信息,智能技术能够通过明确、有限的计算过程,迅速得出可行的方案,有效提高信息生产与分发的效率。然而,技术逻辑也深刻影响了信息内容的生产逻辑、分发逻辑、语言风格、评价标准等。

随着网络信息的爆发式增长以及受制于移动设备屏幕的空间限制,人们主要通过阅读标题进行信息内容的筛选。同时,由于智能技术会依据用户的历史使用数据,向其进行内容推荐,并对点赞率高的内容进行推送和扩散。因此,标题能否迅速抓住用户眼球,将严重影响用户点击率、点赞率,甚至是信息内容的进一步推送。因此,在技术逻辑影响下,平台或将更愿意生产迎合用户浅层次、娱乐化需求的产品。

此外,用户也成为内容的“把关人”之一。以Netflix为例,Netflix通过技术升级,推出了个性化海报推荐功能,即算法会根据用户以往的观看喜好,预测并抓取用户可能感兴趣的剧中的某一角色或场景作为电影推荐封面图,使得不同用户看到不一样的电影推荐封面图。借助电影推荐封面图的强烈视觉冲击,吸引用户眼球,促使用户点击观看。而Twitter则开发了图片自动裁剪机器人,用以识别图片中可能引起用户关注的兴奋点,并通过对预览图片进行自动裁剪,贴近用户的阅读兴趣。随着智能技术向信息传播领域的不断渗透,平台将越来越了解用户兴趣,越来越懂得如何吸引用户的注意力。未来,随着智能技术应用的普及,全方位、个性化、定制化的内容生产和分发模式也将愈发普及。

二、智能技术应用引发的信息传播隐忧

(一)降低用户搜寻有用信息的效率

由于算法运作过程的明确性和固定性,算法会依据既定的规则来进行信息分发,即为短时间内获得更高用户点赞率的内容提供更多的推送机会。这无形中也给平台一个利用技术规则的机会,即内容只要能够在短时间内获得一定的点赞数,达到平台推荐机制对点赞率的要求,就能获得更多平台的推荐,实现内容的大规模扩散。这潜在诱发了“标题党”现象,使得网络中可能出现更多夺人眼球、猎奇、聊天式的标题,用户往往无法通过单纯的阅读标题了解文章的具体内容。例如,《惨不忍睹!快告诉你身边的人要小心……》《14亿人都不知道的真相,历史的血泪》《父母的健康握在你手里!有父母的都看!》《20条经验总结5000年文化精华,不看后悔》《50个建议!做到的人都是亿万富翁!》等标题。实际上,算法逻辑迎合了人们的阅读兴趣,但无意中也为部分价值不大的信息增加了传播机会,降低了人们迅速、准确地找到对自己有用的信息的效率。

(二)助推情绪化内容扩散与诱发群体极化

智能技术会依据用户对信息的点击量、观看时长、观看速度、内容评分、用户的搜索记录、观看历史、人口统计学信息与地理位置等数据,进行信息内容的智能排序和推荐。在技术逻辑影响下,平台很容易更多地关注事件的热度,而将受众面不广、热度不高、没有上过热榜的话题剔除在外,即使该话题可能具有很高的公共价值和现实紧迫性。同时,技术逻辑还容易助长平台与算法进行“共谋”,利用“尖叫效应”,生产和传播更多情绪化的信息内容,以获得更多的流量和更高的点击率。北京航空航天大学许可教授在研究了新浪用户于2010年4月到9月内发布的约7000万条微博数据后,发现愤怒是网络上最容易传播的情绪。在网络传播这种弱连接的情况下,愤怒比其他情绪更具穿透性。因此,技术逻辑潜在地助长了平台在网络上生产和传播更多的情绪化的内容,使情绪化的表述和观点充斥网络。同时,在智能技术的推荐机制作用下,用户会越来越多地接触到具有情绪偏向的信息。于是,用户对于现实的态度和判断可能会发生扭曲,诱发群体极化。

(三)助长“信息茧房”现象

在技术逻辑影响下,受众面更广、热度更高、上过热榜的话题更容易持续得到人们的关注。而那些关注社会边缘群体、具有公共价值、前瞻性、预测性的内容,则很可能被排在用户信息推荐列表的后面,进而被淹没在信息海洋之中。此外,智能技术主导下的精准分发,也使得用户熟悉或者乐于阅读的同类消息被反复推送。虽然用户所获得的内容更加个性化、更加符合自身的观看习惯和阅读偏好,但是其对信息的自主选择权也在逐步减少。例如,Facebook推出了一种信息推送方式,即以用户可能感兴趣为前提,优先向用户推送其朋友发布或看过的消息。该推送算法使得用户与其朋友关注的东西越来越像,也使得用户信息接收维度和视野变窄。为此,智能技术在迎合用户阅读兴趣的同时,也造成了“过滤气泡”现象,削弱了用户对信息的自主选择权利,将用户“囚禁”在个人化的信息世界里,难以对现实形成全面、客觀的认识。同时,假若用户媒介素养较低或者自制力不够强,就很容易沉浸于平台不断推送的符合自身阅读喜好的同类型信息之中,进而形成“信息茧房”现象。

三、智能传播时代信息传播隐忧的规避路径

(一)平台:责任意识与平衡报道

目前,人工智能的发展水平仍处于中人工智能阶段。[2]人工智能仅在满足强封闭性准则的场景中,才能够大规模运用。[3]为此,在信息传播这种开放性、主观性很强的领域,智能技术的应用必然存在技术风险。因此,平台对智能技术应用的把关十分重要。一方面,为了避免恶搞、猎奇、情绪化、片面化的信息内容充斥网络,为用户提供更多有价值的信息内容,平台应该提高责任意识,重视人工编辑岗位的增设,以提高信息审核质量,弥补智能技术的不足。例如,Apple News坚持在算法时代雇用人工编辑来挑选内容,以保障信息内容的质量,为用户带来更多细节详实、观点全面的新闻。YouTube则通过内容评级员对视频内容进行评级,降低争议性视频出现在推荐列表中的概率。人工编辑介入,能够帮助用户剔除部分标题夺人眼球、却言之无物的信息,帮助用户更高效地获得有用信息。另一方面,平台还应该重视平衡报道。通过人工纠偏,调节算法设定,为用户推荐一些与用户既有阅读喜好不同的内容,扩大用户自主选择范围。例如,《卫报》尝试开辟了“戳破泡泡”(Burst Your Bubble)专栏,为不同派别的用户提供不一样视角的观点,让用户感受到真实世界的多面性,避免“回音室效应”以及群体极化现象。

(二)技术:技术完善与技术辅助

要更高效地解决信息传播伦理问题,一方面,应该注重技术完善,防范于未然,避免出现人工智能系统的漏洞,加剧信息传播过程中的伦理风险。重视对人工智能进行人性化特征训练,使其更加人性化。例如,在雅虎,训练师会训练人工智能的语言处理系统,使其能够理解人类语言的字面意思之外的深层含义。同时,需要安排人工智能安全工程师,以预测人工智能系统的失误,及时修补技术漏洞。此外,由于记者出身的人工编辑具有更好的新闻判断力,技术人员应该重视与人工编辑的沟通,积极采纳其对于技术修改的建议。另一方面,还要积极利用技术辅助。例如,Facebook借助算法识别标题和内容不匹配的文章,并给予降级。谷歌浏览器推出“逃离泡沫”(Escape Your Bubble)插件,根据用户既有的阅读习惯,反向为用户推荐其阅读偏好之外的内容,避免出现“信息茧房”现象。此外,平台还可以尝试借助情感计算技术识别网络语言的情绪偏向,对信息内容的情绪进行识别和监管,及时了解人们对事件的态度,主动纠偏,避免情绪化内容的扩散和群体极化现象,维护网络空间的清朗。

(三)用户:提高媒介素养与正确引导智能技术

莱文森认为,技术发展的趋势是越来越像人,技术在模仿、复制人体的感知和认知模式。[4]算法偏见的背后,其实是人类自己的偏见。微软曾推出名为Tay的人工智能聊天机器人,该机器人仅上线一天就下架了。原因是,该机器人在与人对话过程中,学会了辱骂人类和发表带有种族歧视的言论。通过机器学习,人工智能能够在与人类交流或者为人类服务的过程中,习得人类的优点和缺点。有鉴于此,一方面,用户应该有意识地提高自身的媒介素养,并在使用人工智能提供的服务时,主动给予智能程序正确的符合社会价值观的引导。另一方面,为了避免“信息茧房”现象的出现,用户应该避免一味依赖算法推荐的信息内容,主动尝试戳破“过滤气泡”,跳出自己既有的阅读偏好范围,有意识地涉猎不同的观点,进而引导算法为我们推荐更多元化的信息内容。

(四)法律:法律监督与第三方监督

智能技术的机器学习过程隐而不现,仿佛处于“黑箱”之中,这导致智能技术的运作过程极易产生难以预测的系统性偏差。为了避免这种情况,应该加强对智能技术应用的监督和管控。一方面,政府应该重视这方面法律规则的制定。例如,2018年5月25日欧盟发布了《通用数据保护条例》(以下简称《条例》)。《条例》中规定了数据主体具有知情权,即数据控制者必须向数据主体说明其个人数据是如何被收集和处理的。同时,《条例》还规定了数据主体具有反对权,即数据主体有权拒绝数据控制者基于其合法利益处理个人数据,以及有权拒绝基于个人数据的市场营销行为。[5]此外,也有部分平台已经尝试向用户解释它们算法设计的合理性。例如,2019年6月,YouTube宣布公开部分算法的运作机制,并在推荐视频的下方显示该视频进入用户首页的原因。另一方面,还应该提倡引入第三方监督,让具有相应资质的、独立的第三方机构对平台的智能技术应用进行监督,为数据的输入、处理、输出等环节制定相应的标准和规范。避免因为智能程序运作的不合理,而助长恶搞、猎奇、情绪化、片面化的内容对网络空间的挤占。同时,在算法的设计中,注重提升用户的参与度。通过用户介入,更好地进行算法的调节与管控,帮助智能技术更科学地进行内容推荐,避免用户困于“过滤气泡”之中。鼓励用户协同参与平台内容的治理,避免过于情绪化的内容在网络上大肆扩散,进而导致群体极化的产生。

结语

如今,人类已经进入信息爆炸式增长的时代,面对海量信息,智能技术的应用极大提高了信息传播效率。未来,信息传播领域要实现更好、更快地发展也离不开智能技术的应用。但是,由于现有技术的智能化程度以及技术应用的规范性仍存在缺陷,智能技术的应用给信息传播领域带来了新的隐忧。为此,我们要做的不是批评智能技术,而是积极行动,以多方协作的方式,调节和管控智能技术在信息传播领域的应用,从而尽量规避智能技术应用带来的风险,让智能技术更好地为信息传播服务。

注释:

[1]全媒派.YouTube订阅打法2.0:算法与平台合力,迷思与忧思并存[EB/OL].2020-01-14,https://mp.weixin.qq.com/s/gk7tMS7itMulCsJHrkMj2w.

[2]袁洋.人工智能的民事法律主体地位及民事责任问题研究[J].中州学刊,2019(08):63-66.

[3]陈小平.封闭性场景:人工智能的产业化路径[J].文化纵横,2020(01):34-42+142.

[4]仇筠茜,陈昌凤.基于人工智能与算法新闻透明度的“黑箱”打开方式选择[J].郑州大学学报(哲学社会科学版),2018(05):84-88+159.

[5]王融.欧盟《通用数据保护条例》详解[EB/OL].

2016-07-20,https://mp.weixin.qq.com/s/fKo119uGsyr

7kCPFuZydjw.

(作者:广西大学新闻与传播学院硕士研究生)

责编:周蕾

三季度全国网信系统累计关闭违法网站8868家

10月19日,国家网信办公布的信息显示,三季度,全国网信系统依法查处网上各类违法违规行为,累计约谈网站1211家,警告网站954家,暂停更新网站489家,会同电信主管部门取消违法网站许可或备案、关闭违法网站8868家,移送司法机关相关案件线索1569件。有关网站平台依据用户服务协议关闭各类违法违规账号群组6.3万個。

国家网信办持续加强对省级网信办的指导,依法加大监管执法力度,压实网站平台主体责任,以营造清朗网络空间。

(摘自《北京青年报》)

猜你喜欢
信息传播
大数据背景下新媒体发展问题和对策
企业网络舆情分析及对策研究
网络时代舆论引导的时、度、效
基于新媒体的视觉设计研究
浅析人民网《图解新闻》栏目的信息传播实践
网络舆论对公共政策制定的影响
媒介融合背景下对新闻记者素质的要求
如何进行突发事件中的舆情引导