向善向上:基于良性互动的算法新闻治理伦理研究

2021-03-22 09:19王仕勇樊文波
关键词:伦理公众算法

王仕勇,樊文波

(1.重庆工商大学 马克思主义学院,重庆 400067;2. 中国人民大学 新闻学院,北京 100872;3.太原师范学院,山西 太原 030012)

数字化已经成为社会的基本运行方式,以数字化为基础的算法已经成为影响社会运行的基础性规则,也是人工智能发展的核心驱动力和生产力。基于算法的数据收集与挖掘、分析与识别、处理与决策系统被广泛应用于社会各领域,极大地提高了社会的运行效率。算法已深度介入了人们的日常生活,影响着人们的在世状态,个体、群体、组织与社会间的思考和行为模式、交往和决策方式,乃至于社会秩序的生成和演化机制都发生了全新的变化。

对于新闻传播业而言,算法的兴起带来了一套完全区别于传统新闻传播业的结构性变化,人工智能通过机器写作重塑新闻生产流程,通过智能算法颠覆新闻分发方式,产生新的新闻传播模式,基于算法的信息传播机制已经深刻改变了人们的信息接收方式和阅读习惯。“今天的算法在一定程度上影响着新闻业的各个方面,从新闻制作的初始阶段到新闻消费的后期”[1],算法对新闻传播系统生态进行着多方位重塑。

算法新闻是与大数据最直接相关的新闻[2],被称为“新闻业的计算探索”,其创新本质是新闻传播业在算法工具和大数据环境下的流程再造和盈利模式重构[3],学者们也使用机器人新闻、机器写作新闻、自动化新闻等诸多概念来描述这一现象。以算法软件的引领性、数据资源的基础性、智能操作的自主性为特征[4],算法新闻在一定程度上解决了个人信息多样化需求与社会海量信息间的匹配性问题,提高了新闻传播的效率。在算法新闻逐渐成熟、拥有算法技术的互联网平台机构成为连接“信息”与“人”的纽带的同时,算法在新闻传播领域运用的过程中暴露出诸多问题[5],人们对其带来的如隐私侵犯、算法偏见、算法歧视、价值观分化、社群区隔等伦理问题表示出担忧[6],对算法新闻治理表现出高度关注。党的十九届四中全会通过的《中共中央关于坚持和完善中国特色社会主义制度 推进国家治理体系和治理能力现代化若干重大问题的决定》提出,要“建立健全网络综合治理体系”,“全面提高网络治理能力,营造清朗的网络空间”[7]。2020年12月,中共中央印发的《法治社会建设实施纲要(2020—2025年)》提出,要制定完善对“算法推荐、深度伪造等新技术应用的规范管理办法”,“加强对大数据、云计算和人工智能等新技术研发应用的规范引导”[8]。算法新闻治理无疑既是网络综合治理体系和网络治理能力的重要内容,也是法治社会建设的重要内容。

一、三对矛盾或冲突:算法新闻伦理研究的核心问题

算法正在对整个社会的空间、时间和权力关系进行重构。基于此,算法也成为学术界关注的热点话题,多学科对算法展开了不同侧面的研究。计算科学关注算法公式与统计模型,通过优化不同场景和条件下的算法计算力以提高算法优势和增强算法预测力;法学一方面正视算法的法律化趋势,运用法律来规制算法,另一方面聚焦促进法律规范与算法代码的有机融合,利用算法技术推动法律的算法化;公共管理学科探究算法影响社会运行的机制与过程;社会学聚焦算法设计者与技术参数、应用者与社会之间的互动关系和过程。正在形成的“算法社会”使得人们愈发对算法的“阴暗面”及其伴随而生的一系列问题加以关注,拉泽尔和格温纳等学者总结归纳出算法所伴生的九种风险性问题,这些问题包括:操纵、多样性减少、限制交流和表达自由、监控以及对数据保护和隐私的威胁、社会歧视、侵犯知识产权、滥用市场支配力、对认知能力和人脑的影响、越来越多的异质性以及人类主权和技术可控性的丧失[9]。算法风险的显现也引发了新闻传播领域关于“信息茧房”“回音室”“过滤气泡”“算法偏见”“版权侵犯”“算法共谋”等诸多关涉新闻传播伦理的讨论,这其中的核心是“算法黑箱”“算法霸权”和“算法操纵”问题。

(一)“算法黑箱”与新闻透明原则的矛盾

算法将新闻生产、流通中的各个环节推入“黑箱”[10],我们能够看到算法带来的结果呈现,但对其过程却难以把握,正如博格斯特所言,算法就如同“黑箱”一般,我们能够清晰地感受到它带来的影响,但却并不能对其内部一窥究竟[11]。隐藏在数据背后的算法十分隐秘和复杂,弗兰克·帕斯奎尔认为这些算法可能决定了企业的命运,对个人声誉有重要的影响,甚至对社会整体经济都会有所影响,尽管“企业参与者对我们的日常生活细节有前所未有的了解”,但我们自己“对他们如何利用这些知识来影响我们以及他们做出的重要决定一无所知”[12]。算法的隐秘性源于算法是互联网商业技术公司的高度商业机密[13],作为商业机密高度保密的算法自然不会轻易对外公布,即便是在互联网平台机构内部,除极少数核心员工外,其他员工也很难了解算法究竟是如何运作的[14]。算法的复杂性还在于算法的自主学习、决策能力的智能化,包括算法的编写者也无法预测算法最终的输出结果。对于普通用户来说,基于知识的差异更是无法把握算法编码的细节,无法想象算法如何完成高度复杂的推理过程,以至于人们会对算法产生迷信甚至产生“崇拜”的心理[15]。

算法黑箱所引发的担忧集中在互联网商业平台可能由于逐利性,借助用户将平台媒体的新闻视为客观的、公正的认识,用虚假新闻建构人们对社会的想象[16]。我们生活在“算法社会”中,算法构造和塑造我们的社会和对社会的想象,对于算法呈现的社会图景、对算法呈现内容的真实性和可信度,我们却鲜有能力、办法和途径去核实和验证,对平台机构的监督束手无策。

作为公共事业的新闻传播业,维护公众知情权和为公共服务是其基本的目标。为实现这一基本目标,在几百年的新闻实践中,形成了要遵循真实性、客观性、全面性等基本的新闻原则,遵循客观、中立、公正的职业操守。从全球范围看,媒体越来越受到公众的质疑,信任度在不断下降,公众越来越关心新闻界在报道什么,以及如何报道。科瓦齐和罗森斯蒂尔在《新闻的十大基本原则》中指出,“对公众保密是一个错误。当公众对新闻工作者和政府当局越来越不信任时,这种不利于公众的行为只会让新闻工作遭到更多质疑”;“用核实加以约束,尤其是透明的观念,是新闻工作者解决偏见问题的最有效方式之一”[17]。新闻透明要求新闻传播主体公开新闻生产传播的过程,让公众进行监督和参与[18]。尽管一些互联网平台机构并不承认自身的媒体属性[19],但事实上,这些平台机构已然成为新闻传播活动中极其重要的主体。新闻透明性的主体指向新闻传播活动的全部主体,平台主体也不应回避公众的严苛审视[20]。

完整的透明才是透明,新闻透明原则要求算法的开发者将源代码公开,以保证其可以被检验、被监督,封闭的算法黑箱将平台机构与传统新闻机构、平台机构与公众置于不对等的地位。此外,具有独创性的算法涉及知识产权问题,算法的隐秘性构成透明理念和机制的障碍。而即便将算法透明化,算法的复杂性又使得算法也很难被检验。同时,算法本身并非客观,还存在着“算法偏见”[21],由于计算系统自身存在偏见,编写者在开发过程中可能自觉或不自觉地将个人的价值观、兴趣喜好等写入代码,造成的结果是在看似中立的算法规则中实则潜藏着由数据源、版权、监管和编辑者的主观因素产生的偏见问题[22]。可见,新闻透明原则在智媒时代如何得到保障是一个棘手的问题。

(二)“算法霸权”与媒介公正的对立

哈佛大学的数学博士凯西·奥尼尔在《算法霸权》一书中创造性地使用“数学杀伤性武器”一词探讨算法的大规模应用对社会产生的负面影响,认为“数学杀伤性武器”的特点在于不透明、规模化和毁灭性。“许多数学杀伤性武器都是依靠自己的内置逻辑来定义其所处理的情况,然后再以其自己的定义证明其输出结果的合理性的。这种模型会不断地自我巩固、自我发展,极具破坏力——而且在我们的日常生活中很常见”[23]。

算法已经越来越多地定义了我们的生活,算法的影响不仅在日常的生活调节方面,而且在社会根本性变化方面也是如此,正是因为“改变被任何事物更广泛依赖的算法的结果可能会波及整个社会”[24],算法成为了一种权力[25]。英国学者拉什就此感叹,“在一个媒体和代码无处不在的社会,权力越来越存在于算法之中”[26]。权力表现为控制,控制是技术革新导致的后果,其中的最基本面是信息处理的改进。技术定义了一个社会能做什么的界限,技术的发展是控制权革命中社会变化的主要推动力[27],算法技术控制了信息流向公众的渠道,同时将传统媒体视为平台机构内容的供应商,颠覆了新闻传播业的传统格局。

当算法运用到新闻传播的各环节,自然也会对人们所感知的“拟态环境”以及人们基于“拟态环境”的社会认知产生影响。然而,算法建构的“拟态环境”是“一种简化或扭曲”,算法主要是对复杂的新闻写作过程的简化和提炼,是一种“以简御繁”的化约主义[28],它“从世界上获取了一个复杂的系统,并将其抽象为捕获该系统某些逻辑并丢弃其他逻辑的过程”[29]。降低人们认识世界的复杂性并不等同于让人们认识简单化的世界,这种对复杂社会的“简化”操作,并不能呈现社会的完整真实景观,有悖新闻传播所追求的通过及时、公开、透明再现新闻事实,达到媒介公正的目的。按照算法的操作原则,平台机构以单篇内容的点击阅读率来评判文章的价值,而忽略文章内容本身带来的社会效果。对于平台媒体来说,对点击流量的追求远胜过对新闻内容质量的重视。在这种模式下,用户接收的信息只会越来越趋于窄化和同质化,算法可能成为“扭曲的棱镜”,导致公众对真实社会的认知偏差越来越大,“可能给公共生活造成难以弥合的分裂”[30]。

算法有损媒介公正的另一方面在于算法霸权产生的“算法歧视”。算法及其选择机制可能以某种方式具有歧视性[31],这种歧视性源于算法自身的偏见,比如如果种族歧视嵌于算法,会给用户推荐种族歧视的相关内容,而与事件本身的事实发生偏离。新闻传播的公正原则要求新闻传播主体尽力消除传播中的歧视行为,传播权力为全社会所共有,传播过程中不能无视弱势群体以及贫困地区、偏远地区的利益和需求。而实际上,正如凯西在实践中发现的那样,“数学杀伤性武器的受害者几乎没有话语权”,他们中的大多数都在事实上被剥夺了公民的传播权,算法霸权客观上造成了对弱势群体的侵害。

(三)“算法操纵”与委托信任的冲突

传统新闻机构的把关由职业新闻工作者完成,他们以职业的精神、理念和操作获得公众信任,以新闻生产中提炼、总结的新闻价值为标准,完成每天新闻的选择、加工、制作的生产过程。算法改变新闻传播机制表现在新闻分发过程中的把关主体发生变化:其一,将价值观的判定权从记者、编辑这些传统的新闻工作者手中转移到算法编写者手中,制定算法规则的工程师设定的算法原则决定每条新闻被接受的范围和程度;其二,将媒介失范的决定权从媒介工作者传递给了受众[32],受众的选择会直接影响到未来自身可以看到的新闻类型和内容。

与传统媒体能够实现对公众的议题关注和属性判断的强大议程设置效果一样,平台媒体对公众舆论同样具有操纵的能力[33]。凭借算法的排序与过滤建立的算法议程设置和框架结构,不仅建构了用户对于社会的想象,同样会决定公众想什么和如何处理这些议程,通过影响用户的情感和态度,最终决定公众的行动方式[34]。

传统媒体之所以能够获得公众,在于公众对其专业能力的认可。专业水准高的媒体能够被信任。公众选择接触和使用哪一种媒介、选择关注哪一家媒体的报道本质是公众将获取信息的来源、信息选择的权利委托于该媒体,这是建立在公众与媒体长期互动的结果之上的。在算法新闻时代,传统的以编辑为中心的信息把关模式,也就是传统媒体获取公众信任的职业素质,被算法程序取代,而算法程序并不天然拥有传统编辑对于新闻价值的选择判断标准,公众和媒体间的委托信任关系被打破。这种关系的打破带来了传播权力的转移,平台机构正在成为新的“信息把关人”和“议程设置者”,重构了传播权力[35],平台机构成为控制公共生活和媒介生态的决定性力量,这也反过来使互联网公共领域呈现出“再封建化”的趋势[36]。

二、技术、人与社会的良性互动:算法新闻治理的应然逻辑

解决算法新闻产生的问题,首先要解决的是“谁来负责”的问题,明确算法新闻治理伦理的责任主体,再基于此讨论算法新闻治理的逻辑问题。

(一)“人”才是算法新闻的责任主体

“技术中立论”认为,算法只是一种技术,技术是中性的,并无好坏的性质分别。平台机构倾向于将自身描述成信息传播的中介,只起到传递的作用,所以无需对信息进行主观性的判断。与之相对的“平台责任论”强调,当平台机构拥有足够多的用户数量时,平台机构实际完成着公共传播活动,天然地具备公共属性,应当在算法应用于内容选择和推送中体现社会公共价值观念。这两种关于算法和平台机构属性观点的争论,实际上牵涉出了算法本身的伦理主体地位问题。

一些学者按照拉图尔等人提出的“行动者网络理论”,将算法视为非人类的“网络行动者”[37],人和算法在网络中是平等的参与者。拉图尔的“行动者网络理论”的特点在于将人和“非人”的事物都视为具有能动作用的“行动者”,他们之间以“转译”为基本的连接方法,结成了相互作用的“网络”。网络指的是一种连接方法或状态,转译是连接行动者之间沟通的语言,行动者包括在相互结成的网络之中具有能动性的所有的“人”和“非人”。毋庸置疑,人天生具备行动能力,而“非人”行动者如果具有和人一样的某种行动能力,其前提是“非人”行动者应该和行动的人一样,具有某种能动性或者说“活性”,这样才能够实施行动,并在行动中体现人的目的和意志[38]。算法的“活性”源自算法编写者所设定的代码和算法规则的激活,也就是说算法并非能够天然地脱离人而独立地成为网络行动者,只有当编写者完成对算法规则的设定,并将算法置于网络连接,才能够激发算法的“活性”,使算法具有行动力。

弗洛里迪和桑德斯从行动者之间互动的关系角度,将交互性、自主性和适应性确立为判定智能技术是否具备伦理责任主体地位的标准[39]。如果一个系统在没有外部刺激的情况下,也能够持续与环境发生交互关系,就可以认为这一系统具有自主性、适应性和交互性,才可以将能够在不同环境中均发生行动的系统视为行动者。以此观之,算法尚未满足自主性和适应性的要求,这也就意味着算法还不能称之为独立的伦理行动者。

算法是非人类的“网络行动者”,并不是独立的伦理行动者,伦理行动者作为责任主体要对行为负有必要的义务。对行动主体产生的行为后果具有直接推动作用的人或者组织,才需要承担行为责任,才肩负有必要的义务。目前,算法作为新闻传播的工具和手段,不具有独立生产和传播能力,其拟主体性只能承担拟伦理角色,使用算法的人和平台机构才是责任的主体。算法新闻的伦理责任主体只能是人,而不是机器,也不是人—机混合体[40],算法新闻的责任主体应为整个算法新闻活动中各环节的参加者,包括算法的开发编写者、推广者、使用者,算法新闻的接受者和转发者,以及在人工智能时代新闻伦理的一个重要的机构行动者——互联网平台机构[41]。

(二)算法与人和社会

每一次新闻传播技术的革命性更新,都会形成新的传播格局,引发新的传播时代的到来。传播技术不仅决定着新闻图景的呈现方式和结构方式,决定着公众对社会的认知和把握情况,更从深层次上影响着人的思维和心理,以及人类社会的整体发展。同时,新技术所带来的变革,既会激发起关于技术乌托邦主义的幻想,也会引发对技术异化的担忧。

新技术对媒介环境的巨大冲击,形成一种多媒介混合的景观。媒介环境学家麦克卢汉在提出“媒介杂交”理论的基础上,进一步扩充提出了“媒介四元律”理论:新媒介突出了什么,削弱了什么,再现了什么,未来又会变成什么[42]。其弟子莱文森使用“提升”“过时”“再现”和“逆转”四个词语对这一规律进行了新的概括。“媒介四元律”不仅是对媒介发展规律的概括,它还是一个颇有价值的媒介分析工具。算法新闻突出并基本实现了“信息与人”的适配[43],传统媒体“千人一面”的传播样态被“千人千面”接收情景所取代,个体的信息需求被再现和显现,人的个体价值被重新重视,传统媒介和传播方式变得过时和被遗忘。莱文森认为,媒介进化的规律是“人性化趋势”[44],即媒介朝着增加人类功能的方向进化和发展,算法新闻在一程度上是符合增加人类幸福需要的方向的。

算法新闻在朝着人性化方向发展的同时,反过来也重新塑造人和控制着人和人的生活方式。对公众而言,人们在算法新闻环境下的阅读选择和阅读习惯发生变化;对媒体机构来说,算法重塑了新的生产关系,因为平台机构通常不具备信息内容的生产能力,却成为信息分发的把关人,掌握着信息分发的绝对优势,传统媒体被迫接入平台机构,并把算法规则纳入内容生产的基本考量。波斯曼对技术垄断的担忧也在于此[45]。

(三)技术、人与社会的良性互动

纵观新闻传播的历史,几乎所有的技术变革,尤其是新技术应用的早期,都会产生各种技术与人、与社会的不协调、不适应问题。大众报刊的普及带来竞争的结果却是“黄色新闻潮”的发生;“火星人入侵地球”的广播剧引发了极度恐慌和百万人的大逃离;电视的流行出现了蜷在沙发上,只看电视不顾其他的沙发土豆;长时间、习惯性和病态使用网络的人被认为患有网瘾。这些问题产生并不仅仅是媒介或者技术自身的问题,问题的解决也不仅仅依靠媒介自身。“黄色新闻潮”的退去在于报人社会责任意识和职业共同体意识的确立;广播、电视、网络的合理使用和认知除社会的进步外,还依赖于公众的媒介素养提高,以及对媒介、媒介规律的正确把握。

“技术的世界不是孤立的,也绝非自成一统。它与来自遥远的人类环境的各种因素相互作用”[46]。对新闻传播业而言,技术以怎样的观念和方式构建社会、构建怎样的社会,并不单一取决于技术本身的属性,更取决于能够对技术产生影响、进行操控的社会和人的力量,所以解决算法新闻的问题也要从各种相互作用的人与社会着手,探寻技术、人与社会的良性互动,这也符合媒介问题的解决逻辑。

美国著名未来学者奈斯比特在20世纪90年代网络开始大放异彩的时候,对突飞猛进的科技与人和社会及文化的关系进行推测和分析,强调从人性的角度看待科技,高科技和高思维应寻求一种“物质奇观与人性精神需求的平衡”[47]。高思维是人对高科技的反应,当“科技越多地被引入到我们的生活,我们就越想寻求高思维的平衡,寻求人性的稳定”。高科技和高思维这种“平衡”就是技术、人与社会的良性互动状态。

三、向善向上:算法新闻治理的伦理追求

海德格尔认为,“现代技术中起支配作用的解蔽乃是一种促逼,此种促逼向自然提出蛮横要求,要求自然提供本身能够被开采和贮藏的能量”[48]。也就是说,现代技术的特征在于可以迫使自然按照人所设定的目的做事。技术源自于人类对美好生活的追求,而在使用技术的过程中,人的目的存在是非、好坏、善恶的差异,存在方向性的区别。因此,技术必须成为伦理问题,人类必须学习如何自主地以我们的判断力来约束自己[49]。

(一)向善:算法新闻治理的底线伦理坚守

道义理论和哲学家康德认为,“善”像“珠宝一样闪耀光芒”。他提出,每个人天生就有良心,良心并不可违,良心的义务就是为了义务而履行义务[50]。亚里士多德德性伦理论优先考虑的“善”不是抽象意义的善,而是对血肉之躯的人的善,是体现在我们实践里的善[51]。亚里士多德的“善”是一种实践智慧,麦金泰尔将“实践”定义为“人的活动内聚而复杂的形式”,其内在的“善”涉及鲜明的优秀标准,如果达到了这样的标准,内在的“善”就能拓展我们人生绚丽和优秀的可能性[52]。所以,“善”是一种底线伦理,也是一种可行可为的底线伦理。在算法治理中,“向善”应是一种底线坚守。在“能做什么”和“应做什么”的伦理选择中,算法应基于应然逻辑走向自觉,把握好算法技术发展与人及社会需要的内在联系。

从“向善”的价值意义来看,“向善”至少包括四个方面的含义。其一,“向善”意味着“尊重”,尊重和关心人本身,尊重人的基本价值与伦理;其二,“向善”意味着“进步”,提高效率与功用,提高人的物质享用水平;其三,“向善”意味着“公平”,公开平等,发展的成果惠及社会各个阶层;其四,“向善”意味着“责任感”,心系社会,参与社会问题的解决。

“向善”在伦理道德中是一种希望被普遍实施的行为,算法新闻治理的“向善”底线在于维护算法的积极功能,反对不当的算法使用行为,以不作恶、不滥用为基础性法则。“不作恶”要求算法新闻要以公共性和社会利益、社会道德、社会价值为评判标准,不以对用户的损害作为获利的前提和手段,如不侵犯用户隐私,不传播低俗内容;“不滥用”要求算法新闻的使用应在有限范围和有限尺度内,对用户权益不仅要做到明示和告知,还要进行确认以确保用户知悉。

(二)向上:算法新闻治理的责任担当

70多年前,二战后的美国出现了“大众传播工具对于公众的重要性的提高、公众对大众传播工具的依赖与大众传播工具和机构被少数人掌握和垄断之间的矛盾”。新闻界该如何应对这一矛盾,哈钦斯委员会给出了总报告——《一个自由而负责的新闻界》,成为新闻媒介“社会责任论”的基础[53]。当今,算法改变社会,算法已成为社会运行的基本语法规则。算法的普及与广泛应用、公众与算法联系的紧密性与平台机构对算法的垄断性之间形成了一对矛盾,这种矛盾与70多年前的情形非常类似。如何因应这一矛盾,同样需要强调算法新闻“向上”的社会责任担当。

其一,算法新闻应该对人的自由全面发展负责。技术的发展不是最终目的,人的发展才是技术发展的本质[54]。算法的发展必须有利于人的自由全面发展,离开了人的自由全面发展的算法就失去了灵魂。从各国、各机构和组织制定颁布的人工智能发展伦理原则来看,一致将“保障人的权利”“以人为本的价值观念”等相关性条例作为其中最重要也是最首要的原则。算法新闻也可以对人的自由全面发展负责。算法新闻为人的自由决策提供信息内容,合理的算法机制为人们做出合乎理性的正确判断提供保障。

其二,算法新闻应该对社会健康有序运行负责,要自觉肩负社会责任,追求社会效益,服务社会福祉。“新闻在人类社会中占据极其核心的话语地位,是左右历史发展的一种力量”[55]。在算法社会,算法成为“创造世界的方式”,算法新闻对社会整体发展和社会各子系统的影响越来越主动和显著。一个不当的算法机制、一次不合理的算法新闻推荐,都可能产生极端的社会后果,改变社会运行的良性状态。算法新闻应立足社会和谐进步,在新闻信息的推荐机制、搜索机制、过滤机制等方面,把社会效益作为排序、分类、关联和过滤的重要因素,以社会责任意识推动算法技术发展,从技术层面也同时从人文层面解决网络传播内容低俗化、劣质化及社会价值淡化弱化问题,用主流价值导向发展“算法”,巩固壮大主流思想舆论。

(三)协同共进的算法新闻治理体系

从人性的角度看,算法新闻治理需要“向善”;从社会的角度看,算法新闻治理需要“向上”。“向善向上”的伦理追求不是阻止算法新闻的发展,而是表明实现算法新闻发展目标需要建立有效的算法治理方法和模式。算法新闻治理涉及多个层面的伦理类别与问题,从伦理行动者角度出发,算法新闻治理需要建立多主体协同共进的治理体系(表1)。

表1 算法新闻治理的主要伦理类别与问题

第一,政府在算法新闻治理中需要充当好规则制定者、过程把控者和底线管控者的角色。政府在科技发展中起着引领作用,对新技术的使用需要加强研究,并根据发展过程中出现的新变化、新问题、新挑战,不断进行积极回应和合理规范。2019年7月,我国出台《国家科技伦理委员会组建方案》,对人工智能等前沿科技发展进行统筹规范和指导协调,从国家层面建立保障人工智能健康发展的法律法规和制度体系。智能算法在不同层次的信息需求满足上发挥着不同作用,算法的风险与规制需要在具体的价值期待下进行具体分析[56]。政府应以“法律红线”明晰算法新闻的内容底线,设定监管标准,给合格的内容以流动的区间。算法治理的理由是基于已经识别的风险[57],政府除以法律规定对可预见的风险进行制度化规定外,还需要加强对算法风险变化的可能及技术不确定性的研判。

算法新闻治理也是跨学科的挑战[58],算法新闻背后的技术问题、文化问题和伦理问题涉及多领域的交叉性,需要在政府主导下,鼓励形成容纳社会科学、自然科学和产业界的跨学科多领域的多方对话机制。政府还应加大算法新闻伦理宣传和认知教育,增强公众对算法新闻的理解,培育公众算法素养,使人们能够科学认识算法应用带来的可能进步及潜在风险[59],正确评估算法新闻的效能。

第二,平台机构要承担起算法新闻治理的主体责任。平台媒体算法的工具理性蕴藏了其背后来自于平台公司的数据商品化意识形态逻辑的支配[60],平台媒体需明确自己的经济责任、法律责任、社会责任和道德责任,确保在算法新闻的发展过程中实现经济效益和社会效益的统一。算法规则背后体现的是平台机构的价值观念,价值观才是平台机构的灵魂。算法系统设计和运行,应该使其目标和行为与人和社会的价值观一致。很多平台媒体已经意识到价值观引领发展的社会意义和价值。对于算法和人工智能的发展,IBM提出“信任、尊重与隐私保护”的三大原则;微软提出的六大原则是“公平、透明、责任、无歧视、知情同意与法律控制”;2019年5月,腾讯宣布“科技向善”成为公司新的愿景和使命;快手坚持“平等普惠、真实向善”的理念。

在注重价值引导的同时,平台机构在算法新闻治理中可通过算法体系的设定,增设对普通公众给予普惠流量曝光的机制,对符合社会倡导的正能量内容进行优先推荐的设置[61],以消减算法的歧视和偏差。平台机构拥有强大的分发能力,可与主流媒体擅长的内容生产能力相结合,在内容层面与主流媒体进行深度合作,联合主流媒体,既保证算法新闻的质量,也发挥好服务主流媒体的功能。

第三,公众与传统媒体也应在算法新闻治理中发挥自己的责任。公众需要提高自身的算法素养,传统媒体也需要与平台机构进行合作。两者的共同责任在于实现对算法新闻的监督。算法素养应作为公众媒介素养的重要内容。公众应学习了解必需的算法常识,发挥自己的能动性,做到在网络上理性获取信息和生产信息,保护好个人信息,同时能积极认知和评判算法风险,自觉避免新闻消费中的盲从或被动现象,及时反馈新闻消费体验,帮助改进平台新闻推荐中的不合理之处。传统媒体需要发挥自己在新闻生产方面的公信力优势和新闻核查方面的专业优势,严格职业把关和审核机制,拒绝生产迎合人性弱点及惰性的新闻,自觉生产和推广优质内容,自觉对算法新闻进行纠偏,修正算法新闻的设计。更为重要的是,要把握算法技术和社会发展大势,努力打造自主可控平台,不断积聚海量用户,增强平台黏性和影响力,占据互联网舆论主导地位。

四、余论

从以上分析可以认为,算法新闻掀起了新闻传播领域的一场革命,它不仅挑战了传统新闻的生产方式、分发模式和商业模式,也挑战了传统新闻的价值理念、伦理准则与理论规范等。在算法新闻时代,必须把完善保障媒体社会责任的实现机制及“完善坚持正确导向的舆论引导工作机制”,“抵制低俗庸俗媚俗的工作机制”纳入社会治理的重要范畴,既充分发挥算法技术的工具理性造福人类,又切实避免“创新性破坏”维护公共价值,从而实现算法对人的价值关怀和推动社会的良性发展。

猜你喜欢
伦理公众算法
《心之死》的趣味与伦理焦虑
公众号3月热榜
公众号9月热榜
公众号8月热榜
公众号5月热榜
护生眼中的伦理修养
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
一种改进的整周模糊度去相关算法