算法新闻时代“透明性原则”伦理规范的缘起、发展与局限
2022-10-20王超群
○王超群
“算法新闻”指的是以机器学习或者神经网络为技术基础生产和分发的新闻。通过算法把关可以决策新闻选题,通过对用户数据的分析和用户画像的描摹可以进行个性化新闻推送……这些过程中的算法机制极其复杂和晦涩,被视为“黑箱”,这为算法新闻伦理危机埋下了诸多隐患,主要包括“算法歧视与偏见”“信息茧房”“低俗与虚假新闻”等。正是在这样的背景下,“透明性原则”作为新伦理规范的核心内容,为越来越多的媒体组织所追捧和接受。但是在平台型媒体大行其道的今天,“透明性原则”的实施也遭遇着重重问题,需要进一步思考“透明性原则”未来该如何改进。
一、缘起:网络新媒体时代“透明性原则”成为新闻职业道德准则的一部分
“客观性”是二十世纪新闻职业伦理规范的核心。如何在新闻报道中实践“客观性原则”?主要包括依据许多消息来源、可证实的事实等。但是,到了网络新媒体时代,速度常常被认为是比事实更重要的要素。但过于追求速度会带来虚假新闻和事实的反转。媒体不断在线更新新闻报道的过程中,公众与媒体的互动日益方便,用户生产的内容也被媒体频繁采纳,公众最终参与新闻生产。根据卡尔森(Karlsson)的说法,这种发展需要调整专业规范,使新闻业变得更加透明,以维持其作为“权威信息来源”的地位。正是在这样的背景下,卡尔森等人对“透明性”原则做出了具体且富操作性的定义。
卡尔森将透明性划分为两种:一种是公开的透明性(disclosure transparency),一种是参与的透明性(participatory transparency)。公开的透明性指新闻生产者可以解释并公开新闻的选择和制作方式。这种透明性可以通过发布原始材料和使用来源的链接来实现,或者通过对所犯错误的问责制,即承认错误与发布修正信息来实现。故而有人将透明性定义为“向公众展示制作新闻报道的决策,方法和来源”。参与的透明性要求用户能够参与新闻制作的每一个阶段,从新闻收集到报道、出版、分析和讨论。这种透明性与交互性联系起来,故而有学者将透明性定义为“新闻业内部和外部人士对新闻流程进行监督、检查、批评,甚至介入的各种方式”。
网络新媒体时代初始,透明性的实施主要表现为博客作者通过将信息与原始文件链接,解释他的报道程序,以实现网上空间的透明性,并揭露可能的偏见以产生可信度。随着时间的推移,博客作者采用的“透明性措施”逐渐被主流新闻媒体整合到网上的日常“仪式”中,主流新闻媒体试图通过这种方式披露信息、更新信息并与受众互动。记者们认为目前“透明度”的努力主要取决于引入机构设计和控制的技术特征,如评论机制、提供超链接、日期和时间戳以及在线更正。《纽约时报》等主要新闻媒体宣称“通过社交媒体与记者进行基于网络的聊天来拥抱透明度,通过聘请一位向读者解释文章的公共编辑实现透明度”。
“透明性原则”的实施有两个主要功能:一是透明度提供了更好的说明真相的手段,“使记者能够证明他们的报道具有准确性和公平性,让公众相信它”。透明度“标志着记者对观众的尊重”并且“有助于确定记者有公共利益动机”,从而增加了公众信任与新闻业声誉。二是透明度作为新闻机构提高可信度的方式,推动媒体通过发布社会责任报告来体现自己的诚信,通过对错误和失败的披露来建立信任,进而形成差异化的竞争优势,为媒体带来经济利益并提高声誉。总之,“透明性原则”被视为解决西方新闻业今天所面临的主要问题的方法之一,甚至被认为正在成为“新的客观性”,被视为恢复西方新闻业信任的核心。
2014 年9 月,美国“职业新闻工作者协会”修订了《职业道德规范》,“透明性原则”作为新修订的内容被添加进去,其中相应的表述是“新闻工作者应当向公众说明新闻报道过程以及自身所面临并做出的道德选择。鼓励公众参与讨论新闻报道的实践标准;迅速回应有关报道准确性、清晰性和公正性的质疑;承认新闻报道中的错误并做出及时、明显的修正,向公众认真、清楚地解释和澄清错误”。无独有偶,美国波因特(Poynter)研究所和广播电视数字新闻协会(RTDNA)都采用透明性作为专业记者的新核心素养标准。至此,“透明性”作为新闻职业道德准则的一部分,为西方业界广为接受。
二、发展:算法新闻时代平台型媒体对“透明性原则”的具体实践
算法新闻时代,平台型媒体(platisher)的崛起分外引人注目。平台型媒体核心工作方式高度依赖互联网技术,包括搜集用户信息、分析用户喜好、精准推送信息等。这一特点使得它们非常容易利用有效内容迅速俘获大量用户,赚取流量,但同时也容易导致伦理危机频现,具体有以下几个方面的表现。
第一,算法歧视与偏见伦理危机:以“技术中立”的名义介入新闻生产,在实践操作中存在人主导的算法设计,难免体现出各种各样的“歧视”,比如“商业社会的金钱歧视,政治社会的权力歧视等”,只是歧视变得更加隐蔽,体现出对“新闻客观性”的背离。2016 年,有网友质疑Facebook利用算法有意识地引导用户大量点赞和转发假新闻网站Freedom Daily 上的新闻,试图影响2016年美国总统大选。
第二,信息茧房伦理危机:基于算法的个性化信息推荐注重“点”上的深挖,难以最大程度地实现个人价值和公共价值,公民参与受到损害,这些体现出对传媒“民主社会功能”的背离。2014 年8 月9 日,美国发生一起涉及警察暴力与种族歧视的弗格森枪击案。但当天Facebook上很少看到相关新闻推送,因为Facebook 根据用户兴趣画像分析判断,用户“并不喜欢”这样的新闻,于是当天通过算法推荐推送了更多关于冰桶挑战的新闻。
第三,价值观导向危机:只要用户感兴趣,基于技术理性的算法就容易将低俗内容、“标题党”新闻和价值观存在问题的新闻推荐给用户,算法背后依赖的是冷冰冰的数据,缺乏价值导向与人文关怀。2018 年1 月,网红Logan Paul在YouTube 平台上传了一段视频,内容是关于在日本自杀森林死者身旁发表的不当言论,视频观看量24 小时之内就达到600 万人次。其对死者的轻蔑和不尊重引发网友讨伐,同时网友谴责YouTube 平台将这种视频放在首页推荐,极不具备社会责任感。
在这样的背景下,要求平台型媒体在算法推荐和新闻分发方面执行“透明性原则”的呼声日益强烈。在具体的实践操作中,算法透明逐渐走向了“主动的算法透明”和“被动的算法透明”两种方式。
(一)主动的算法透明
“主动的算法透明”是指新闻生产者主动向公众公开算法的运行机制与设计意图,接受公众监督。大多数表现为“解锁ITO三阶段”,即将算法新闻生产流程的数据输入、数据吞吐、数据输出这三个环节所涉及的数据和操作步骤进行全面的、具体的公开。如2016年美国大选Facebook 新闻“偏见门”事件之后,Facebook 主动披露算法,开放假新闻大数据分析平台。
实际上,“主动的算法透明”有沦为表演策略的危险,成为一种“策略性的透明”。它往往演变成形式上的透明,即“看得见”却“看不懂”的透明,本质上仍属于“不透明”。以YouTube 为例,YouTube 一直致力于公开算法推荐机制,2008年公开的第一阶段的算法是基于user-video graph,从用户co-view 的角度来看待资源访问关系;2010 年公开的推荐算法基于item-based的协同过滤机制;2014 YouTube 公开宣称已经接入Google Brain 机器学习技术应用于算法推荐中。但实际上普通的受众无法看懂这些算法意味着什么,无法判断有没有实现对“算法偏见”和“信息茧房”的主动规避。“主动的算法透明”,从形式上让受众感到放心和值得信赖。它成为平台型媒体的一种表演策略,目的是建立平台与用户的信任关系,以期作为获得商业竞争优势和实现经济利益的资本。“策略性的算法透明”实际上是“战略性的不透明”,是指行动者“受透明性规则约束”,有目的地让“很多信息”可见。这也意味着“可见性”与“透明性”并不是一回事。“透明性”会被有意地遮挡,“可见性产生了大量的信息,以至于重要的信息,在看似无意中被隐藏在信息碎片中,变得不可见。”这是一种不可用的透明形式,也被称为“一种抵抗性的透明”。正是因为“策略性的算法透明”的存在,“透明性原则”的执行并不能真正解决算法新闻所带来的伦理危机。
(二)被动的算法透明
“被动的算法透明”是指在新闻生产者拒绝披露算法的前提下,由有兴趣的人士通过监督式揭露的方法让新闻生产者的“算法黑箱”被迫披露。大多数表现为“逆向工程学”方式,即基于专业知识进行严密的观察、推断,发掘出这个系统的模式,用人工去推断“黑箱”中的算法规律,并且清楚地对每一个部分进行阐述。如一位曾经与YouTube工程师团队共事的前谷歌公司员工Guillaume Chaslot,运用“逆向工程”的方法解码了YouTube 算法偏见,包括:宣扬阴谋论,仇恨言论得到优先推荐,2016 年美国总统选举中明显偏向推送对特朗普有利的信息等。
三、局限:治理“算法黑箱”,透明性原则该如何改进?
当前平台型媒体的“算法暗箱”在某种程度上导致了新闻品质的恶化,“透明性原则”的执行远不能让受众满意。那么,该如何治理“算法黑箱”?单靠现阶段的透明性原则操作模式显然是远远不够的,还需多管齐下。
第一,完善“透明性原则”衡量标准。目前“透明性原则”最重要的难题之一便是解决“看见但不理解”的问题。对此,有学者提出“可理解的透明性”,它是用户导向的,以可行性和社会接受效果作为衡量标准,这也是“可理解”的主要含义;它要求平台媒体站在“数据主体”的角度来进行算法透明,通过设计语音交互、游戏互动等形式进行“深度描述”,让用户真正理解算法及其影响,比如设计交互界面,让读者选择性调整参数以测试推荐内容是否会有所不同。
第二,扩大“透明性原则”的适用范围。前文已经提及,“透明性原则”已经被纳入美国新闻工作者协会的《职业道德规范》,但其约束的对象仅仅是机构媒体以及新闻工作者。然而,运用算法技术的主体是平台型媒体及其算法工程师。平台型媒体的顶层设计迥异于传统媒体,往往将商业利益优先于价值导向,在政策导向上除非认为“透明性原则”有利于提升流量,否则缺少动力去主动执行这个原则。而算法工程师没有接受过系统的媒介职业素养培训,难以主动意识到要将“透明性原则”作为日常职业规范加以遵守。所以,“透明性原则”不仅应该包含“新闻透明性”,成为传统媒体新闻工作者的职业道德准则,还应该包含“算法透明性”,成为平台型媒体及其算法工程师遵守的职业道德准则。
第三,重启“客观性原则”。算法新闻时代需要“透明性原则”与“客观性原则”并驾齐驱,并肩作战。虽然“透明性原则”正在尽力做到开放和问责,但离平衡、真实与公正还有很长一段距离,因此“客观性原则”重归新闻伦理规范核心是大势所趋。平台型媒体执行“透明性原则”的不尽如人意,似乎给了传统媒体发展的好机会。作为内容生产型媒体,它们选择重启“客观性原则”,以求在维持自身独立性上作出努力。重启“客观性原则”最显著体现在针对“算法偏见、信息茧房和过滤气泡”的平衡报道策略。如继2011 年帕里泽提出“过滤气泡”的概念后,《卫报》于2016 年开设“Burst your bubble”栏目,在全国掀起一场声势浩大的“戳泡运动”。鉴于《卫报》读者大多数偏左派,该栏目主推“右派”文章,每周选取5篇值得一读的保守派文章,拓宽读者视野,每篇文章都附有文章来源、荐读原因和内文选摘三个部分,读者表示他们通过这一栏目,阅读到之前未曾关注的保守派信息,开始尝试了解保守派的观点。
第四,理顺“透明性原则”与其他伦理原则的关系。一方面“透明性原则”应当与“客观性原则”并驾齐驱,另一方面还要处理好“透明性原则”与其他伦理原则的关系。虽然开放、问责、知情同意等伦理原则的实施要依赖于“透明性原则”的实现,但同时也有很多新闻专业人士担忧,实施“透明性原则”必然会让更多的非专业人士参与到专业性信息内容的生产中来,势必影响新闻行业的独立性与自主性,对隐私、版权等伦理原则产生潜在侵害。因此,进一步明确“透明性原则”与其他伦理原则的关系,才能各自发挥应尽的作用,起到相互补充、相互促进的效果,而不是相互冲突。
[1][8]仇筠茜,陈昌凤.基于人工智能与算法新闻透明度的“黑箱”打开方式选择[J].郑州大学学报(哲学社会科学版),2018(05).
[2][3]Karlsson,M.(2010).Rituals of transparency:Evaluating online news outlets’uses of transparency rituals in the United.
[4]Chadha,K.,&Koliska,M.(2014).Newsrooms and transparency in the digital age.Journalism Practice,1,1-15.
[5]Deuze.What Is Journalism? Professional identity and ideology of journalists Reconsidered.Journalism,2005(04).
[6] [7]王之延.平台型媒体语境下的新闻趋势分析——基于《平台型媒体:硅谷如何重塑新闻业》的讨论[J].青年记者,2017(16).