APP下载

智媒时代算法技术对把关机制的冲击及防范策略

2024-07-19郭诗怡

新闻世界 2024年7期

【摘 要】在大数据、云计算、物联网等技术的推动下,智能算法进入新闻领域,在新闻生产和分发方面的作用日益凸显。本文从智能传播视角下把关角色、把关行为、把关内容和把关功能的变化,探讨智媒时代算法技术给把关机制带来的冲击,并提出提高算法透明性与公正性,加强人机协作和完善法律法规监管机制,提高传播效能,实现多元把关和信息共享相辅的算法协同治理。

【关键词】人工智能;算法;把关人;新闻业

【基金项目】本文系2022年山西省高等学校教学改革创新项目《基于OBE理念的影视传媒类实践教学评价体系研究》(编号:J20220493)。

互联网时代,人人都可以成为信息的发布者和传播者。以人工智能技术为基础的算法把关在创新新闻生产与传播方式的同时,也“入侵”着传统媒体的新闻把关领域,新闻把关的主体有从新闻从业者变为算法把关人的趋势。面对算法把关可能带来的新闻真实性、算法偏见等问题,有必要对智媒时代的把关人进行研究和分析,确保算法把关能更好地服务新闻业。

一、 风险隐忧:算法技术对于把关机制的消解

技术革新推动新闻业的一次次变革,互联网技术和人工智能技术的发展让我们进入智媒时代。在新闻把关领域,传统的把关机制遭遇前所未有的冲击。算法技术以大数据为基础,通过预先设定的程序和智能化的学习对数据进行分类和整合,为人们提供个性化推荐、智能生成等服务,为新闻生产和分发带来了便利。但同时,算法黑箱的不透明性,算法推荐下的信息茧房效应,算法错误导致的新闻失范现象等,给传统媒体的新闻把关带来了巨大冲击和挑战。

(一)算法不透明性与公正性问题

算法技术有复杂的程序逻辑,将其运用到新闻领域,新闻的生产与传播过程将成为“黑箱”。算法黑箱的形成多是源于算法技术本身的复杂性以及媒体机构、技术公司的排他性商业政策,本质在于不透明、不公开、技术门槛高和难理解。[1]

算法设计者受利益驱动和“流量为王”的裹挟,在以数据为主导编写算法程序的过程中难免会将自己的主观偏见植入,很难做到完全公正。学者陈昌凤指出,注意力导向的评价机制,不仅无法使严肃新闻战胜耸动新闻,反而使利益驱动新闻编辑室,导致新闻生产的质量滑坡。[2]

同时,算法根据用户画像和标签等进行智能推荐,可能引发算法偏见与歧视。算法推荐需要以大数据为基础,而数据采集的片面化和虚假性将会阻碍用户对于不同类型信息的自由选择,加剧虚假新闻、低质新闻的出现,也引发算法歧视。算法歧视是以算法为手段实施的歧视性行为。例如,算法技术通过采集用户消费偏好、消费频率、消费水平等个人数据,预判用户对于某商品的消费意愿,精准设定定价边界,以达到区别定价和“大数据杀熟”的目的。

(二) 算法推荐与“过滤气泡”

算法通过分析海量数据形成用户画像,并依据用户画像进行个性化推荐。个性化推荐在信息传播中承担过滤和把关作用。目前个性化推荐主要包括基于内容的推荐、协同过滤推荐、基于标签的推荐、社会化推荐、基于深度学习的推荐、基于知识的推荐、基于网络结构的推荐、混合推荐等。[3]

大数据时代,各平台利用算法的个性化推荐技术迎合用户兴趣爱好,边缘化其他类型内容的推荐,使得用户在不知不觉中被自己的兴趣偏好所束缚,生活在算法推荐造就的“过滤气泡”之中。[4]

伊莱·帕里策认为“过滤气泡”以大数据与算法推荐为底层架构,根据用户的使用时间、地区以及浏览习惯生成用户画像,并通过算法技术为其呈现独一无二的界面体验。[5]算法推送通过筛选推送同类型内容,造成受众形成单一的信息体系,受众长期接受算法个性化推送的内容,就会被包裹在一个同质化信息流构成的“过滤气泡”之中。

由于当前算法技术的不成熟,加上媒体把关过程中难免会出现漏洞,同质化、低质内容被反复推送给受众,产生“过滤气泡”,造成“信息茧房”。算法根据受众关注度和点击率等数据进行推荐,导致受众看到的都是自己喜欢看的内容。高重复度的内容推送会导致信息窄化,受众难以接触不同角度的观点,逐渐失去自己的思考和判断能力。长此以往会阻碍个人与群体的发展,也加大了媒体把关的难度。

二、角色、行为、内容:算法技术改变把关机制

在信息传播领域,把关人、把关关系和传播机制作为结构性要素共同影响着把关的效果。步入智媒时代,算法已经渗透到社会的方方面面,它作为一种中介,构建了数据化界面,成为隐性的技术把关者。算法技术作为新的把关机制之一,对传统媒体的把关机制带来了冲击与影响,其表现主要有以下几个方面。

(一) 把关角色的改变:把关人的泛化和分散化

随着技术的进步,以智能技术为主导的新型传播形式正潜移默化地影响人们的生活。由此,新闻把关人的角色也发生了变化。在传统的把关模式中,把关人一般由专业的新闻从业者和媒体机构担任,他们掌握着信息获取、选择、加工、传播的权利。

步入智媒时代,随着具有全时性、交互性、数据化、个性化和智能化等特性的新媒体出现,信息传播与接受者身份的多重性,以及受众对于信息的需求各异,导致媒体把关难度增加,把关人角色泛化和分散化。除了传统媒体机构,新闻从业者、平台运营人员和审核人员,把关人角色扩大至“个体把关人”和“算法把关人”。其中,算法把关在把关机制中发挥着重要作用。

算法本是建立在海量信息和海量用户基础上的匹配技术,通过大数据、云计算等实现人的数据化,对新闻生产和个性化推送等进行把关。算法技术作为信息采集和加工流程的介入者,算法把关人如同守望者,在“控制大门”(police gates)的同时,需要评估信息的可靠性。[6]例如抖音平台在审核信息发布环节中,算法对于内容(文案、场景)是否搬运,是否涉及违禁词等进行检测,对于违反抖音平台审核规定的视频内容进行拦截,采取不予发布及低流量推荐等措施。

但是,随着算法技术的介入,把关人的泛化和分散化,传统把关权利的让渡带来了一定风险。由于大众追求猎奇和娱乐心理,经他们把关的内容在真实性和可靠性上有待考量,一些低质、重复、虚假信息泛滥。部分平台为了追求流量,博取热度和点击率,甚至放弃把关,给智媒时代的信息传播秩序带来了严峻挑战。

(二)把关行为的改变:把关行为的多向性和人性化

传统媒体时代,新闻从业者需对信息进行取舍,将最有价值的信息呈现给受众。新闻媒体把关的标准以是否具有真实性,是否具有新闻价值为主。传统的把关行为体现的是“发出”与“接收”的单向关系,受众对于信息的选择相对比较被动,无法参与信息生产。随着传播方式的多元化,把关行为随之改变,把关行为变为相互交织的网状去中心化的交互方式,出现了人机协作形式的把关行为。

在采写阶段,算法把关能够快速高效地采集和筛选海量信息,依托大数据,通过预先编好的程序生成稿件。机器的高效生产、深度挖掘能力为新闻从业者的深度报道提供了便利。一方面,算法技术可以全天候24小时地采集各平台、各渠道的数据,扩大信息采集维度,为记者提供新闻线索和数据支撑,提升新闻生产的效率。另一方面,算法技术可以通过用户分析和选题整合,为媒体提供丰富的资源,拓宽选题的广度和深度,包括全新报道视角。随着人工智能技术的发展,AI智能写作将愈发人性化,为公众提供更丰富、多样化、个性化的新闻。

在分发阶段,算法技术通过用户画像等数据进行个性化推送,更注重用户个性化的体验,增强用户的黏性。在审核阶段,算法把关对信息进行动态化、全流程的把关,成为信息核查的主要力量。算法把关通常根据传播反馈的效果和引起的社会影响对已发布的信息进行监测和修正,避免误导受众和造成不良影响。

算法技术使得把关行为从 “支配”到“迎合”,受众的主体地位逐渐上升。但需要注意的是,当前的算法把关的人性化机制尚不成熟,存在过度关注受众个性化需求而弱化新闻价值的现象,相关部门需要加大对算法风险的防范。

(三) 把关内容的改变:把关内容的碎片化和去语境化

传统媒体时代,媒体的报道方式以及力度影响着受众对事件的知晓和关注程度。而进入智媒时代,媒体议程设置功能被削弱,在海量信息中,大量碎片化的冗余信息分散受众的注意力,算法技术对内容的把关有着重要作用。算法技术对于内容的把关体现在内容分发和内容审查两个方面。

算法把关存在内容分发机制。一方面,算法基于个性化推荐技术筛选用户感兴趣的信息和优质内容进行推荐。算法通过用户的性别、地域、年龄、常看的内容等数据进行整理分类,并贴上不同的标签,根据匹配度将信息推送给合适的人群,完成个性化推荐。另一方面,算法技术通过数据分析整合热门内容,进入新一轮的精品推荐,筛选出点赞量多、完播率高、评论互动性强的内容进行推荐。例如,抖音平台创作者中心将完播率、评论率、转发率、点赞率作为用户创作的视频内容是否能进入更高的流量池的参考标准。

算法把关存在内容审查机制。大众传播时代受众具有多、杂、散、匿的特点,由于媒介素养参差不齐,传播目的不同等导致他们所创作的内容质量不一,部分包含低俗信息,存在为博取流量或为达到商业目的的营销内容。在碎片化阅读时代,受众在接收信息过程中对于新闻信息的来龙去脉缺乏判断和深入的了解意识。网络中充斥着各种“断章取义”的信息,增加了把关的难度。

同时,算法基于用户画像、热度排行榜等推荐机制,也将受众困在算法所搭建的信息茧房中。智能平台的内容分发模式说明,信息的选择和用户的需求有关。无论是对商品信息还是新闻信息的获取,都是由算法驱动下的机器完成,算法成为信息内容过滤和发放的重要因素,决定着各类信息的去向。长此以往,受众将自己桎梏于算法编织的“茧房”之中。

三、规制算法:智媒时代内容生产把关机制的重构

算法并非“孤立的代码”,而是传播实践场域中不可分割的一部分。[7]算法技术在运用过程中所带来的风险,对把关机制带来了一系列冲击。面对算法透明性与公正性、算法个性化推荐产生的“过滤气泡”及算法错误导致的法律与伦理失范等困境,算法设计者及相关部门应该有的放矢地进行防范。

(一)优化算法设计,提高算法的透明性与公正性

20 世纪 90 年代以来“透明性”原则成为新闻伦理的首要原则。这一原则由信息披露透明、参与透明两个部分组成。[8]一方面,对于人工智能平台算法技术的运用范围、参数报备与法律备案等要做到公开透明,在算法技术投入使用之前,要经过相关监管部门的审查,并出具相应的审查结果和意见证明。对于通过审查的算法产品,可到相关管理部门报备参数和基本信息录入,便于后续投入使用阶段的核查。做到分清责任主体,信息公开透明。

另一方面,算法设计者应当优化和完善对于算法推荐机制的程序设计,避免引发受众的厌倦情绪,减少同质化内容推荐。在设计算法程序过程中应保持公正,减少个人主观情绪对于算法设计的干扰,以免造成算法程序的偏差。同时,在算法技术投入使用的过程中,要揭示人工智能平台算法风险信息,以事先做出预判性的应对措施。

此外,要注意算法的人性化,能准确了解受众的喜好和需求,打破信息茧房带来的束缚。不断优化算法设计,增强信息真实性的识别。政府和企业也应该公开与算法相关的数据,做到过程的公开透明,增强受众对于算法的信任。

(二)加强人机协作,实现优势互补

目前,人机协同下信息采集和审核已实现智能化,机器成为信息核查的辅助力量,也可能带来信息核查的新思路与新机制,包括来源分析、模式识别、技术鉴定、交叉验证、演变跟踪等。[9]人机协同成为新闻生产和传播的新趋势。

由于算法技术带来的碎片化信息的重组,去语境化的内容制作,容易引发受众对新闻事件的理解和态度的误解,所以,智媒时代更要注重发挥新闻编辑的价值,让编辑的把关作用焕发新的内涵。

人工智能快速发展,智能技术在写作等领域的广泛运用,新闻编辑要利用新闻伦理约束算法技术,警惕算法技术在智能生成和分发方面的潜在风险,发挥监督与协作技术在新闻业的作用。

加强人机协作,必须明确即使未来算法技术不断优化升级,人依然作为决策主体。新闻从业者要充分发挥质疑精神和批判思维的作用,创新算法在新闻生产和分发方面的应用,推动人工智能技术的发展和应用。

(三)推动多元信息传播与价值认同,减少偏见与歧视

推动多元信息传播与价值认同,对于减少算法偏见有重要意义。由于算法的个性化推荐机制,人们逐渐接收单一的信息,不利于从多个角度对信息加以判断,形成价值认同。算法设计者在编写程序时难免会带有偏见,在一定程度上阻碍了信息的客观传递。同时,个体无法了解和掌握其他用户的信息数据,使得用户深陷算法歧视囹圄却不自知。因此,要减少算法技术带来的偏见和歧视,需要推动和倡导多元价值,建立健全信息传播机制,打破信息壁垒;需要加强人机协作,建立多层次把关机制,并在算法决策过程中对数据进行校验和修正,减少算法偏见问题的出现,促进多元信息传播与价值认同的形成。

(四)健全算法把关的监管机制和相关法律法规

随着科技的发展,人们被逐渐“数据化”,社会管理逐渐依赖大数据与各类智能程序的运用,算法技术是推动人工智能发展的核心要素。有效规制算法权利就要对其作出系统、准确的规定,让法律法规覆盖算法技术运用的各个方面。监管部门要重视对算法技术数据采集程序和内容的监管,对网络财产保护等作出相应的规定。

相关企业要完善数据安全保障机制,避免因数据缺失或不准确引发算法歧视和算法错误问题,定期进行数据安全风险评估。算法设计者要加强媒介素养和职业道德建设,学习相关法律法规,减少自身偏见对算法程序设计的影响。

政府和相关部门要健全有关算法权利的法律条例,明确算法歧视和算法错误的责任主体,保护个人隐私。例如《通用数据保护条例》,加强对个人隐私数据的规范和保护;《互联网信息服务算法推荐管理规定》,对“大数据杀熟”等问题作出相关规定。

四、 结语

人工智能的发展推动新闻传播领域的技术革新,在算法技术主导的新闻生产和传播过程中,海量的信息内容带来的碎片化传播,个性化推荐技术引发的“过滤气泡”和“信息茧房”,让受众疲于在复杂的新闻环境中寻找自己真正需要的内容。同时,算法黑箱引发的透明性与公正性问题,生成式新闻面临的伦理失范和责任推诿等问题影响着人们的日常生活。

未来,随着算法技术的不断发展和深入,我们应当把握和利用好算法技术,加强人机协作,生产真实、客观、有价值的高质量新闻。同时,建立更加完善的法律法规,保障算法技术的应用和发展。

注释:

[1]刘耀华.治理算法黑箱:建构算法科技与新闻伦理的道德智能体[J].大众文艺,2023(18):59-61.

[2]陈昌凤,师文.个性化新闻推荐算法的技术解读与价值探讨[J].中国编辑,2018(10):9-14.

[3]彭兰.算法社会的“囚徒”风险[J].全球传媒学刊,2021(01):3-18.

[4]刘维.移动短视频内容把关模式研究[D].西南大学,2019.

[5]El.Pariser. The Filter Bubble: What ther from You[M]. Penguin Press .Internet is Hiding,2011:3-12.

[6][7]袁映雪,陈虹.把关人视角下的算法技术认知与治理出路研究[J].新媒体与社会,2022(01):220-233.

[8]刘斌.技术与伦理的冲突与融合——算法新闻时代新闻伦理重构及对策[J].西南民族大学学报(人文社会科学版),2022,43(03):135-143.

[9]彭兰.从ChatGPT透视智能传播与人机关系的全景及前景[J].新闻大学,2023(04):1-16+119.

(作者单位:山西师范大学)

责编:姚少宝