APP下载

算法推荐机制下的“过滤气泡”研究

2022-12-19张璐

声屏世界 2022年16期
关键词:气泡个性化受众

□张璐

近些年来,算法推荐系统不断完善,预测用户喜好和排名生成的准确性也不断提高。然而,当一个推荐系统在预测用户的兴趣时过于精确,就会产生负面影响,即用户接收到的内容多样性较少,其中最关键的一个就是“过滤气泡”的产生。由于“过滤气泡”的存在,用户只接触他们感兴趣的内容,用户的其他信息需求就有可能被忽略掉了。然后,由于用户根据新闻推荐接收信息,就会出现回音室效应,群体极化现象也会应运而生。一个处于“过滤气泡”中的用户被推荐的新闻强化了观点,即使这种观点在新闻领域不是基于事实,一旦它们成为舆论形成的方式,这种力量就非常强大了。

因此,新闻报道一旦成为信息和观点形成的重要来源,“过滤气泡”在这种情况下就会产生不可忽视的影响。目前国内有许多APP,例如今日头条、抖音等借助算法推荐技术收集用户喜好,进行新闻推荐,以此来吸引、维持和巩固客户,但由此产生的“过滤气泡”也窄化了人们的认知范围。

算法推荐与过滤气泡

算法推荐概念的首次出现是在1995年3月的美国人工智能协会上,由卡耐基梅隆大学的Robert Armstrong率先提出。[1]算法推荐技术即基于信息收集的大数据计算,在海量数据挖掘基础上精准定位用户的喜好,进行内容推荐或提供个性化服务,主要有四种算法:基于内容推荐、协同过滤推荐、关联规则推荐、关联规则推荐。[2]随着算法技术的不断优化,推荐方法的实时性、精确性、创新性越来越强。目前算法推荐技术已应用到诸多领域,其中在新闻领域运用非常普遍,例如机器人新闻、个性化推送新闻,算法推荐技术也成为新闻传播学界的研究热点之一。

2011年3月,伊莱·帕里泽在TED的一次演讲中率先提出了“过滤气泡”的概念,是指一种“智能隔离状态”:受媒介技术的影响,不同的意见信息分离,用户被隔离在自己的思想泡沫中。[3]“过滤气泡”的概念一经提出便引发众多学者对其进行研究和讨论,认为“过滤气泡”概念指出了互联网巨头能够依托媒介技术对信息流动进行控制和垄断,它暗示用户在使用互联网时要切实关注自身的隐私保护,保持清醒的态度。因为对于善的公共生活而言,透明且多样化的信息环境至关重要。

“过滤气泡”产生机制

算法的推荐机制。算法推荐技术基于大数据计算,精准定位用户的喜好,提供个性化服务,实质上就是基于海量数据的一套编码程序。用户的点击、浏览都会被系统收录,视作一个自变量在数据库中进行计算、筛选,最终对受众反馈出特定的内容,那么这个过程也就是“过滤气泡”形成的过程。这个算法推荐系统并不是一次作业生成,而是实时计算,实时反馈,最终为了形成针对用户的一套定制化内容。

随着大数据时代的到来,算法推荐以媒介应用为依托已经渗透了人们网络生活,例如网易云音乐的每日推荐、今日头条的新闻推送还有淘宝的“猜你喜欢”。算法推荐正借助互联网“入侵”人们的生活,在这样一种机制下,用户的自主选择权逐渐被让渡了出来,不知不觉将自己困于“过滤气泡”之中而无法自拔。

受众的过度依赖。“过滤气泡”的形成原因复杂,不仅仅存在技术原因,还有人的心理和情感需求。在纸媒时代,大众传媒会对内容进行第一次筛选,而后用户会根据自己的兴趣对内容进行第二次筛选。而在大数据时代,平台会将用户的“二次筛选”记录下来,投其所好进行分发,从而受众所拥有的二次选择权也会被逐渐的让渡。在算法推荐所提供的“定制服务”下,用户原有的态度观点的表达被肯定,异己的信息不再出现,不断顺从用户的心理认同,满足用户的情感需要,久而久之用户便对算法推荐所营造的信息环境形成依赖。最终便形成用户顺从内心意愿,选择和相信推荐的“私人过滤气泡”。

互联网的全景监视。在大数据时代,用户的完整数据在互联网中几乎是透明的,用户的互联网行为都被完整地记录下来并进行数字化编码。在互联网中,已不再存在绝对的私人领域,用户的隐私随时都可能遭到泄露。法国哲学家福柯提出“全景监狱”概念,而互联网何尝不是360度无死角监视用户隐私的数字化全景监狱?美国理论家马克·波斯特在“全景监狱”的基础之上提出了“超级全景监狱”这一概念,每一个用户的虚拟画像就是超级全景监狱中的“囚犯”。但是,身处该处境中的用户未意识到自己已经被监视了,这种隐蔽的监视无法引起用户的重视与警觉,便仍旧沉迷在互联网所创造的“过滤气泡”中。

“过滤气泡”带来的影响

正面影响。一、实现内容精准分发。在信息爆炸时代,互联网上的信息量以几何倍数疯狂增长,在海量且碎片化的信息中锁定用户所需要的信息并非易事,算法推荐技术带来的“过滤气泡”为每一个用户提供了一层信息筛选过滤膜,该过滤膜是定制的、独一无二的,使符合个人数字画像的信息精准地推送给用户。在新闻业,算法推荐技术的利用大大提高了新闻分发的效率;在广告业,算法推荐也会根据客户需求、喜好进行精准的广告推送,实现节约成本,各取所需。例如今日头条APP为了利用算法进行精准推荐,从三个角度对用户进行数据收集:第一个角度是用户所浏览、喜爱的内容特征;第二个角度是用户的个人特征,如年龄、性别等,形成一个关于用户的个人画像;第三个角度使识别用户所处的环境,周围的人事物。三个维度共同作业,几乎能够精准实现内容分发。目前算法技术仍在开发中,将来或许会更加细化,那么对于信息的匹配率也会越高。

二、扩大用户信息接触范围。由于算法推荐技术会根据用户画像来推荐内容,因此其带来的“过滤气泡”中的信息内容也可能为了迎合受众而呈现类型单一化的特征。但是,这种个性化推荐未必会对所有人造成“信息窄化”。2021年,国内学者潘旭伟、王瑞奇通过设计实证研究方案,借助三分图和LDA算法探究真实新闻平台下用户视野的变化,发现用户视野不仅未受到窄化,反而有拓宽的趋势。[4]用户在接受算法推荐的信息的时候,虽然大多根据用户画像推荐的,但仍然是用户所未接触过的信息,能够在主题的纵向信息维度有所拓宽。因此,目前算法推荐所带来的“过滤气泡”在一定程度上能够扩大用户的信息接触范围。

三、实现个性化服务。在传统纸媒时代,报纸对新闻进行几次筛选,刊登新闻内容,用户购买进行阅读,几乎是报纸登什么用户看什么。而大数据时代,新闻媒体提供个性化服务已成为家常便饭,“过滤气泡”使用户在获取自己感兴趣的信息时不用再花费多余的金钱成本和时间成本,平台自动会投其所好,不仅能够得到自己想要的内容,还会获取更多相关信息,这对用户来说何尝不是一种便利?目前流行的算法类APP,如抖音短视频APP会根据用户的基本资料和在某种视频类型上的停留时间等特点去精准推送某一类型的信息,对那些不太会用智能手机的中老年人来说,这种算法所提供的个性化服务便拉近了他们与这个时代的距离。

负面影响。一、助长信息壁垒的建立。不可否认,“过滤气泡”通过大数据筛选信息确实提高了信息分发的效率和准确度。但是,也是由于“过滤气泡”的过度筛选,将许多其他对用户有价值的信息阻挡在外。[5]在传统媒体时代,编辑往往会对新闻进行筛选、加工,将最重要的、最有价值的信息呈现在受众面前。在那时,公众对于公共信息的关注度还是相当高的。而如今的算法推荐新闻往往受商业利益的驱使,更愿意投其所好,根据用户的兴趣和需要分发新闻信息。随着算法在人们日常生活中的广泛应用,由于“过滤气泡”的存在,人们对公共议题的关注度日益下降,只要不符合自己兴趣或立场的信息都会被“过滤气泡”排斥在外。因此,就出现了喜爱体育新闻的用户很难看到科技新闻的信息,用户被局限在“过滤气泡”所设定的狭小的圈层之内,长此以往,信息壁垒便产生了。

二、促进群体极化效应。由于“过滤气泡”的定制化属性,便形成了针对个人的、独一无二的网络信息世界。“私人过滤气泡”通过记录,描绘用户的个人画像来筛选属于用户的个人信息,但问题在于这是一个不可视的筛选过程,用户无法决定什么信息可以进入过滤气泡,更重要的是,用户也看不到那些被剔除的信息。“过滤气泡”对用户制造的信息壁垒,用户只能接受到为他量身定制的,只属于他私人圈子的话题,那么这样一来,极易产生“信息茧房”“回音室效应”。不管是“信息茧房”“回声室效应”还是“过滤气泡”都极易造成一个现象,那就是群体极化现象,当争议话题出现时,群体观点在回音室中碰撞便产生“群氓”。

三、导致内容质量下降。“过滤气泡”的存在不仅仅制造了用户的信息壁垒,更可怕的是,它形成了这样一种互联网风气,便是以吸引用户注意力为导向的信息推荐原则。这样一种原则会使“后真相”要比陈述事实对受众产生的影响更大,会使内容生产者更倾向于“诉诸感情”。因此,当受众的兴趣成为内容推送的核心标准时,不可避免内容生产就会迎合用户需求,因此就会伴随着内容质量的下降。这也是“过滤气泡”在内容生产者和用户间相互作用产生的一大危害。

四、造成个人隐私的泄露。算法推荐的前提是对用户个人信息的收集,收集关于用户的全部信息,形成针对用户个人的数字画像,再利用大数据进行信息筛选、推送。由于当今互联网中存在的商业利益,在这个过程中涉及到的用户信息未必是用户本人确认授权的,这就涉及到了个人隐私的侵害。在互联网的“全景监狱”下,个人是不存在隐私的,人们所有的信息都会被视作自变量参与到大数据的计算当中。并且当今互联网在个人隐私泄露方面的法律界限并不清晰,这就存在不法分子进行个人信息买卖。因此,“过滤气泡”的形成也伴随着个人信息的泄露。

如何“戳泡”

优化算法推荐技术,增大用户视野。用户难以知晓“过滤气泡”背后的算法程序设计和自我被个性化推荐影响的程度,那么算法推荐的开发者应该承担起自己的一份社会责任,首先是将“过滤气泡”生产内容透明化,其次应该优化算法推荐技术,而不是仅仅以商业利益为导向去无脑推荐。对于如何优化算法推荐技术,新闻媒体和互联网产业应积极开展“戳泡运动”:第一,算法推荐的尺度可调,能够让用户决定“过滤气泡”的生成和影响程度。第二,在为用户进行个性化推荐,生产“过滤气泡”的同时,也为用户在同一版面提供“泡泡”之外的内容。第三,经用户同意后,在用户浏览信息时向其推送与用户立场,或政治倾向不同的信息,以平衡用户的信息失衡。

尊重隐私,唤醒受众算法感知。在大数据时代,个人信息成为最有价值的财富但也成为最容易被侵犯的个人财产。算法推荐要产生“过滤气泡”就需要大量收集用户信息,那么一定会涉及到的用户隐私泄露问题。由于“过滤气泡”的产生机制不透明,受众在互联网中浏览信息时不知不觉个人信息就被“征用”了,如果算法技术在尊重用户隐私的前提下进行,那么大多数用户就可以对自己所处的“过滤气泡”有一个更清晰的认知,从而加以防范,采取行动进行“戳泡”。

提升算法素养,主动“戳泡”。克服算法带来的“过滤气泡”不仅需要优化算法技术,受众个人也要提高自己的媒介素养,积极“戳泡”。虽说算法技术能够给用户设定信息可能的接受范围,但无法决定用户看什么,关注什么。在用户发现自己被“个性化”的时候,应该警觉起来做出行动,例如关闭个性化推荐按钮,或者浏览多个信息源,主动扩大信息推送的范围。最重要的是,不能对“过滤气泡”产生依赖,要主动出击,打破信息壁垒。

结论

在大数据时代,公民如此依赖互联网,谁都无法完全摆脱“过滤气泡”所带来的影响。上文所提到的,算法推荐所形成的过滤气泡其实是一把双刃剑。一方面它提高的新闻生产和分发的效率,极大地减少了成本,增加了效益;另一方面,也引发了许多媒介伦理问题,例如信息壁垒的建立,公民隐私的泄露,内容质量的下降等。因此,人们应该辩证的看待“过滤气泡”所产生的影响,在充分利用其“优点”的前提下积极“戳泡”。

猜你喜欢

气泡个性化受众
坚持个性化的写作
冰冻气泡
新闻的个性化写作
用创新表达“连接”受众
上汽大通:C2B个性化定制未来
用心感动受众
媒体叙事需要受众认同
电视节目如何做才能更好地吸引受众
满足群众的个性化需求
气泡泵在制冷技术中的应用研究进展