算法推送机制下“权利回归”探析
2020-02-09庄子楦
庄子楦
摘 要 凭借着个性化、精准化、数据化等特点,算法推荐技术成了各大新闻资讯平台迈向“智媒时代”的香饽饽。正如莱文森所说的“任何技术都是刀子的翻版”。算法推荐技术为媒体和受众带来传播便利和经济利益的同时,也随之带来了一系列的伦理问题,“数据主义”“人文主义”相互协调却又相互制约,受众似乎在新技术主导的传播过程中重回被动。文章对算法推荐做出概念界定及意义,并从信息茧房、算法黑箱、全景监狱三个伦理问题角度分析算法对于用户权利的威胁,从法律、机制优化、把关回归三个角度提出“权利回归”解决路径。
关键词 算法推送;技术伦理;权利
中图分类号 G2 文献标识码 A 文章编号 2096-0360(2020)20-0025-03
随着新媒体成为受众日常接触世界了解世界的重要途径,互联网的海量性使得受众跨入了一个信息负载的网络时代,庞大海量的信息也让传统的内容分发模式彻底失效,受众的阅读习惯日益“碎片化”。不少社交媒体平台、新闻客户端都开始顺应大数据时代的潮流,探索新型的内容分发模式,于是乎,类似以今日头条为代表的“算法推荐分发”模式、知乎为代表的“社群分发”模式、微信为代表的“个性化订阅”模式的出现,在丰富了内容分发的模式的同时,也让算法推荐成了各大平台都争相使用的内容分发技术。
1 算法推荐概念界定
算法推荐是基于内容资源、大数据技术、用户为一体的一种信息精准分发模式[ 1 ]。其操作过程是通过算法程序收集用户的上网行为,将用户的上网行为储存为可分析的数据,然后分析数据进而挖掘出用户的爱好习惯以用户的社交圈,用一个个标签化的关键词绘制出用户专属的用户画像,从而据此向用户推送个性化定制的新闻产品。
目前算法推荐形式中应用较为广泛的是以下 三种。
1)用户画像算法,即计算机会通过数据采集和分析,构建出用户个性化用户图像,系统会推荐那些与用户喜欢的以及用户关注过的内容相类似的Item[ 2 ],此外算法还会分析这些内容之间的關联性。但是这样的算法推荐方式却极易出现内容同质化现象的出现,也导致用户受困于“信息茧房”之中。
2)协同过滤算法,即系统会通过技术手段去分析用户的“朋友圈”,然后将具有相同兴趣爱好的朋友喜爱的内容推荐给用户。
3)基于知识的推荐算法,这种推荐算法手段比较典型的方法就是构建领域本体或是建构规则,据此进行内容推荐。值得一提的是,上述算法推荐机制也频繁出错,这也迫使各大平台开始积极的探索更完善的融合算法推荐机制。
2 算法推荐时代下“权利”的迷失
2017年人民网的三篇文章点名批评算法推荐,一下将算法推荐置于风口浪尖之上,关于其带来的一系列伦理问题也成了学界乃至受众都关心的议题。多名学者也从人文主义、人本精神的视角去探析算法推荐下用户权利问题。杜骏飞教授在一次访谈中提到新闻传播人文主义的核心是尊重人的价值,算法有自己的逻辑、世界、目的所在,人文主义是必须提倡的[ 3 ]。孙海龙教授则提出算法运算过程中必须加入“人文主义情怀和价值观,警惕算法带来的以人为本的梦幻[ 4 ]。陈昌凤教授则从权利迁移、人本精神角度探析伦理问题,她认为新时代的新闻领域必将是人主导下的人机高度融合的结 果[5]。诚然算法推荐技术极大的便利了我们对内容的获取也大大的提高了新闻生产分发的效率,但是仔细一想受众似乎又回到了的你传我受的传统“被时代”,受众的“权益”“隐私”正在被大数据、算法一步步的侵蚀着。在此章节笔者将着重分析算法推荐技术对于用户“权利”的剥夺。
2.1 “信息茧房”:用户选择权的迷失
算法推荐通过对用户的浏览记录、爱好、搜索记录、阅读频率等数据来建构了用户专属的用户画像,通过数据的用户分析然后进行算法个性化筛选,将用户感兴趣的内容传递给信息,这样的内容分发机制表面上以定制化的形式满足用户碎片化阅读习惯,但是实质上是打着“以人为本”的幌子实现技术的霸权垄断。
首先,每一个个体都是具有主观能动性的,受众感兴趣的内容并非一成不变,况且还呈现出多元化、不稳定的特点,通过算法分析出来的用户兴趣倾向很有可能只是用户“一时的兴趣”,这只能满足用户短暂和浅层的个性需求。因此如何完善算法机制以满足用户真正的价值需求是算法推荐急需探索的方向。
其次,分发内容同质化严重,相似内容领域的内容反复推送就可能会使得用户对于该领域内容产生厌烦。这样一来算法推荐潜移默化的剥夺了用户对多元信息的选择权,信息失衡难以偶遇让用户受困于算法营造出的“信息茧房”,难以去接触和探索其他领域的内容。而这也值得令人反思,算法技术给受众带来便利的同时,构建了一种“以人为本”的错觉,似乎让受众又回到了“魔弹论”的那个强效果时代。
2.2 “超级全景监狱”:用户隐私权何去何从
法国著名哲学家福柯在边沁的“圆形监狱”模式的基础上提出了“全景敞视主义”,描述了这样一种场景,环形建筑塔尖的监视者从“上帝视角”监视者犯人的一举一动,而被监视者却丝毫没有发觉。在此理论基础上,美国学者马克·波斯特提出了基于信息社会下的“超级全景监狱”理论。而反观大数据时代下,受众们就如同被囚禁在一个数据化的监狱中,算法技术通过不断的采集用户数据秘密的监视着用户在互联网上的一举一动,而受众却全然不知,甚至沉浸于算法技术带来的便利。通过个人信息个人偏好去换取阅读上的便利和定制化,这样的交易简直就是“平台之蜜糖,用户之砒霜”。
碎片化的阅读习惯和快节奏的生活无形地导致了隐私的被动流失。当注册软件账户时,受众会习惯性地快速勾选用户协议,而这也直接地将权限所有权移交给了互联网软件,随之带来的隐患就是数据可能被非法使用甚至被共享给了第三方平台,受众的数据就如同廉价的商品跨平台流动交易着。此外还有就是信息流广告无孔不入,用户在网购中浏览的商品信息以信息流广告的形式不断穿插于各种社交媒体以达到精准营销的目的。这也应征了波斯特提出的超级全景监狱,而关乎用户的网络记忆所有权的归属依旧个是疑问,如何保障用户的隐私所有权以及用户能否要求个人记忆的抹去问题也成了是法律乃至学界急需研究的议题。
2.3 “算法黑箱”:偏见剥夺用户知情权
关于算法这一技术就是如何运行?其如何分析受众的互联网行为?受众的哪些信息会被算法所捕捉到呢?对于大多数普通用户来说,可能大家只知道算法推送机制的存在,却对它的运行机制“一头雾水”。算法就如同巨大的“黑箱”,难以理解难以评判难以监督。“黑箱”是控制论中概念,它指不为人所知的打不开又不能从外部直接观察其内部在状态的系统。
首先,算法并非完美且带有明显的利益倾向。目前大多数平台使用的算法机制都是来源商业化企业,这也导致了用户收取到的信息带有明显的利益倾向,商业利益化的信息流广告、以及煽情化、点击率高的低俗内容“成灾”,局限性及利益性使得算法在某种程度上剥夺了用户的知情权。
其次,算法设计者的偏见导致了信息不对称。算法的框架和标准的制定者都是人,算法设计者自身带有的无意识的偏见导向决定了算法推荐要选用用户的哪些数据以及算法要过滤了哪些内容,这样的偏见价值观也使得算法推荐机制无法保持客观中立的向用户合理推荐。而让人担忧的是,这种来源于算法设计者的偏见色彩,掌控了用户知情权,用户无法去了解他们应该知道的内容和信息。这对于那些依赖于用算法推荐来了解世界的用户来说,算法推荐实际上为他们营造了“看似中立却隐含着偏见”的拟态环境。
3 算法推荐下“权利回归”路径探析
3.1 法律制度保障,算法“黑箱”透明化
有关“权利回归”的探讨首先必须得到法律制度的保障和支持。纵观近两年的算法伦理事件,可以发现目前法律对于算法推荐平台的管制局限于事后问责,大多是问责、删除、阻截等管制手法,缺乏对于算法技术使用和设计上的规范。
首先,政府需要制定一套完善的算法技术使用规范和标准,加强第三方监管的力量,可以引入专业性强的非盈利监管机制,从平台用户协议签订、算法设计环节、数据收集等涉及用户信息的环节对算法平台实施严格全方位的监管,以保障用户的合法权益[ 6 ]。
其次,可以借鉴西方的算法解释权来保障用户的知情权,算法解释权即受众受到算法自动化决策在法律上经济上的损害时,有权向算法使用提出异议,要求提供对具体决策的解释[ 7 ]。算法解释权在一定程度上可以打破了“算法黑箱”,也提高了“算法黑箱”的透明度,保障了受众权利不受侵害,让“不为人知”的自动化决策呈现在公众面前。
最后,需要有更加完善的法律条文,对于用户互联网行为的隐私所有权的界定,加大侵犯隐私权的违法成本,切实保障用户的隐私不被非法利用。
3.2 优化推送机制,提高信息偶遇
要做到减少“信息茧房”,为用户提供更加深层次、优质、多元化的信息,是每一算法平台都需要去优化和改进的地方。
首先,要完善和优化推送系统,加入能够真正反映用户需求的数据指标,例如可以引入用户满意度、评论质量、专业度、用户观看时长、用户兴趣排序等指标,通过多指标的分析构建更加“人性化”的用户画像,为用户挖掘出更加有价值更加专业的内容。
其次,用户画像的建构应该多“更新”、多“变动”、多“评估”,以满足用户的“主观能动性”,对用户的标签以及用户浏览的内容引入排序机制,辨别出用户的短暂兴趣或是深层次偏好,推送时可以有选择性的按照占比或是先后順序进行分发,这样一来就可以保证用户可以获取到更加多元的内容。
此外,可以在分发流程中应该赋予用户更多“主动”的权利,给用户拒绝此类内容的选择权。同时,在用户图像分析时应该减少娱乐化、低俗化标签,多弘扬主流价值观传播正能量的优质内容。
3.3 人机协同,还原内容本真
算法推荐下的新闻生产,通过自动化快速化海量化的算法分析技术替代了传统“把关人”编辑的角色,但是算法机器在对于内容价值、质量的把控上过于机械化,这也导致了许多低俗劣质内容的滋生。因此这也更加需要“传统把关人”的回归,充分发挥新闻媒体从业人员的专业能力,建设一个人机协同的内容审核制度[ 8 ]。
首先,通过传统把关人的回归,为机械化的算法推荐过程注入主流价值观,坚持社会主义核心价值观和传统文化为指导思想,使得“以人为本”“主流正能量”成为算法推荐内容的主旋律,可以有效制止和减少智能化传播中“算法偏见”的出现。
其次,具备专业媒介素养的编辑“把关人”在算法审查环节扮演“纠错者”身份,可及时制止低俗内容的传播和侵犯用户权利现象的产生。还可以采取算法、编辑同步采集内容的决策,让更多有价值的内容被受众所看到,让算法设计和推送的环节上更加注重新闻价值观,让数据时代的新闻内容回归客观真实中立。
4 结语
智能技术的不断发展也预示着学者彭兰所说的“万物皆媒”的时代即将到来,而这也意味着人、人体、人的活动甚至是思维都将被数据化[9],生活数据化所带来的是用户体验感增加、生活愈加便利,然而它悄无声息的监视和窥探着受众的种种行为,算法推荐同样如此让受众的各项合法权益受到侵犯和限制,工具性和人性、数据主义与人文主义在万物皆媒时代下相互协调又相互矛盾,因此如何实现“权利回归”、用户主导权话语权的提升是学界乃至各大平台都急需去面对和解决的问题。
参考文献
[1]王仕勇.算法推荐新闻的技术创新与伦理困境:一个综述[J].重庆社会科学,2019(9):123-132.
[2]周建明,马璇.个性化服务与圆形监狱:算法推荐的价值理念及伦理抗争[J].社会科学战线,2018(10):175-180.
[3]史剑辉.新闻观:人文主义转向何以可能?——南京大学杜骏飞教授学术专访[J].新闻记者,2018,428(10):31-38.
[4]孙海龙.新闻算法推荐对社会价值观的影响——基于人文主义视角[J].新闻世界,2019,333(1):30-34.
[5]陈昌凤,霍婕.权力迁移与人本精神:算法式新闻分发的技术伦理[J].新闻与写作,2018(1):65-68.
[6]张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制[J].中国出版,2018(7):49-53.
[7]张凌寒.商业自动化决策的算法解释权研究[J].法律科学(西北政法大学学报),2018,229(3):67-76.
[8]赵双阁,岳梦怡.新闻的“量化转型”:算法推荐对媒介伦理的挑战与应对[J].当代传播,2018(4):52-56.
[9]彭兰.万物皆媒——新一轮技术驱动的泛媒化趋势[J].编辑之友,2016(3):5-10.