智能算法视域下网络短视频运行逻辑、价值遮蔽及协同引导路径研究
2023-05-25刘德群
刘德群
(池州学院 文学与传媒学院,安徽 池州 274000)
进入大数据个人化时代,信息传播越来越精准化、智能化,控制大数据智能算法程序的平台公司实际上成为信息流的把关人。在数据垄断下,甚至出现了“超级权力”[1]。正如Castells[2]在《传播的权力》中指出,“权力即传播力”。移动互联网短视频平台依赖大数据算法在后台操控,成为实质的当家人。短视频平台通过技术标准制定、议程设置、编辑决策、审核把关、所有权以及不同网络之间的连接与转换等向公众推送信息视频内容,影响用户对事件的认知和对世界的理解。可见,传播权力愈加体现为智能算法权力。
一、算法权力的运行逻辑
随着搜索、资讯、社交和消费等智能平台的发展,智能算法日益深入人们生活的各个方面。在智能科技崇拜仍存、法律法规尚不健全的当下,社会和个人生活中权力关系(算法权力)的背后普遍存在操控痕迹。不论是信息推荐、内容审核,还是教育评估、公共安全,都在不同程度上受智能算法支配和控制的现象。
(一)短视频智能算法的操控表征
1.“定制化”的信息分发
据统计,数字算法在互联网推送的信息占网络分发全部信息的80%以上,在移动短视频内容推送中其发挥的作用也日益突出。无论是今日头条客户端,还是抖音、快手等短视频平台,从下载安装客户端开始,算法技术就在搜集用户的手机、位置、场景、身份、头像等相关信息。算法会依据用户的点赞、点击、转发、评论、注册和览阅等行为数据,分析用户喜好并推送相应内容。“你关心的才是头条”正是对算法主导的“私人订制”信息分发逻辑的形象描述。
卢因[3]认为,“作为传播者,不可避免地会站在一定的立场、视角、知识框架对信息进行筛选和过滤”。对信息的推荐排序、过滤和分类等决策行为构成了媒体的中介权力。基于数据分析的自动化算法程序不仅可以与受众智能交流,还能提供消费指导和引导舆论。在西方有些国家政治竞选时,就有智能机器人在社交平台上利用算法的信息推荐,为用户定制发送有政治倾向的信息和政党新闻来影响、操控选民。
2.“精准化”的内容生产
随着抖音、快手等短视频逐渐成为主流媒体生产与传播信息的主渠道,模糊化的大众传播模式向更为精准的网络个体传播模式转变,内容生产更加“精准”“个性”。“精准定制”成为社交媒体用户社群的需要,传统媒体时代“一条新闻轮番播”的传播现象不再出现。在新媒介生态下,主流媒体也在不断调整运行模式:在选题策划中引入“热点事件追踪”技术;新闻短视频创作中实施“千人千面”新观念;面对不同地域、不同爱好、不同画像的人群,采用多样化的话语和情感模式等。
算法还可直接参与内容生产。如人工智能媒体平台能够在新闻、体育、影视、综艺等方面开展短视频的智能生产、采集分析、标注标签、版权追踪等工作。融合智能算法和视听语言的机器人可以进行新闻写作,完成智能查重、纠错等工作,还可以在一定场景下实现“AI合成主播”。
3.“智能化”的内容审核
“用户原创内容”的生产模式让网络社交平台的内容更加丰富、繁杂、多量,传统的人工审核越来越不能满足用户对时效性的要求。为了满足用户对“良好体验”和“时效迅速”的需求,平台纷纷引入智能算法进行内容审核。智能算法主要通过数据库比对和智能审核系统对用户发表或转发的内容进行审核,包括对敏感词(政治术语、法律禁止内容)的自动识别。智能审核可以完成90%以上的内容把关,极大地提升了效率。但算法程序在处理信息时的“机械”和“僵化”,也是智能审核相对于人工审核的不足之处。如算法程序对视频或图片的审查还不是很精确,疑似违规的内容常常只能标记或报警,有时还会误判一些账号信息。可见,智能审核无法完全替代人工审核。
进入后真相时代,社交媒体为个体赋权。无论人工智能核查机制如何高明,也很难左右个体如何“解码”接收到的信息。每个用户都有特定的文化背景、价值观、社会阶层,这决定了他们在解码信息时的思维方式[4]。
4.“全景化”的大数据跟踪
随着移动互联网和智能设备的发展,个体和群体的生活轨迹和社会活动大都可以被跟踪记录。人们在网络上产生的全部数据都会被搜集、分析、采用,这些数据还经常被运用于引导交易[5]。如一个不常用抖音的男生,在浏览完抖音推荐的11条短视频后表示十分震惊:“两条视频是化妆品推荐,两条是关于美食的内容,还推荐了自己村的人,都没有在抖音看过;只有推荐的1条视频,是大学里关注的老师……”(1)受访者为笔者所在高校的大一男生。在智能监视和数据垄断的语境下,网络平台公司成为信息传播领域的实际当家人。大数据不再仅指一项技术,还将成为被大公司利用进行获利的工具。平台智能程序的运行和大数据权力的实现基本上在“暗箱”中进行。“监测什么对象”“忽略什么情况”“开展什么活动”“担任什么角色”“具有什么价值”等,这些程序问题已被设定。智能手机的普及也为短视频平台的用户画像、大数据分析、算法推荐提供了便利,用户随时被记录、跟踪、检测。“使用即同意”成为潜在规则,但是用户并不清楚这些数据的使用是否合法合规。
随着数字化生活的全面深入,个体和特定群体在智能监视设备面前越来越透明,数据处理却一直处于“暗箱”中。在西方国家,数字化生活下的人们甚至怀疑法律保障的民主自由是否真的存在。
(二)短视频算法推荐的内在逻辑
为了更好地防范和规避内容传播风险,抖音、快手等短视频平台会公开其算法逻辑,还会依据不同地区的法规适时调整、更新算法。笔者在针对平台推荐算法运行逻辑探析中,主要采用文献分析法、现象学研究方法、定量研究方法、网络民族志方法等。其中,基于网络民族志方法的具体研究主要以影响力最大的抖音短视频平台为例,对流量高峰时段的视频内容和平台使用情况等进行参与式观察。
推荐算法的运行逻辑主要从两个方面分析:技术上的推荐机制和价值观念上的把关标准。
1.技术逻辑——推荐内容的筛选机制
短视频平台的推荐主要基于内容、创作实践、地理位置、用户关系等。目前,多数平台采用的是基于对用户、内容的记忆以及模型的协同过滤推荐算法,主要依据相似度对用户和内容进行分类推荐。当通过审核的短视频上传至平台后,推荐机制会把短视频分类匹配给相关人群,以便定位用户的兴趣和爱好。协同过滤算法理论认为,同一种类的内容受同一用户的喜爱,同一类别的用户对同一类内容感兴趣。具体的算法流程为:首先,基于用户画像和反馈信息对人群进行分类并初步配发;然后,根据用户痕迹(如网上阅读、点赞评论、转发收藏、检索信息、通讯等)进行标识,并及时调整推荐对象和目标人群。以抖音算法为例,平台首先根据内容将视频推荐给初定群体(如200—500位具有兴趣倾向的用户);然后根据单位时间内的点赞、关注、转发等数量和比重,将视频推荐给更多潜在用户;经过七八次推荐后,视频浏览量可达5 000万人次以上,成为热门视频。如果被过滤掉的视频再次爆款,还会根据流量情况被重新推荐。具体如图1所示。
由此,抖音、快手等平台协同过滤推荐机制的根本还是“流量至上”。“互为主体”的推荐算法与用户的关系主要体现为两个方面:一是利用算法分析用户碎片化和无序化的数据,预测出其需求和规律,有针对性地进行内容推送;二是数据化的生活行为记录也在推动算法的改进,并影响后续的视频推送。二者的实践关系处于动态中。
图1 短视频推荐算法流程
2.价值逻辑——内容把关的价值依据
从技术上来看,智能算法的内容推荐是一套计算程序,不涉及价值标准和主观思维。实际上,智能算法的设计、演变等都离不开社会因素的影响。价值标准的选择、数据提取、语用分析、结果解读等体现了平台设计者和管理者的价值逻辑。Devito[6]在研究中明确提出,Facebook具有用户兴趣、用户之前的参与、用户偏好、负面关系、负面表达、发布时间、平台优先、用户公开表达的兴趣、内容质量等九个方面的价值要素。国内学者也提出,今日头条平台的推荐算法主要是场景、内容、用户偏好和平台优先级等四个价值观维度匹配。抖音算法推荐的基础来源于今日头条算法,主要实现内容、用户和环境三个维度变量的匹配,其变量匹配可简化为函数y=F(Xi,Xu,Xc)[7]。其中,y、F、X分别代表内容特征、用户特征和环境特征三个维度变量。也就是说,内容、用户和环境的任何一个维度变化都会影响算法推荐程序和过程。参与式观察抖音平台推荐栏目中的短视频(250条)(2)参与式观察的内容主要包括短视频内容类型、内容描述、条数和内容来源。时间为连续一周晚上的流量高峰段9点左右,观察20分钟。文中参与式观察的时长和程序均符合网络民族志方法实践的要求。后发现,推荐算法行动者的价值观受用户、资本、制度等元素的影响,主要体现在用户偏好、社交关系、公共议题、场景、差异化和平台优先级六个维度。具体如图2所示。
由图2可知:用户偏好的价值内涵是基于用户喜好、兴趣的相似性推荐,社交关系是基于用户社交相关性的圈层化推荐,两者的推荐数量占比较大(近80%);公共议题主要指主流媒体发布的新闻资讯,具有公共属性;场景是根据用户位置和情境的相关性推荐;差异化是用户兴趣边界的差异化内容;平台优先级是平台为了商业利益优先推荐的内容或合作机构制作的视频,是商业逻辑下的推荐策略。可见,短视频推荐算法的价值观商业属性浓厚,兼具公共性。除了公共议题外,用户偏好、社交关系、场景、差异化、平台优先级等都受用户需求的影响,六大价值要素主要体现的是流量和商业利益。
图2 抖音推荐算法价值观六个维度
二、智能传播的价值遮蔽
大数据驱动下的算法权力本质上是对人类历史上的社会、政治、文化的隐喻,影射人类社会的不平等、暴力、霸权、不公正、歧视等现象。在流量、利益和政治认同的驱动下,算法并非绝对中立。在短视频推荐的过程中,存在干预人类的文化决策、信息闭环和同类推送、算法推荐机制不完善以及对用户画像的不精准设定等问题。
(一)同类推荐的意外后果
目前,抖音、快手、微信等平台的短视频数量巨大。然而,这些视频过于类型化、个性化和单一化,同类推送和信息窄化的现象十分明显,由此将在信息传播领域产生信息茧房效应、回音壁效应[8]。例如,参与式观察抖音连续3天推送给某高校女教师的198条短视频,这些视频主要涉及亲子、教育、泛娱乐、广告等方面。其中,21条是“家长应该怎样引导和教育孩子”的同类短视频(占比11%),18条是“80岁的你”的同类特效视频(占比9%),8条是介绍抖音的“doudream 创作者计划”的同类推广视频。
事实上,以受众偏好为主的内容推送就是一种相似性推荐。从“兴趣”开始,到点击“相似内容”,如此循环,使用户接收的内容越来越相同或相似,获取信息的渠道越来越窄,信息面越来越小,由此可能会导致思想和情绪的狭隘、偏激。从某种角度上来看,个性化推荐并没有让用户看到多元的信息世界。用户长期置身于过滤后的闭环信息中,个体之间的知识鸿沟也会越来越大。将具有共同兴趣爱好和相似价值观的人聚到一起,易造成用户情绪极化以及社会分化,甚至会激发用户的群体行动。这种相似性推荐在某些西方国家深度参与政治选举,助推难以预测的政治结果。
因为后验是以离散的质点近似的,在权重集中在一小部分质点时经过几次迭代更新后,该方程组就会遭遇抽样简并。权重方差的减少可确定简并度,可用近似(Arulampalamet al,2002):
(二)智能审核的遗漏误差
在短视频智能平台中,传统的人工审核逐渐被算法审核替代。由于后台操作的不公开性,审核过程存在“以权谋私”的可能,权力寻租和腐败的可能性与投入预期之间呈现正比的关系:当平台的预期越大,权力寻租的想法就越强烈。在网络媒体平台上,稿件的撤稿权或管理权是权力寻租的具体方式,如部分平台利用操控流量、有偿删帖等行为获取不正当的利益。一些网络媒体公司或者中介公司也参与其中,为不当利益的实现提供技术支持或牵线搭桥。目前,官方和媒体公司后台审核的重心为“是否违反法律”或“有无违背道德伦理”,对信息内容的真实性和科学性审查力度不够,为权力寻租提供了空间。
媒体平台通过多种方式进行自查自纠把关,及时处理违反法规账号。然而,根据官方监管通报,仍经常出现违法违规、把关不严、审核不及时的情况。视频的内容审核是基于以秒或帧画面进行。对于单幅画面容易判定,但由于视频情境的复杂性,具体审核还是很有挑战性,如“视频中复杂情境的真实性很难逐条核实”“审核标准的明确性与难以描述的模糊性之间存在冲突”“新闻真实性与后期制作倾向性之间存在冲突”等。
(三)算法歧视用户的现象
算法歧视具体是指智能算法技术在收集、处理、解释数据时生成与人类相同的偏见与歧视。智能技术对受众显性或隐性的歧视行为,常采用信息采集、特定推送和个性定价等手段,如滴滴、携程在差异化定价中的价格歧视,以及今日头条在个性化推荐中的身份歧视。短视频推荐中同样存在用户身份歧视现象,如抖音推荐算法把某高校女教师的母亲身份设定在亲子、育儿生活范围内,由此推断其为“家庭主妇”身份。将母亲与家庭妇女等同是对母亲的形象和身份的隐形偏见和刻板化认识。
平台通过提取和解析人们的浏览信息和社交行为,整合用户画像并据此进行相关推荐。然而,对用户画像理解不到位、描绘不精准会造成算法歧视。平台使用社交手势这种简单维度来描述用户丰富的情绪和行为,本身就是对人类丰富情感的漠视,也是对人的多样化信息需求的忽略。这种基于虚拟需求的算法推荐只是对用户画像的浅层判断,没有深刻分析用户的深层需要,他们的情感需求长期被忽略,用户的被歧视感随之增强。
(四)对文化决策的干预
随着算法推荐技术的广泛应用,视频平台实现了主动搜索、主动分析、主动推荐的功能,人工智能也由此开启了机器主动传播的阶段。而之前,传统的电视和视频网站不具备主动寻找用户的功能,只能被点播、观看或评论。波斯曼[9]指出,“文化在技术垄断背景下将沦为技术的奴仆”。智能技术的垄断也推动了信息文化智能决策的现象出现。算法跟踪人们的行动,洞察人们的心理,甚至替代人们思考,逐渐影响人类的文化生活,干预人类信息文化决策。
在后现代消费主义的影响下,智能社交媒体平台借助技术赋权构建自己的消费文化和帝国。各垄断平台不仅是智能消费中生产力的新动力,还是社会文化、娱乐、消费新观念的重要信源,推动着生产力和生产关系的再生产[10]。
(五)传播权力的误用
智能算法技术对媒介传播的全面渗透,不仅推动了媒体生态和文化环境的变革,还改变了人们的观念意识。在资本市场中,垄断技术在一定程度上代表垄断利润,智能算法的效率会直接影响市场份额和利润。当资本驱动的算法对人类生活渗透得越来越深,数学理性构建的模型算法逐渐成为经济利益的工具,人的思想也将被利益和权力利用、支配。
三、协同治理角度的算法权力引导
在目前法律规范相对滞后的情况下,算法权力在道德价值正当性和管制正当性方面也具有明显的滞后性。从企业生存和发展的角度来看,首先需要的是实用与效率正当性,然后才是价值正当性。视频平台、网络巨头等主要从规范性和绩效正当性的角度维护算法正向性,而党媒和社会媒体还要从价值正当性和法规正当性等方面消解算法的权威。要实现算法的系统性优化,不仅需要技术的推动,还需要系统性合力。算法的优化和引导需要政府、行业协会、媒体平台、用户等多方协同参与。
(一)加强政府与平台的合作
1.推进后台运行的前台化
“暗箱操作”最好的治理方式就是阳光化,政府是推动算法透明重要的参与力量。在保护核心技术的前提下,政府、企业、协会、公众等多方参与、监督、测评,可提高不同领域算法的透明度,推动算法进一步完善和优化,有效解决算法的工具理性凌驾于价值理性的问题。若用户经常对平台的审查处理结果不满,政府可组织听证会,把知情权还给用户,让用户了解平台对个人数据的使用和幕后的审查过程。用户也可据此重视并调整个人的媒介行为。
2.政府公权力的协商管理
随着大企业成为人工智能、算法技术等研发的主导力量,政府的公共治理离不开掌控核心技术的平台,技术权力对公权力的影响日益加深。部分由政府单独开展的监督管理权转移或授权给技术公司,形成政府监管平台、平台(公司)监管账号的协同监管。当平台公司的智能过滤系统和审核机制参与网络短视频非法内容的监管时,数据审核的标准由平台公司掌控,且政府后期的监管执法依照需要平台的数据。在算法时代,政府不再是研发和治理的唯一主导,不仅平台的技术治理需要掌控智能技术的公司支持,传播内容的价值引导也离不开智能公司的参与。
(二)制约文化、经济、技术等垄断资本
1.对文化资本进行规训
一是政府法令对文化资本的传播内容具有硬性约束。在文化资本的生产、再生产和媒体传播中,无论是个人的媒体账号,还是网络平台账号、社交软件账号,都需遵循其所在国家、地区的法律。二是行业协会的内容规范对文化资本的协调管理。具有较高威望和管理角色的行业组织,凭借评价、激励等方式对文化资本进行制约。通过出台行业自律条例和相关内容审核标准,中国网络视听节目服务协会对网络视频发挥评价、督促、引导、激励的功能。三是社会制度内化为内部规制。用户协议是平台公司私权利的实施途径之一,受制于法律框架。只有遵从法律,公司的私权利才有基石、有保障。在违法违规等风险防范上,短视频平台会采取黑名单管理、用户投诉处理、版权管理等机制。快手、抖音等平台成立“社区自律委员会”,多途径开展内容规范的治理。
2.对经济资本进行防范
无论主流媒体还是商业平台,短视频舆论导向的标准都是相同的。一是适时推进特殊管理股制度改革,从现代公司治理结构层面确保互联网传媒公司的政治方向以及防范单方资本利益对传媒内容的直接干预。二是借鉴国外传媒资本的“15%规则”,防止大股东控制垄断。为了防控媒介领域的经济资本权力对言论自由、媒介传播或社会舆论的直接干预,有些国家立法保护公民在媒体上的言论自由,出台禁止媒介资本的垄断性控制法规,比如澳大利亚的《媒体所有权管理法》。
3.对技术资本进行制约
一是引入算法伦理审查机制,遏制算法偏见、算法歧视等伦理风险。资讯类算法推荐中的算法审查要按照公共利益原则、情境理解原则、介入必要原则和介入无害原则开展,主要包括依托平台资源和用户资源等途径。根据我国《互联网信息服务算法推荐管理规定》,要定期审核、评估、验证算法机制机理,加强用户模型和用户标签管理。二是加强隐私数据的法律保护。抖音、快手等移动平台存在过度搜集个人信息或未经授权情况下个人信息商业化问题[11]。当这些误导性信息内容关联决策时,就存在是否合法和正当的问题。三是主流传统媒体也可实践媒体算法。面对突发事件,平台可通过调整算法推荐权重,将人民日报等主流媒体的信息置于优先级别,加大正能量新闻信息的推荐力度,加强价值观正向引导。
(三)推进公众参与权力监督
一是个体参与权力监督和社会治理的组织化、制度化。公众参与社会治理可分为个体化公众化参与和组织化公众参与。个体化参与社会治理一般是通过信访、网络投诉、"内幕"曝光等形式实现,具有零散性和无序性。不同的社会群体成立代表自身利益的社会组织,参与社会治理,在提高社会治理透明度的同时,也会遏制智能算法的权力腐败。
二是提高社会公众参与权力监督和社会治理的意识和能力。社会组织参与权力监督和社会治理也是实现人民当家作主重要内涵之一。舍基[12]指出,“网络时代公民社会通过各种社交平台形成无组织的组织力量”。当个体命运或个体事件通过“共情”产生共鸣,形成网络群体行为时,弱势群体也可以借助网络力量对抗强势机构。近年来,民间信访和社会参政议政渠道越来越顺畅,公众参与权力监督和社会治理的热情不断提高,监督意识和能力也在不断增强,将更有力地推动"权力向阳"的目标实现。
四、结 语
智能算法不仅带来互联网信息传播范式的变革,还直接参与智能化短视频的内容生产、推荐和流动监视。算法推荐存在同类推送和信息窄化现象,引发信息茧房效应、回音壁效应带来的负面影响。算法审核存在遗漏误差,并不能完全杜绝违法违规短视频的传播,且存在权力寻租的可能性。算法设计者持有对于身份、种族、阶层等的固化印象,以及对用户画像设定不精准;算法技术对人类行动和心理进行监测,代替人们思考、干预人类文化决策等现象让人担忧;智能算法在追求精准、高效的同时,还会忽略义务、美、规训等价值思想。
要实现算法的系统性优化,需要多元协同共治。算法在伦理价值方面的风险防范需要政府、行业协会、媒体平台、用户协同参与:一要加强政府与平台间的合作;二要制约文化、经济、技术三种垄断资本;三要公民参与算法权力运行的监督。只有让算法的“黑箱”权力处于阳光下,充分发挥行政法规、第三方评价监督、传播实体算法自律等方面的治理和引导作用,秉持权力向阳、算法向善的价值导向,才能使智能算法更好地服务于大众。