算法推荐中的自我传播与自我认知
2022-09-23王学成任千里
文/王学成 任千里
自算法介入新闻传播过程以来,新闻可见性的决定权逐渐由人转移给了算法,算法取代新闻守门人,成为算法看门人。在传播的过程中,人们已经赋权给算法。随着算法能力的提升,算法的权力也在不断扩大,对人类行为自然也会产生越来越多的规训,由此学界产生了对“算法黑箱(Algorithm Blackbox)”和“信息茧房(Information Cocoons)”等问题的担忧。
算法推荐技术经过多年实践,目前已经有大量研究证明人们对于算法推荐机制的担忧可能远不像人们当初想象的那般严重。通过对于算法推荐机制的研究和观察,笔者认为,算法推荐的确会在一定程度上对人类的行为和认识产生规训,但是,人对于算法的规训要远比算法对人的规训大得多。算法的本质属性是工具属性,作为一种工具,算法能给人类社会造成的负面影响非常有限。算法推荐机制中存在的问题不过是现实社会的反映,真正需要警惕的是现实社会中的极化、偏见以及其他不稳定因素。
一、算法推荐对人的规训
早期的算法推荐技术主要包括基于内容的推荐、基于知识的推荐以及协同过滤三种推荐方法。经过多年的发展,目前的算法推荐机制已经不能被几个简单的名词概括,但算法推荐机制的本质没有发生改变。算法掌握的是信息传播的渠道,决定的是用户能看到什么内容。这是一种非常大的传播权力,因此,笔者认为算法推荐对于人的规训主要集中在以下几个方面。
算法对用户议程的规训是最显见的,当算法决定了内容的可见性、可及性时,根据议程设置理论,也就间接拥有了控制人对议题重要性判断的能力。依据关键词和内容标签进行算法推荐是算法推荐最基本的逻辑和最基础的功能。也就是说,算法能够在一定程度上规训用户能看到什么、想看到什么,并使之具有同一性。
真正客观的“零度新闻”是不存在的,新闻学的研究已经证实了这一点。算法推荐的任何内容它总会或多或少、有意无意地反映某种社会观念,因此用户在浏览算法推荐的相似内容的时候,一定程度上也是在接受算法推荐的观念。高频度的有关某一观念的内容接触总会在一定程度上影响用户的认知,当这种观念与使用算法推荐的平台的庞大用户基数相结合时,某种社会流行观念也在随之酝酿。
用户获取信息是为了更好地完成改造世界的实践。拟态环境理论指出,媒介向人们呈现的是重新结构化的世界,并通过制约人的认知和行为来对客观的现实环境产生影响。因此在算法推荐内容的过程中,社会观念的规训远远不是终点,对用户行为的规训才是。受到社会观念规训的用户会将接受到的观点贯彻于他们的现实生活实践中,进一步扩大算法对于社会的影响。
二、人对算法推荐的规训
虽然当人类赋权给算法之后,算法会拥有相当大的传播权力,会从社会共识塑造、社会议题设置、行为决策判断等方面对人产生规训。笔者认为,人作为算法的创造者,人对算法的规训才是人机关系矛盾中的主要方面。
算法并非凭空产生的,而是基于严谨的用户需求调研之后,根据用户需要设计的。而当人类认为算法推荐的机制存在问题时,人类有直接要求算法做出改变的权力和能力。
以“今日头条”APP为例,早期“今日头条”的推荐算法非常简单,算法中存在的问题也非常多。但是当用户和管理者发现单纯的兴趣推荐不能满足社会的公共性需求时,便会要求算法增加公共信息的推送。算法的生产者和管理者、相关平台的监管者以及用户三方可以说都直接拥有规训算法的权力和能力。算法生产者和管理者能直接按照自己的观念调整算法;相关平台的监管者可以以行政命令等方式直接改变算法推荐模式,使其更加符合社会发展的需要;而从用户层面看,个体用户的力量虽然渺小,但当用户普遍认为算法推荐机制存在某种问题时,用户的压力也会迫使管理者对算法推荐机制做出调整。在目前市场化运作的内容平台中,用户的需求可以说就是算法努力的方向,内容平台之所以采用算法推荐机制,也是为了更好地服务于用户,进而实现良好的效益,因此作为消费者,用户声音是不可能被忽视的。从这些方面来看,在算法与人的关系中,人的需要始终是占据主导地位的。
这证明了人是算法的直接控制者,即使是普通用户,也拥有直接对算法进行规训的权力,进而证实了人对于算法的规训是人机关系矛盾的主要方面。
算法推荐的前提是在后台形成用户千人千面的用户画像,或称数字分身,之后算法推荐的基本逻辑是按照用户的不同特征,为用户推送不同的内容,从而达到千人千面的传播效果。
那么,用户画像来源于何处?虽然用户画像与用户的性别、年龄、地域、社会关系网络等具有相关性,但用户画像的核心仍然是用户自身需要。用户点击、阅读、拒绝阅读、举报等交互行为都可以看作是用户与后台用户画像间的自我传播,通过这些交互行为,算法后台的用户画像会越来越接近于真实的用户本身。
“自我传播”并非一个新鲜的概念,传统的自我传播又称人内传播,是指个人接受信息并在人体内部进行信息处理的活动。米德关于自我传播的“主我与客我”理论指出,个人在与他人的互动中形成自我,而在算法推荐机制中,个人在与信息内容的互动过程中在算法后台形成用户的数字孪生形象,这可以看作是自我传播在数字环境下的新发展。
数字孪生的形象如何,完全取决于用户的自我传播,算法本身并不会替用户做决定。不论是学界的研究,还是相关科技公司的披露,都显示出用户自我传播对于数字孪生形象的影响远大于年龄、性别等人口统计学因素和社交网络等因素对于数字孪生形象的影响。算法推送的结果实际上是用户自我传播的结果,在较长的使用时间内,算法推送可能比用户自己更能客观地认识到用户的信息需要,即使用户从主观上认为这些内容是低质的。
在数字孪生形象的构建中,普通用户就拥有选择信息的绝对权力,用户可以轻易地对算法推荐的内容一键选择屏蔽,给后台的数字孪生形象最直接的反馈,改变自身形象,这种“一票否决权”的存在,是人对于算法规训的本质体现。
海德格尔指出:“主体性既是人作为主体所具有的性质,又是人作为主体的根据和条件。”而人作为主体,其特征包括自为的自律性、自觉的能动性、自由的超越性等。算法看似具有很高的能动性和权力,实则不然,算法只有在主体价值观的引导下才能展开活动。
前文已经提到,工具属性是算法的本质属性,一切算法的发展从本质上来看都是“以我为主、为我所用”,算法对人的规训不过是算法服务于人的过程中可能产生的副作用。算法推荐的结果是人主体认识的延伸,即人有什么样的认识,出于服务人类的目的,算法会为人类推荐与其认识水平相符的内容。
目前的算法推荐机制中可能仍然存在一些偏见,诸如各种歧视现象等。但是笔者认为,虽然算法推荐的结果客观上使社会偏见扩大化,但并不能武断地认为算法就是这些问题的制造者,算法中隐含的偏见不过是对社会偏见问题的一种真实反映。认为算法造成或者扩大了这种偏见,是对于算法本质和社会现实认识不深刻的表现。算法既不具备产生偏见的能力,也不具备消除偏见的能力,要真正解决算法中存在的偏见问题,必须对现实环境做出改变,改变算法之上的源头信息,算法偏见问题才能真正得到解决。算法会直接反映人的偏见,也从另一个侧面证明了在算法推荐的机制中,人是具有主体性地位的,人对于算法的规训远大于算法对人的规训。
三、算法推荐结果是人自我传播的直接映射
算法实际上是一种规则,任何社会中都一定会存在各种各样的规则,这些规则在实施前我们也并不能完全预测规则可能产生的结果,这也是一种“黑箱”。“信息茧房”的反面是社会共识、群体共识,茧房的存在一定程度上也维持了社会和群体的稳定,从这个角度看,算法的负面影响似乎并没有学界、业界一直以来思考的那般可怕。
更重要的是,人是具有主体性的,即使在算法推荐的规则之下,人也掌握着驯化算法的主动权。如果将算法可能造成的负面影响完全看作是算法所做的“恶”,那无疑是从认识上就放弃了人在人工智能时代的主体性地位,这是极为危险的。
人类在使用算法推荐技术之初,算法可能的确会更主动地给用户推送娱乐化甚至低俗化的无意义内容,但这种推荐倾向的产生本身依据的就是大多数人的阅读行为,本质上仍是人对于算法规训的结果。而在使用的过程中,人类有丰富的手段,譬如主动搜索自己感兴趣的内容,主动拒绝低质内容,积极举报不良内容等,以此规训算法,告诉算法我需要什么、讨厌什么,很快就可以使算法推荐的内容更接近于人的认知水平。这也是有研究证明使用智能推送越久,越认为算法推送的内容来自于人工编辑的原因。
从人类发展的漫长历程来看,任何一种新工具的出现都需要人类对其进行规训。就像联合国门前“铸剑为犁”的雕像一样,当铁器出现后,这种新工具是作为武器还是作为农具,体现的就是人类对工具的规训。对于任何工具不加规训,任其野蛮发展,都会产生可怕的后果,而算法也仅仅是其中的一种。
单就算法推荐机制而言,算法推荐机制本身并不具有思考能力,用户对算法推荐机制做出什么样的行为,算法推荐机制就会做出相应的反馈。因此,算法推荐什么样的内容给用户,实际上是用户与用户画像间自我传播的结果。人应对算法推荐机制有所约束,但也不能因此将人类社会可能出现的群体极化、思维单向度,甚至道德水平滑坡等问题的原因简单地归结于算法推荐带来的消极后果。
目前有研究表明,愿意通过举报垃圾信息,或通过隐藏新闻、取消关注、忽略推荐等手段,主动向算法表达他们“不感兴趣”的用户仍然较少,但这属于用户对于算法的工具性认识不足、媒介素养较低的问题,不能与算法推荐机制的负面效果混为一谈。要促使用户主动改善目前的内容生态,还需要实现全民媒介素养的终身教育。只有拨云见日,真正认识到算法及其相关问题的本质,我们才能更加客观地认识算法推荐机制造成的正负面影响,实现技术和社会的更好发展。