算法“统治”世界
2021-08-14
你是否有过这样的体验,在同一个视频平台看久了,推送给你的都是某些类型的视频,而恰巧这些视频都是你爱看的,一个接一个,根本停不下来。当你在某一个游戏里玩的时间越久,就越难抽中好的道具,可一旦你删掉账户重新来过,好的道具就会迅速来到你身边。按照今天的技术来说,每当你启动一个APP,你就成了AI算法里的一个虚拟ID,你所看到的任何内容,任何商品都是由算法来决定。对于许多天生不喜欢受控的人来说,这种被操控的感觉相当不好。正所谓知己知彼,只有了解算法是什么,才有对抗的可能。
想理解什么是算法,我们先设想一个场景。几千年前,一位古人凭着他对已故祖母如何做面包的记忆,尝试自己做面包。问题是他真的不知道该怎么做。他犹豫着将麦仁放入沸水中……經过几个小时折腾,最后对自己说,这也许是个糟糕的想法。这位古人的困境,正是我们都会面临的情况—遇到某一个问题,却又不知道该如何解决。我们想着解决方法,去尝试,反复探索实验,顺便有了一点点意外发现,直至成功……或者失败。
然而,真正的面包师并不是这样做的。他们不会给每炉面包都重制一个烘焙食谱,因为他们已经掌握并牢记了面包的烘焙方法。多亏了面包食谱,面包师可以每天给我们提供面包。事实上,人类文明的发展不仅源于有些人的发明创造,也因为另有人“复制”了这些发明,才使某些东西得以持续改进。
因此我们不能忽略了面包食谱的宝贵之处。首先,食谱降低了不确定性:多亏了它,面包师知道,除非突遭一场灾难,否则面包将会在晚餐时准备好。有了这个食谱,不需要什么想象力或是天赋,任何人都可以做面包。即便我们对面包烘焙没有任何天赋,但仍可以从网页上找到恰当的食谱,运用劳动力,借助更富有想象力和才华的面包师们写下的方法,做出面包。最终,这个食谱成了人类遗产中的一部分,在几千年的历史长河中,代代相传。
在这里,食谱就是一个算法,我们就此有了“算法”概念的初步定义:一个算法是解决一个问题的进程。从这个定义不难看出,自人类历史初期,我们就一直在发明、使用和传播着各种各样的“算法”,用来烹饪、雕琢石器、钓鱼、种植扁豆及小麦,等等。
通俗来说,算法就是一套核心计算规则或是人为先验或是机器学习。从某种意义上讲,人类本质上就是一条自然界演化而来的算法,基因则是构成算法的最小单元。经历了第四次工业革命的浪潮后,算法对生活的影响已经到了常人难以想象的程度。
说个有意思的事情,1882年初,尼采收到了一部德国制造的球形打字机。彼时的他一度因为视力下降而彻底放弃写作,但这台最初为聋哑人发明的古怪机器,从机能退化中挽救了这位大哲学家。借助球形打字机,每分钟最高可以打出800个字符,即便闭眼盲打也不成问题。第二年,尼采就写出了《查拉图斯特拉如是说》,其中第一部分的完工只花了10天工夫。
这台打字机在带来写作便利的同时,也影响到尼采的思维和文风。与用笔写下的《悲剧的诞生》不同,《查拉图斯特拉如是说》中长篇大论的深度思辨锐减,短小精悍的箴言和论断比比皆是。一位熟悉尼采写作风格的朋友觉察出了此中变化,并去信询问:这一变化是否与打字机有关?尼采的回答毫无讳言:“你是对的,我们所用的写作工具参与了我们思想的形成过程。”
这个例子说明媒介技术从来就都不是中性化的工具,我们使用它,它也反过来浸染了我们,小到个体思维,大到整个社会运作的逻辑。今天,当智能手机、短视频、推荐算法这些技术,充斥在我们的生活之中并几近成为知识与思想的唯一来源,那会带来哪些改变呢?
以手机为例,现在智能手机的底层硬件加速以及你所用到的几乎每一个规模化的软件应用,绝大多数都有算法驱动。这里咱们做个实验,大家可以找到自己手机里常用的三个软件,看看它们是否符合后面讲到的一些特征。
当然,有人看到这肯定会想,只要关掉手机不上网不就完事了吗?先不说不用手机的可行性,如今的公共交通系统基本都是由调度AI在运作。你路过的每个路口,天网中的视觉AI都会记录识别。即使你足不出户,水电能源系统也是由算法分配。换句话说,只要不回归到刀耕火种的原始生活,那么在未来你是不可能摆脱算法的。
我们理解世界的基石是理论,如牛顿力学、相对论、进化论等。当一种理论进行了预测并通过观察得以证实的时候,这种理论就是“科学的”。例如,牛顿力学预测了地球上某一点的日出和日落时间。人们可以对比预测的时间和实际观测的时间,如果这两个时间不一致,那说明理论出现了问题。
某些理论可以用算法表达,例如计算太阳系中行星运动轨迹的算法。这种算法理论被称为“模型”。鉴于其自身的算法性质,模型就是用计算机对相关现象进行“模拟”。人们已经开发了许多现象的模型,如大气和海洋的演变、脑功能的运转方式、板块运动、城市发展、股价变化、人口流动,等等。
牛顿力学等经典理论往往基于为数不多的几个方程。模型则更复杂,涉及面也非常广泛。例如,城市发展的模型必须考虑人口的发展过程,以及经济、政治、地理等影响因素。
鉴于这种复杂性,一些现象即使尚未被充分理解也可以被建模和模拟。牛顿经典物理学家掌握方程,一步一步推理和解释结果。而气象模型极其复杂,我们不可能遵循所有计算,从中简洁地解释结果。这类模型能以较高的正确率对天气进行预测,告诉我们明天是否会下雨,但不会解释下雨的原因。
原则上,模型应当和理论一样受到同样的约束:模型的预测结果应该与观测结果一致,否则模型就是不正确的。然而,由于模型的复杂性,我们不得不重新审视“不正确”这个词的含义。当理论的预测结果与观测结果不一致时,理论就应该被放弃,或至少需要重新审查。但是,一个复杂模型的预测依赖许多参数,若只与某些观测结果有“轻微”出入,实际应用中就不会放弃这个模型。
当预测结果和观测结果出入太大时,我们会尝试引入新的参数,这会让模型更复杂一点。因此,存在缺陷的模型很少被放弃—当预测结果与观测结果不同时,我们尝试对模型加以改进。算法模型让人们陷入了一个自相矛盾的情况:算法模型可以研究比经典理论复杂得多的现象,所以它们代表了科学领域的一个延伸;但是,难以对算法模型的结果进行解释,也就很难对其预测结果和观测结果加以比较,模型的科学性就会减弱。
不同类型的算法通常共同应用在同一个系统中。例如,在一列无人驾驶的火车上,一些算法控制着火车的行驶速度,另一些控制门的开关,还有一些控制交通管理。概述全面展示了传统算法的多姿多彩,而人们还在通过完善已有算法和设计新算法,不断丰富着算法世界。
说到这里,就该有一个灵魂拷问了—我们为什么要对抗算法?其实每一个AI或者说每一套算法在设计初衷都是以人为核心,服务于人的。AI本身是没有好坏之分的,说到底,目前的AI还只是工具,它所造成的影响取决于使用它的人有什么意图。
如果是好的意图,比如降低犯罪率,提高地铁效率或是减少交通拥堵,大家都会喜闻乐见。但如果算法的意图变成让用户不断花费时间、花費金钱,一切只为了流量、为了利益,那么AI就成了资本的帮凶。
我们可以简单地将算法特别分为两类:一类是消费算法,一类是生产算法。对于消费算法,AI所遵从的意图只有一个,就是让使用者尽可能地消费更多东西,比如内容、商品或者信息。典型的就是知乎、抖音和淘宝。而生产算法,则是将使用者看作生产要素进行更合理地分配调度进而提高生产效率,比如服务系统里的外卖小哥和网约车司机。
无论是哪种算法,本质上都由系统最高权限者的意图来决定其运作模式,我们可以把这个现象称为算法异化。这里用外卖员问题来举例—外卖系统中的调度算法是典型的生产算法,其核心是路径规划和实体匹配,简单来说就是如何更高效地让生产者从A点到达B点。
相对于传统的人工规则调度,算法所节省下来的时间,本意是为了生产者有更宽裕的时间去安全行驶,让消费者可以减少等待时间。但到了后来,无一例外,全都变成了压榨劳动时间的绝佳工具。在掌握系统的资本看来,节省下来的时间就是金钱,至于道路安全、司乘安全与我何干?
于是,外卖时间从一个小时变成30分钟,事故率却不见降低,用户体验也越来越差。甚至饿了么这样的平台还搞出了“你愿意多给我5分钟吗?”这样魔幻的操作。本质上就是将算法系统的意图矛盾转嫁到生产者和消费者之间,这就导致一个现象—即整个系统的必要劳动时间减少了,但生产者反而越来越累,究其原因不过是资本的工具,从工厂和机械设计,升级为了系统和算法,本质上还是剥削剩余价值,从民众身上赚取利润。
相较于直观地将工人困在工厂长时间操作机器劳动,通过AI技术的剥削显得更加隐蔽和难以察觉。不幸的是,生产算法无法对抗,因为无论是外卖小哥还是网约车司机,都只是系统的生产要素,就像车间中的零件一样。对于分配到的任务,他们只有两个选择——接或不接,而在生活压力下,大多数人其实并没有选择不接的自由。对抗,更是无从谈起,虽然残酷,但这就是现实。
看到这里,如果你们拥有一些选择的自由,也许该感到庆幸。得益于这些自由,你们可以按照接下来要讲的内容来试着去对抗消费算法。消费算法有两大核心分别是推荐机制与成瘾机制。推荐机制的第一意图是为了让用户更多地消费,以此产生流量收益,但会造成内容同质化效益,也就是大家都听过的茧房信息。
信息茧房,顾名思义就是在不断接触同类化信息的过程中,自身被禁锢在一个由算法所编制的信息蚕蛹中,形成了一个与世隔绝的茧房,进一步引发回声室效应和过滤气泡。前者是指同类信息不断重复,形成了一个只有相似意见的回声室,人们的态度在相近信息的重复广播中被增强,进而形成群体性偏见。比如田园女权、饭圈文化。
过滤气泡则是指算法将不符合用户兴趣的信息过滤,只筛选出已经获得相似群体阳性反应的信息,这就导致你能接受的信息越来越符合你的三观,并且逐渐根深蒂固。同时远离并忽略跟你所在群体以外的信息和观点,造成了认知上的撕裂和各种网络与现实中的冲突。这也是为什么魔幻现实主义在当今如此盛行。
有意思的是,虽然信息茧房这个提法出现了很久,但并没有能够从根源上解释其存在原因的资料。看来大家都是点到为止,江湖人士好自为之。今天咱们试试不讲武德,来说说信息茧房存在的根本原因。
首先大家要了解一个算法理论中著名的EE均衡问题——第一个E代表Exploit就是基于已知的兴趣来开采用户的时间、金钱。第二个E则代表Explore即探索用户新的兴趣、扩展用户认知。这两个E此消彼长,算法就是在其中权衡。第一个E越大,则系统短期收益越高,茧房效应越强。第二个E越大则短期收益越低,长期体验越好。
这么看来,似乎有追求的公司都会选择第二个。然而现实是,所有尝试过第二个E的公司,最后都不约而同地放弃此选择,竭尽所能地提高第一个E的权重。显而易见,短期可开采收益对资本来说才是至关重要的,而探索只能在融资时当作技术噱头做给市场、投资人看的。这就是为什么信息茧房存在的根本原因。
这里咱提一下,为了让这个信息茧房更加坚固,AI会做些什么。我们以一个新闻分发的应用为例,首先,AI要认识你“你”所代表的是用户画像——它通常由几个维度构成:自然属性、行为轨迹和阅读习惯。
自然属性包括你的性别、籍贯、年龄、身份、学历、职业等。其中有些是终生不变的,有些是阶段性变化的。这些信息的收集,主要通过你在APP上的注册信息和开屏问卷完成的。你的手机型号也是参考指标,比如,使用苹果的人和使用红米的人肯定是两个群体。行为轨迹是你在什么时间,去了什么地方。这是对场景的判断,引申为对人的行为习惯的判断。收集这些信息,主要通过手机定位(只要你用了智能手机,基本相当于裸奔)。阅读习惯则是你对内容的点击、评论、转发、搜索、订阅、停留时长、打开频次等。包括你是喜欢看短视频,还是对文字情有独钟。
用户画像中最难的,是对人性的刻画“知人知面不知心”说的就是这个道理。你关注的内容和出身密切相关,但又会随着时间和环境的变化而变化。兴趣又分长短,爱好有强有弱。更何况在很多时候,用户内心的真正想法并没有在其阅读行为中表现出来,而是需要去“猜测”,这些都给算法提出了艰巨的挑战。
那么,怎么画出更精准的你?“路遥知马力旧久见人心。”翻译成算法语言,就是更长久、更全面地获取用户信息,积累更多、更全、更深度地数据。比如关于地理位置,到底是能定位到商圈和小区,还是能实时定位到用户站的地方。定位越精准,用户画像越准确。我们也常用“阅人无数”来形容人的辨别能力。如果一个人和很多人交往过,再想骗他就很难。
算法也是如此。用户数量大,后台记录的规律性东西就越多,也越有助于判断某一个用户的行为习惯。所以,超级平台(DAU在1亿以上)的用户画像的准确程度,肯定要高于一般平台。马云把大数据称之为“新时代的生产资料”,而数据本身,就是用户行为的数字化反应。
在分析完“你”之后,就轮到分析内容了。是的,对于AI算法来说,只分析用户是不够的,还得分析自己的内容。对某一篇文章或者某一个视频,AI同样可以将它拆解为几个维度。比如领域:也就是该内容是说什么的。比如时政、财经、科技或者体育;体育又可以进一步细分为足球——中超——国安——国安某球员。拆得越细,越有利于精准分发。
此外还有体裁:内容形式是文字、图片、视频、音频,直播或者是小于140字的短内容。作者:也就是谁创作了相关内容?质量:它有两个维度,第一是编辑判断,第二是数据判断。编辑的判断是选题、采访、写作和包装;而数据,则是通过点击、分享、收藏、用户停留时长等判断,相关的内容是否受到用户的喜爱。
内容画像以“标签”进行定义。比如,我们可以给《战狼2》打这样的标签:电影、动作片、战争片、主演吴京、票房很高。标签可能来自内容的作者、来自平台的审核人员,更多是来自算法的理解。那么,算法又是如何给内容打标签的呢?可以通过关键词的识别、关键语句的识别甚至对全文的识别。
识别的过程就是机器学习——我们不停给它输入文章,引导它做判断,就像教会小朋友识字、分析段落大意、写出中心思想一样。算法为文章打标签,最初靠关键词。比如有"老虎+梅花鹿”的文章,会被定义为“动物世界”;而“老虎+贪官”的文章,会被定义为反腐。当大量文章被算法学习后,算法打标签就越来越准。
如果是视频,算法打标签的难度就会远远大于文章,因为少有关键词可寻。所以,算法对视频的理解,一是靠更海量数据——比如快手,每天数千万条内容的上传,通过人脸识别等系统,算法会逐步认知视频中出现的人、物、场景;二是很多平台都鼓励作者打标签,这样在算法判断之前,已经有了一个初步分类。
但内容画像的真正难度,是在于理解文章所要表达的价值观。这就如同用户画像中最难刻画的是人性一样。很多内容,只能意会不能言传。王国维在《人间词话》里提到的境界,金庸在武侠小说里描述的“无招胜有招”,都是算法目前无法理解的。所以,算法再精准,终究比不上人。那么,某些文章或者视频能在浩如烟海的内容中脱颖而出,排上头条,背后的逻辑又是什么呢?這就涉及另一个关键词——关心。
对于“关心”这个词,每个人都不陌生。我们希望更多人关心自己,当然,如果有人可以关心,那也是一种幸福。但对内容分发AI算法来说,“关心”有着另一层含义——它指某个用户对某些内容的行为,比如点击、点赞、评论、收藏、搜索、订阅、转发,以及在某篇文章、某个视频上停留的时间,看到什么位置就退出,甚至直接点了“举报”等等。
这些行为会被算法模型忠实记录下来、以天为周期形成用户日志。时间越久,日志积累越多,你“关心”什么就越清晰,你的用户画像就越完整。我们可以再分析一下这些具体的行为。从点击到订阅,是逐步深化的。翻译过来,就是越来越“关心”。如果把点击看作搭讪的话,订阅基本相当于确定恋爱关系了。而转发,则是用你的关心影响别人,“看,我的女朋友有多好!”而停留时长,则是一天要陪TA多久。
那么问题又来了,如果一个人点击了5次A文章,搜索了一次B文章,请问:这个用户更关心谁?因为这个用户更关心谁,又决定着谁是头条、谁是二条。这个问题其实没有标准答案。因为涉及算法模型的使用,或者说具体怎么算,类似到底是用加法还是用乘法。在这道思考题里,我们并没有设置一个前提——到底追求的是什么?
如果追求点击率,当然应该是按照点什么推什么的逻辑;但如果追求的是用户黏性,那就要推用户搜索的内容。算法的后台其实是模糊的,不可能出现“点击率占50%、搜索占50%”的类似计算方式。所以,我们说它是个“黑匣子”。1980年代讲的模糊计算,说的就是这样一个概念——它是“模糊”的。这根本不是比例的问题,而是要设定明确的目标——到底要提升什么数据?是用户的停留时长,还是用户的留存率?然后按照这个目标,再去修订算法。
这就叫“不忘初心,方得始终”。在内容编辑和算法工程师的交流上,这几乎相当于一道“天堑”。编辑的思维是:经验判断+价值观检验——符合即上头条——数据不好然后再换;而算法工程师的思维是:要达到什么数据指标——根据此制定策略——推出能拉动相关数据的内容。这相当于解数学证明题的两种逻辑:编辑是从已知条件出发,奔向要证明的结果;而算法工程师是从要证明的东西出来,逆推出什么样的已知条件。
问题又来了,这两种方式,谁的更好?如果从效率出发,当然是算法流。因为你喜欢什么它就推什么,投你所好,点击率肯定高。从传统编辑流看来,头条和二条决定于编辑的选择。编辑把它放上去,作为用户的你没有选择权。
现在,算法流完成了“从人找信息到信息找人的跨越”——此前,我们要去卖报纸、调频率、搜关键词才能看到自己喜欢的内容,但在今天,你喜欢的内容会“跃然屏幕之上”,不需要费任何力气。
从编辑流到算法流,是从传统媒体到新媒体的真正转变。它相当于从计划经济到市场经济的转型。在市场经济中的生存,首先要有用户概念,也就是“你”的概念。只有这样,现在的新闻分发应用才和以前的新闻发布软件做出了差异化。你有没有觉得现在的新闻APP是不是比以前的好看了呢?本质上不是新闻精彩了,而是新闻对你口味了。
消费算法的第二个核心是成瘾机制,常见于游戏和短视频应用。和信息茧房不同,成瘾机制巧妙地利用了人类的生理弱点。我们对消费品的快感本质上都是大脑反馈机制的一种奖励,还有我们脑垂体腺中的前体物质多巴胺所决定。人们常以为多巴胺等同于快感,但它并不是快感本身,而是对快感的预期。
我们刷手机打游戏时所感受到的愉悦、兴奋和满足的情绪,其实是由肾上腺素、生长素和内啡肽等分泌所引起,但对大脑神经来说这些情绪只是暂时的电信号,我们享受的不是刷手机这个动作本身,而是刷手机所带来的反馈预期。就比如你不会感觉我看抖音很爽,而是会觉得这个视频会讲什么?下个视频可能更好看?再看一个我就不看了!又或者在游戏中让你觉得这把我能抽中SSR,下把一定赢一局就睡。
如此循环往复,永无止境,你的时间、金钱在不知不觉中已经被算法安排得明明白白。看到这里是不是惊出一身冷汗?那有没有对抗算法的办法呢?有意思的是,当你意识到自己在信息茧房的一瞬间,这个茧房其实已经不存在了。因此当你看到这里时,消费算法中的一系列机制,对你的影响就已经不再是黑盒,一旦对这类机制有了认知,思维也会渐渐改变。
如果只是单纯意识到,转变还是太慢了,究其根本,还是在于AI算法拿到了太多关于我们的数据。目前市面上的常见软件所能收集到的信息远超你的想象,尤其是一些实名制注册或者安装时系统授权要求越界的APP。算法是需要数据授权的,至少明面上如此,没有数据支撑算法技术就是无米之炊。
相信大家都听过某度创始人的说法——中国人愿意用隐私来换取便利。这话就说得相当无耻了,大家之所以接受是因为不了解,因为不了解所以无从对抗。你们会在安装软件时阅读用户协议功能授权吗?相信大多数人并没有去阅读授权的习惯,但是请记住以下两条规则——一、当你看到了存疑的权限请求、先查明再安装;二、如无必要拒绝安装。
当然,以如今的环境来说,想要保护自己的信息,确实难比登天。如果条件允许,可以尝试使用备用手机来完成对非必要APP的注册和使用。记得不要在备用机上保存任何信息,比如身份证照片、聊天记录,将主手机的系统授权调至最高,尽量拒绝信息读取、照片读取和录音读取授权。同时注册一套隐身的临时邮箱或临时号码,有些不是长期使用的应用,需要邮箱或者手机才能注册,使用临时身份可以避免短信骚扰,隐私泄露或者被算法利用。
无目的性浏览会触发人类最本能的渴望,好奇心和探索欲进而陷入多巴胺成瘾模式。这也是抖音等应用让人上瘾的原因,你永远不知道下一个视频是什么。因此在进入内容平台时,多使用目的性搜索,减少对算法推送的依赖。
当然,给自己一个不上瘾的环境才是最重要的。因此,不要安装成瘾性很强的APP。若必须下载,则不要长期保留在手机中,用完即删。因为即便你不启动它,可架不住它在一直“观察”你。这个方法可以帮助你对抗算法投喂,同时提高反馈成本,因为重新下载所花费的流量、时间会慢慢弱化你的多巴胺回路激活态。
大脑不同分区的神经活跃时间是因人而异的,算法对行为模式的捕捉也是基于你的多巴胺激活状态来计算的。当你养成在一个固定时段玩游戏或玩手机的习惯后,其他时间段就不会分泌强烈的多巴胺,算法和路也就处于弱激活状态。因此试着让自己对手机的冲动控制在某个时间段,久而久之你在其他时间里就不会那么想玩手机了。
扩展反馈是最直接的成瘾要素,游戏厂商通过不同的快感反馈强化机制,比如常见的不固定比率强化抽卡开箱,来提高我们对未知结果的反馈预期,使我们总是对下一次充满期待,这种快感会刺激我们的脑垂体腺分泌大量多巴胺。因此试着利用自我暗示,降低反馈预期。
最后一点就是扩展信息获取的渠道,减少单一软件的使用时间,尝试从不同的平台获取信息,试着忽略自己的口味,多进行一些随机性的信息获取,有意识地跳出信息茧房。多听多看多想,这样,你的认知边界将不会再被算法所束缚。
有意思的是,从大的逻辑而言,算法是一个价值体系,它涉及什么东西优先,什么东西次要,什么东西对你更重要,什么东西对你更不重要,所以它是一种价值判断。因此,算法本身虽然是个中立的规则,但它的结果一定是个主观的东西。对于AI算法的能力,人类其实总是有一种乐观情绪,觉得它在我们的操纵和控制之下。不过,虽然说人类可以去操控,或者说可以去分析它的结果,但是AI算法会慢慢地把人类做判断的权利给剥夺掉。
《流浪地球》里有一个情节是AI判断不能去撞木星,成功率是0.0001%,这就是一个判断。像人工智能应用得比较多的围棋,人类可以去逆推机器的下棋背后的棋理,但是有一个东西是所有的棋手都没有办法去模仿的就是对胜率的判断。采取什么样的策略,是要拼命还是保守,取决于人对形势的判断,但现在没有一个棋手敢质疑AI的判断。这会成为未来在各个领域都会出现的一种趋势:AI给你的判断是没法反对的。你有其他的替代方案吗?你有更好的结论吗?没有。
作为结果,人的自主控制能力就会慢慢被让渡出去。做判断本身就是人的能力,技术可以告诉你如果这么做会怎么样,但最后还是要交给人来做判断的,而判断的过程就显示出人的个性,否则就没有“人”可言了。存在先于本质,而存在的本質就是选择和判断。人生选择的决断,这是人成其为人,成其为一个特殊存在的最基本要素。
如果这种判断都被剥夺的话,人就不是“人”了。人可以在分析能力上去跟机器抗衡,但是在判断能力上越来越难挑战机器。这个判断就变成了计算机给你设立的这一套算法。虽然计算机还没有到那一步,但是其实它的一些思维方式其实已经都渗透到社会的方方面面。20世纪四五十年代,像海德格尔包括法兰克福学派都在批评“工具理性”,互联网其实把工具理性又提到了一个新的高度。
前段时间,《外卖骑手,困在系统里》这篇报道里提到的问题,大家过去可能没有意识到,因为我们总是觉得算法在给我们创造便利,而且这种便利每个人都在享受。这在某种程度上压制了这些不同的声音,让我们产生一种很虚幻的感觉。但是到了某一个阶段,大家会突然意识到我们可能已经走上了一条不归路了。实际上任何的技术都是人和人之间的关系,那时候你还怎样去重建人和人之间的关系?
延伸下去,现在其实涉及两个问题,一个是劳资关系,一个是人和技术的关系,这两个问题现在是纠缠在一起的,所以看上去很多劳资关系都是以技术的形式出现。
技术有本身的逻辑:控制、集中化、无情。它只看算法,有自己的一种理性,一种逻辑,它的逻辑就是效率。而技术的追求效率和资本的追求效率刚好达成了一种共识,技术所谓的追求最优化,恰好是资本的逻辑。
按照一般的说法,你是注重过程还是注重结果,对资本来讲是更注重结果,所以就会导致要追求结果,追求创造资本的效率,投入产出要达到一个最佳的比例。以这样的方式来安排,可能就会把人性的东西排在后面。
算法的本意是让生活变得更好,我们应该乐于去接受它,但同时也要有所认知,盲目地跟随或抵抗都是不可取的。
当盈利为第一意图时,生产算法成了压榨劳动力的剥削机器。消费算法让年轻人沉迷其中,当每个人的时间都被996和虚拟内容所占据,那么整个社会就会缺乏进步和反抗的思潮,这是我们要警惕的。
但从另一方面来看,当算法意图回归于人类,那么生产算法的确提高了系统效率,消费算法也解决了内容产出远大于消费的问题,没有算法在这个信息量爆炸的时代我们很难找到自己喜欢或是有价值的内容,我们要做的是搞清算法背后的意图以及有选择的对抗算法。
在过去的一年中,不管是技术形态还是意识形态,整个人类社会都在经历巨变,在这场不断更迭的时代浪潮中,始终保持对技术的了解与认知,是自我保护的最好方法。
对整个社会而言,一方面,算法对人的计算越准,就意味着它对人的了解越深,因此,对人的监视与控制也可能越深;另一方面,当算法对人的理解越深,对人的服务越“到位”,人们从中获得的满足也越多,而对算法的依赖、依从也会越多。当算法渗透到社会生活的各方面,人对它的依赖成为惯性,人对算法带来的囚禁也可能会越来越浑然不觉。
算法社会将自由与枷锁的张力推向了极致,算法一方面在促成人的某些能力的解放与扩张,另一方面又用某些方式实现着对人们的禁锢。但是,当我们深入反思算法对人的各种囚禁时,我们的目的并不是将算法拒之门外,这一点正如我们对待汽车的态度。汽车进入我们生活,带来了正向与负向的双重影响,但人类的解决方案不是禁止汽车的使用,而是通过对驾驶技能的培训,以及严格的交通法规制定与实施等,来尽可能减少其可能产生的危害。
同样,当算法成为一种广泛应用的技术,在很多方面可能带来对人的囚禁风险时,我们也不能简单禁止算法的使用。除了在法律、制度等层面做出必要的调整外,也需要面对算法社会的新特点,培养不同主体的相应素养与能力。对于算法的开发者来说,新的技术理性、算法伦理的倡导与培养,尤为关键。
近年来对算法等智能化技术的批评中不乏技术理性批判的视角。尽管反思与批评是必要的,但也如有学者所指出的有些技术理性批判存在一个误区,那就是把技术理性等同于工具理性,认为技术理性张扬必然导致价值理性衰微。也有些研究虽然并没有涉及技术理性这样的概念,但也习惯性地将技术思维与工具理性画了等号,也就是有意无意地默认技术一定是以工具理性为导向的。
然而,正如一些研究者意识到的,技术理性本应是工具理性与价值理性的内在统一,只是由于这两种理性之间的内在张力才使技术理性始终处于内在的矛盾运动中。随着人类技术实践活动的扩展和深入,技术理性内在的矛盾才以一种单向度的、异化的形式呈现出来,即工具理性压倒价值理性、技术的价值理性萎缩成极度膨胀的工具理性的单纯附属物。
在今天,有必要重新理解技术理性应有的“题中之意”,在算法开发者群體中倡导价值理性与工具理性、技术思维与人文精神的融合,而不是将算法推向工具理性的极端。反而应该探讨算法伦理的目标,并使之成为算法开发者的制衡。
我们不该简单地将算法认定为坏东西,让人们排斥,而是要让人们意识到在今天这个时代,算法无法避免。因此,重要的是要理解不同类型的算法是如何运作的,算法在哪些层面影响着我们的认知、行为、社会关系,影响着我们的生存与发展,在此基础上学会与算法共存,对抗算法的风险,更好地维护人自身的合法利益与地位。面对一个无可回避的算法“统治”的世界,我们只有提高对算法的认识与驾驭能力,才能成为算法的主宰者,而不是成为算法的“囚徒”。