活在“硅笼”:数字监视社会的基本逻辑
2022-12-18郑广怀
文/郑广怀 朱 苗
一 引 言
持续更新迭代的大数据与算法之间的相互配合,不但改变了社会制度的运作,而且正在以前所未有的方式改变着人们的日常生活乃至思考方式。对于这一改变存在着两种完全不同的判断。乐观者认为,数字时代的算法极大地拓展了人们所处的时空范围和活动能力,给人们的生活带来诸多便利,帮助人们挣脱过度工具理性化的“铁笼”(iron cage),从而最终促进人类解放。批判者认为,算法社会非但没有弱化“铁笼”,而且将“铁笼”升级成“硅笼”(silicon cage),每个人都生活在数字技术精密构筑的牢笼之下而不自知。
首先,数字技术虽然带来了经济生产的全面革新,但背后仍是资本原始积累的逻辑。祖博夫(Zuboff)将收集、分析互联网用户数据用于预测“未来行为”,进而得以精准的投放广告实现有效营销,最终达到资本积累的数字经济称为“监控资本主义”。[1]本质上,数字技术已经成为了资本的牟利手段,它将人类生活置于一种以技术至上为表征的特殊市场逻辑之下。[2]数字资本主义“只不过是让资本主义的矛盾完成了现代化而已”。[3]其二,数字时代的基本特征不是将技术手段置于社会目的之下,而是置于权力控制之下。数字资本与数字技术、知识产权、文化的合谋,衍生出了数字资本霸权,垄断了数字生产和流通,从而操控了资本市场和普通民众的生活。[4]当对大数据的收集、储存、控制和分析受到政治经济利益的驱使时,将会带来大政府独裁和大资本主义企业,最终形成由数字巨头构成的“数字帝国主义”。[5]其三,掌握数字资本和技术的政治经济力量有选择地投放信息,造成了社会公众的“集体愚昧”。数字化自动装置弱化了社会主体的创造性和选择性。[6]它根据人们搜索过的信息持续推送同质性的信息,将人们禁锢于自我构建的虚拟“数字囚笼”中。[7]奥尼尔(O’Neil)严厉地批评,算法是一种“数字毁灭性武器”。[8]
既有研究从资本积累、权力支配和主体性塑造等方面对数字技术进行了批判性分析,但这种批判性分析容易陷入技术决定论。当前围绕数字技术,出现了算法、人工智能、大数据等技术语言,学术界产生了算法权力、算法权威、数字资本主义、数字劳动等新概念。这些概念关注的核心是,通过数字技术,企业和精英把控了社会资源,支配了社会经济生活的方方面面,从而形成了“数字技术即权力”“算法即权力”“技术支配一切”的命题。然而,数字技术仅是数字经济和社会生活的技术工具,技术不会自动产生权力。在数字化时代,通过数字技术对社会成员的监视所获取的原始数据才是技术产生权力的“原材料”。按照福柯的观点,整个社会以持续的监视技术来建立权力基础,即“监视产生权力”。质言之,数字社会根源于企业和精英利用数字技术获取社会大众的数据以支配其社会生活。正如伯瑞尔(Burrell)和弗考德(Fourcade)所说,数字技术早在20世纪就已经存在,而新的内容是数字技术对个人日常生活数据的监视、追踪、分析和使用。[9]数字社会得以形成的基础在于数字技术对社会成员无所不在、无远弗届的监视。沿着这一进路,本文从福柯所提出的“监视产生权力”出发,试图探讨数字监视社会的形成、后果和应对。
二 数字监视社会的形成
福柯用“圆形监狱”比拟现代的惩罚式社会,暗指通过不断监督、监视和检查所实现的技术规训。圆形监狱被认为是规训机制的微缩模型,是一座由外环小囚房围绕着中央观测塔所形成的环状设计,目的是让隐身于内环的狱卒在外环囚犯无法察觉的情况下随时被监视,使得囚犯产生一种无时无刻受到监视的压力,从而使监视权力实时启动。[10]福柯指出,全景敞视主义以镶嵌、分类、监视的权力运作方式,无所不在地渗透进个人生活,展开对个人日常生活及身心极为精致的控制。一旦“圆形监狱”的监视机制扩大到整个社会,监视技术就会遍布社会的各个角落,形成全方位的“监视社会”。
里昂(Lyon)认为,“监视”指通过对个人资料的收集与处理,以实现对特定可疑对象的目的性凝视。[11]随着技术的发展,信息通讯技术成为现代社会生活的监视工具,即遍布社会各个角落的电子摄像孔的监视使得公众在心理上形成“自我监视”的恐惧感,进而形成监视社会。然而,在数字化时代,电脑、手机、智能手环以及现代电子设备的普及使监视更加例行化、扩大化和深刻化。[12]大数据和算法技术使得监视更加难以察觉而又无孔不入。“数字监视社会”形成于大数据全方位的持续监视与算法权力产生的规训技术之中。
(一)数据化与全方位的隐秘监视
数据是数字化时代的基点,数字技术与数字经济的运行依赖于数据的收集、处理、分析和评估。数据指的是未被数据化的元数据,它具有多种形式,例如IP地址、联系人的身份、电话、位置以及联系的持续时间。这些元数据被计算机收集、处理为可操作化的算法数据或算法语言,并被再次利用。因此,数据是数字经济和计算机技术得以运行和发展的“原材料”。离开了数据,计算机和算法就像缺失了“灵魂”的“躯壳”,犹如电器离开了电力,它便无法正常运行。因此,日常生活的数据化是数字经济和数字技术得以运行的基本条件。
在“一切皆可数字化”的情况下,获取或挖掘数据成为了数字化的关键问题。为了获取数据,数字公司、平台公司等数字资本热衷于开发免费软件,其根本目的是通过实时跟踪技术、全球定位系统、激光扫描器等信息传感设备获取个人信息。例如,用户下载社交APP时,系统软件弹出“获取手机照片、电话、储存功能、手机联系人”等窗口,当用户拒绝获取时,该软件的某些功能被限制使用或自动退出。这些强制性“告知同意”成为数字资本获取个人信息的重要渠道。此外,用户的使用过程可能被监视以获取用户数据,进而“打包”成可供盈利的商品。例如,用户使用APP观看视频时,系统根据观看内容确定用户可能喜欢的视频或商品,随即推送同质性的视频或广告。
信息获取技术的本质是通过数字技术进行实时地监视以便获取数据,而当这种信息获取技术扩大到整个社会时,全方位监视随之形成。与依赖于“瞭望台”所进行的监视不同,数字技术使得监视具有可变性、流动性、广泛性和隐秘性的特征。随着数字技术的进步,监视呈现出多重可变的形式,无需依赖固定的、具体的建筑空间。例如,系统软件可以植入不可见的高频音频、画布指纹追踪技术、软件后台的实时跟踪技术。这些信息跟踪技术可以植入到任意的手机、笔记本电脑、平板等可移动通讯设备中,并对每个人进行精准的检查、监督和定位,使得监视具有高度流动性和广泛性,既可随时进行又无处不在,实现了监视从“瞭望塔”到“毛细血管”的质变。[13]另外,与“前台”表演的、明显可感知的监视不同,精密而隐秘且具备穿越时空能力的技术使得监视从“在场”走向了虚拟的“不在场”。
(二)算法权力与规训机制
福柯指出,监视技术产生了权力效应。圆形监狱的空间设计形成了监视与被监视的权力关系,被监视者处于被孤立、被隔离的状态。在信息不对称的情况下,他们产生了随时被监视的恐惧心理,从而实现自我规训。虽然现代数字技术超越了传统空间设计的监视,使得监视的形式发生了变化,但是监视的本质并没有超越福柯所说的“监视产生权力”的观点。在数字化时代,监视无需“人”的监视,而是利用作为眼睛的“算法”开展实时监视,并进行自动化决策,以实现规训。
由数据驱动的算法成为社会中新的权力掮客。算法是一组被定义好地用于处理指令或数据以输出结果的命令,不同的数字技术共同构成了算法机器。[14]这些算法机器处理了大量复杂的任务,包括执行搜索、安全加密交换、推荐、模式识别、数据压缩、自动更正、预测、分析、模拟和优化等。依据自动程序命令,算法实现了人类无法完成的任务。然而,这种自动化决策机制构建了一种新型的算法权力,即算法将“人的决策”转变为“机器的自动化决策”。算法通过计算个人的过往信息,勾画个人的数字图像,自动计算个人的行为。人们无需自我决定,而是由系统决定。这种自动化的决策导致个体逐渐失去自决能力,依赖于软件生活。算法逐渐在日常生活中显现出权力特质,个体自决能力逐渐让位于算法的自动化决策。
通过算法的自动化决策,现代数字技术生产出臣服于技术理性的“驯服个体”。福柯指出,规训产生于“狱卒”的持续监视压力而形成的自我监禁和监督。然而,现代数字技术产生的“监视”几乎是不可察觉的,又何谈“监视”产生的压力而形成自我规训呢?与福柯的“空间规训思想”不同,现代数字技术的规训机制依赖于算法的自动化决策,即算法自动运算的结果有意或无意地改变了个体行为,并生产出“无意识的个体”或依附于技术的“驯服个体”。数字经济的核心要素是“预测未来行为”,即通过对数据的运算和分析,算法不仅勾画出个人的“图像”,而且可以预测个人的“未来行为”,进而改变个人的实际行为。例如,软件通过对个人信息的识别、监控、分析和评估,刻画出个体所处的阶层位置,判断其消费能力,进而推送符合用户偏好的商品,往往用户偏向于购买算法系统推荐的商品,因为这是系统在核算个人倾向的基础上推送的结果。换言之,算法比我们自己还了解我们“自己”。
算法自动运算制造了“个体臣服于技术”的陷阱,规训技术由此形成。一方面,方便高效的自动化决策代替并优化了人们的思考过程,使得人们更倾向于相信自动化的决策结果。久而久之,技术理性将逐渐取代人的思维能力,个体失去自我选择的能力。另一方面,人们相信科学计算高于主观判断。基于算法的分析和计算,个人的主体性被重新构建,从自决主体转变为依赖技术系统的“无意识”主体。概言之,由数据和算法驱动的社会有别于福柯所说的“监视社会”,巴特利(Bartley)将其称为“数字监视社会”。[15]在数字监视社会中,人们的日常生活被信息技术实时监视,并被嵌入于由技术理性所构成的算法权力体系之中。
三 数字监视社会的后果
在福柯的论述中,监视是构成微观权力体系的关键要素,目的是实现“隐秘权力”的渗透,使民众成为“驯服的身体”。而在数字监视社会中,监视以掠夺个人信息为基础,以算法运算为核心,意在预测未来行为,企图改变个人的实际行为,使个体成为臣服于技术理性的“顺从身体”,造成了隐私透明化、权力两极化和社会原子化的后果。
(一)隐私透明化
数字资本对个人数据的监视导致大众的信息被肆意侵犯和滥用。一方面,“数字监视经济”的运作使数据成为数字企业的重要资产。资本依赖于用户信息的收集、整合与分析,从而实现资本增值。这一商业逻辑决定了资本只会变本加厉地大肆侵占和掠夺个人信息,进而售卖个人信息以获取利润。另一方面,尽管技术治理在推动犯罪治理、社会治理创新等方面有显著作用,但基于数据监视的技术治理同样使人们陷入信息泄露的巨大风险中。2013年6月,斯诺登首次披露了西方国家基于国家安全考虑对普通用户的社交活动的实时跟踪和分析,脸书、苹果、微软等多个网络公司均卷入其中。
从个人信息保护方面看,现代人追求公共领域与私人领域的分离,渴望隐私被保护,但是在数字欢愉的今天,他们又急切地想要分享个人生活,这反而加剧了信息泄露,例如微信朋友圈、QQ空间动态等。人们广泛参与到一场数字自由的盛世狂欢之中,而资本则通过“伪自愿”的方式获取个人信息,即用户使用某一网站或软件被默认为个人信息可以被监视或挖掘,而用户却不知情或没有意识到监视正在发生。
从个人的心理角度讲,随着技术霸权和网络持续的信息掠夺,用户可能出于无奈或不知情而部分放弃对隐私的保护,从而产生“隐私倦怠”或“隐私犬儒”的心理。[16]当隐私保护成为一种奢望,漠不关心或视而不见的心理会使人们最终放弃对隐私的保护。这实际上鼓励了数字资本的监视与掠夺,加剧了隐私透明化。
(二)权力两极化
数字化塑造了新的“数字鸿沟”。数字鸿沟指的是信息技术在使用者和未使用者之间的信息落差与不均衡现象。[17]传统的数字鸿沟是横向数字鸿沟,指的是区域性的信息落差和不均衡。而数字化时代的鸿沟多是纵向的,指的是随着数字技术的普及在不同群体之间存在的信息落差和不均衡。[18]纵向数字鸿沟体现在两个方面:一是数据占有的不平等。随着数字化的发展,互联网巨头(如脸书、谷歌、苹果、微软等)掌握着绝大多数人的数据,而用户被排除在外。[19]二是技术壁垒。技术掌握在资本与代码控制者手中。普通民众仅是数字软件的使用者,或者是被数字技术免费获取数据的工具人。随着数字化的发展,纵向的数字鸿沟将会持续扩大,逐渐呈现为二元对立的局面,即一端是拥有数据和技术的互联网巨头和代码控制者,另一端是被软件和技术控制的普罗大众。
数字鸿沟的扩大意味着权力的两极分化,即权力越来越集中在少数能够获取、分析和提取数据的人手中。[20]如同福柯所说的“瞭望塔”与“囚牢”之间鲜明的对立一样,两级分化的一方是掌握监视权力的少数派,通过控制普通用户的数据,引导他们的日常消费、生产和生活行为,另一方是被监视和控制的大多数“顺从的身体”。互联网巨头作为“瞭望塔”中心,通过掌握大量的数据和先进的数字技术而拥有权力,外绕其四周的是无数如提线木偶的网民。然而,与福柯所说的“狱卒”与“囚犯”可见的、透明的直接对立不同,技术掌握者和普通用户之间并无显性的对立,他们出现在互联网屏幕的“这边”与“那边”,虚拟的网络链接模糊并掩盖了这种权力的两极化。并且,数字监视的规训技术不仅仅是经济领域的事情,它可能拓展为全社会的权力控制机制,推动社会走向“数字威权体制”或“数字帝国主义”。
(三)社会原子化
在数字监视的操控下,人与人的关联方式发生了显著的变化。过去,人们之间的交流是一种基于自我主体性的情感关联,并逐步构成了鲜活而紧密的社群,社会因此呈现出高度整合状态。在数字化时代,人们变成了“数字人”。个人的主体性被数字技术剥离,人变成了数据海洋中的一个符号、一个数字,甚至是电脑图像中的一个点。当人变成数据后,就被数字技术勾画出“个人图像”(被计算后的个人偏好),从而被有针对性地“安排”(预测行为),例如推送符合购买倾向的商品。经过数字技术的分析和计算,人与人之间的链接变成了“人—网络”或“人—网络—人”的链接方式。例如相亲不再需要媒人,而由软件自动为用户推送匹配的相亲对象。在此过程中,人与人之间的互动或关联方式被网络修改,人与人之间的情感链接变成了人与技术理性的链接。相应地,传统的人际关系的情感链接解组,随之社会开始解组,社会呈现出原子化的趋势。
社会原子化意味着对社会整合状态的否定。一方面,数字化时代的来临颠覆了传统的生活方式、工作方式以及组织方式。取而代之的是,互联网整合了人们的生活与生产,例如,基于网络的平台经济重组了人们的衣食住行。个体生活不再直接依赖于具体事物,而是虚拟的网络。这种变化使得个体不再需要线下的社交联系而仍能维持日常生活。在这种情况下,人们少有日常接触的熟人,也不相信陌生人,却对互联网平台别无选择地笃信不已。另一方面,数字化消解了社会整合,使得人与人之间的情感连接更加薄弱。“不在场”的互动难以增加人与人之间的情感,反而使得人们的集体认同和身份认同下降,走向认同碎片化。尽管技术所提供的个性化服务满足了多样化的人类需求,但也使得个体之间无需集体协作即可完成复杂任务。因为数字化平台智能地、高效地连接与调节了各种生活和生产任务的分配,过去人们之间的协同配合完全被平台或算法所取代。简言之,在数据提取、分析和预测的过程中,被数据操控的个体依附于网络即可满足个体需求,进而逐渐疏远社群生活。
四 数字监视社会的应对
如何突破“数字监视社会”?自从斯诺登揭露数据化监视后,引起了社会各界对监视的反抗。本文认为解决数字技术的监视、避免技术理性无限扩张的问题不能从单一方面入手,而是需要多方面的共同协作,特别是法律法规的完善和个人主体性的构建。
(一)完善数据法律法规
面对数字企业对普罗大众的随意监视和信息掠夺,当务之急是完善数据安全的法律法规,为用户提供合法权益保障。目前,我国已经制定了数据保护相关的法律法规。如《信息网络传播权保护条例》《中华人民共和国网络安全法》《电信和互联网用户个人信息保护规定》《中华人民共和国数据安全法》等,这些法律和条例规范了网络运行安全、监测预警,以及法律责任等相关内容,促进了个人信息安全保护,在一定程度上有效预防了个人信息泄露。2021年11月1日,我国首部《个人信息保护法》正式实施。该法案明确规范了个人信息获取和处理方式,尤其是针对“大数据杀熟”、企业对个人信息的过度收集与泄露问题,在法律层面对个人信息起到了规范和保护作用。
同时,由于持续的、“伪自愿”的监视是数字经济与技术的逻辑起点,逃脱数字监视以保护数据安全的核心在于明确的数据权利,使得数字监视在用户“知情同意”的前提下实施。国家还需要从以下几个方面明确数据权利:第一,从法律层面明确数据的所有权。信息数据不同于传统的数据,遗留在网络上的数据需要技术收集方可获得,而用户往往不具备收集并保护这些信息的能力。互联网公司默认,当用户被“强制性同意”后,它们就拥有了获取数据的权利,以及数据的所有权。因此,保护个人信息的第一步在于明确用户遗留在互联网上的信息所有权。第二,完善数据访问权的法律法规。目前,任意具备访问能力的个人和企业均可无条件地访问用户信息。政府应完善数据访问的相关法律法规,确保企业和个人在合理合法的前提下访问个人数据。第三,规范数据使用的相关法律法规。当下,互联网公司随意挖掘数据和出售未经授权数据的事件屡见不鲜。因此,政府应加强监管数字企业对数据的使用,包括规范企业买卖个人数据、共享第三方用户的数据等。
(二)重构个人主体性
在数字时代,人们拥抱数字技术的客观性、科学性、高效性和有效性,但是数字技术的理性计算逻辑正在逐渐毁灭人的主体意识,将个体锁定于“硅笼”之中,使其成为“驯服的个体”。要摆脱技术理性对个体的持续异化,就必须培养自我的主体意识,重构个人主体性。
首先,是建立参与式的用户体验、知情同意与反馈机制,以提高个人的主体性。数字技术将个体视为可以监视和获取数据的被动“数字人”,将个人完全排斥在数字技术之外。规避技术对个人的排斥,需要数字企业或平台公司研发用户参与式的技术系统。其一,开发数据访问技术,建立用户知情同意技术系统。在用户“知情同意”而非“强制性同意”的前提下,合理合法地访问用户数据。其二,研发用户体验与反馈的技术系统,构建用户与企业之间双向互动的平台。数字技术的核心应以人为本,需建立用户或社会公众参与式的互动氛围。比如,个人可以根据智能手表或自我追踪技术所反馈的数据规划个人的饮食、运动与生活习惯,形成了包括“救赎自我”“忠诚者”“创新者”和“获奖者”四种参与式的主体性。[21]
其次,应对个体无意识,需要增强个人的自律意识。在数字化时代,自律意识是抵制信息轰炸、保持自我主体性的重要品质。高水平的自律意识能够促使个体坚守精神世界和道德价值。培养自律意识的关键在两个方面:一是提高自我的反思性能力。人类生活的真正价值在于对自我生活的批判和“反观自我”的能力。培养反思性需要个体时刻关注自我行为,并以此为基础思考行为和数字技术运作的合理性与不合理性。比如,反思同质化的信息洪流、反思技术理性的自动化决策、反思自我对数字技术的盲目追随。二是提高个人的自我判断能力。虽然数字技术能做出决策或“最佳规划”,但其关键在于个体是否遵从人工智能的规划。具有高度自我判断能力的个体能够因具体情况而定,而非完全遵从技术运算的结果。保持自我的判断能力是抵制技术思维取代人的思维的重要方法,其核心在于培养个体甄别、选择和整合信息的能力,充分认识信息背后的价值牢笼,在数字洪流中保持自我清醒。例如,当购物平台根据个体偏好推送同质性的商品时,个体需要甄别其内在商业逻辑,以鉴别和反抗技术理性。
此外,重建个人主体性还需要个体建构现实社会的情感链接。当下,人与人之间的互动和情感链接被人与网络的机械链接所取代。重构现实社会的情感链接是保持自我判断能力、建构社会整合、阻止社会原子化趋势的重要措施。建构现实社会的情感链接,需要人们注重人与人之间的情感交流和互动。毕竟,网络只是为我们提供了一种方便快捷的生活方式,或者一种中介,并不能取代现实生活世界。
五 结 语
本文探讨了“数字监视社会”的概念,它是指日常生活被数字技术实时全面监控,并被困于算法权力所主导的“硅笼”之中,个体被迫臣服于以技术理性为基础的算法自动化决策,从而失去自我选择和决策的能力,进而形成对个体的规训。福柯认为,圆形监狱的设计重在监视,不在惩罚,监视产生了权力,并形成一种规训机制。[22]这一监视机制仍然适用于数字化时代的今天,即通过数字技术监视和追踪个体的生活轨迹生成原始数据,并经过勾画个人图像,自动化地预测或塑造个人偏好,进而实现规训或支配个体。因此,当下的关键问题在于如何应对编码精英对数码大众的全面监视、数据提取和应用推广。这需要国家不断完善对数据采集和使用的规制。此外,还需要重构个人主体性,培养个人自律意识,建立用户体验、知情同意与反馈机制。
从宏观层面看,数字技术将带我们走向何方依然是一个谜题。福克斯指出,21世纪正处于历史的岔路口,“我们可能走向超级新自由主义资本主义、独裁资本主义、法西斯主义,在一场核世界大战中彻底毁灭地球和人类,或是替代上述预案,走向共同体社会”。[23]马克思认为监视是一种统治的政治过程,同时蕴含着反监视的政治和文化潜力,对居于统治地位的监视者的监视可以是政治斗争中的“反权力”。[24]当下,我们不应该盲目地追随大数据和算法的脚步,对其进行批判反思才能使社会走得更加稳健和从容。一方面,反思数字技术的过度控制和垄断,避免走向“数字威权体制”或“数字帝国主义”;另一方面,反思技术理性的意识形态风险,避免消解人的主体性和社会性。