算法:一种新的权力形态
2020-02-02张爱军王首航
张爱军 王首航
摘 要:算法如今广泛应用于社会生活各个领域,构建了一种新的社会图景与现实。作为一种技术,算法逐渐演进为一种新的权力形态。由数据和算法搭建的网络对用户形成类似于一种“全景监狱”的凝视。算法的“合理性”外衣和日常化呈现成为社会控制“无形的手”,同时也带来了政治操控、隐私泄露和偏见固化等风险。因此,本文从公权领域、公共领域和个体领域三个维度对算法政治传播风险发生逻辑进行分析,对其消极后果的反制和未知风险的防范提供一些思考。
关键词:算法传播;现实建构;隐性规训;权力形态
中图分类号:TP393 文献标识码:A 文章编号:2096-5729(2020)01-0039-07
一、算法政治传播与全景敞视
随着人工智能的发展,算法技术广泛应用于社会各个领域。一般来讲,“算法”是指对解题方案的准确而完整的描述,是一系列解决问题的清晰指令。人工智能本质是一种算法革命,基于算法的人工智能系统被广泛应用于社会生活中的各个领域代替人们做出决策。作为一种技术,算法逐渐演进为一种新的权力形态,重新构建了一种新的社会图景和现实。
随着2016年美国总统大选和英国全民公投决定脱欧等一系列政治“黑天鹅”事件的发生,算法从数字技术逐渐成为一种政治和社会操纵手段,形成一种新的权力形态,这种权力形态比过去更为隐蔽。美国技术哲学家和政治家兰登·温纳认为,技术是建构世界的一种方式,人类实现的所有事物被重新构思、重新组合并重建且被纳入到技术工具系统的周密安排中,技术作为一系列结构在权力运行的过程中能够不断重构着公众所处的环境,公众在社会系统中逐渐变得遵循其所控制的技术系统的规范和要求之中。由于个体所处空间是由算法设计者和建构者或明或隐地制定,用户固守在由算法搭建的信息茧房,算法推送的信息潜移默化地影响着人们的认知框架和价值选择。在此层面上,不少学者提出了“算法即权力”,数据和算法无形中影响、塑造和控制着当今时代社会治理和公众行为。
在由智能数据编织的巨大网络中,用户在进行日常活动的同时也作为数据资料生产者实时反馈于这张网络,形成一种“个体的全面数据化”。这张巨网在某种意义上类似于福柯所著《规训与惩罚》中的“全景监狱”。“全景敞视”一词源自于英国功利主义哲学家边沁设计的环形监狱,坐落于中央位置的监视塔能够对围绕监视塔周围的囚徒活动一览无余。全景监狱最显著的效果在于,被囚禁者知道自己正在受到观察,由此营造一种有意识的自我规范机制来确保规训权力的自主运作。按照福柯的描述,规训权力能够让人们自然地顺从秩序并且乐于顺从秩序,而这种权力最终会导致人们失去思考的独立性,这种规训不需要依靠权力的强制执行,而是一种默认规则。福柯认为,这种规则本质源于人的自我选择导致人无法察觉和回避。
随着智能数据和算法的发展,“全景监狱”在人工智能时代被赋予新的意涵。依照福柯的观点,公共场合的凝视本身就是一种权。在这个过程中,被监视的事物会变得温顺、合乎规则。由算法编织的网络俨然已形成一种强大的凝视力,在这张网络中个体处于被动位置,个体几乎都处于由算法搭建的“圆形监狱”中。而人工智能的“全景监狱”与福柯所言的“全景监狱”不同的是,后者中被监视的人们能够感知机构的存在,在这种有形的权力运作下人们给自身营造一种有意识的自我规范机制;而前者中公众往往不能感知明显意义的运作机构,“全景敞视”俨然成了一种“全景窥视”。简言之,福柯所言的规训权力更倾向于一种有形存在下的主动规范,而人工智能时代这种规训权力倾向于无形中的被动驯化。
波斯特认为,数据库像“监狱”一样在暗中运作着,与全景监狱不同的是,被监视的人们无须固守任何建筑物,只需进行日常工作。算法技术日常化、个性化的呈现方式容易使人们沉浸在技术的“幸福”中。技术在赋予人们“幸福”的同时埋伏了诸多风险,如政治操控、隐私泄露和偏见固化等。算法作为一种技术,成为社会场域中利益博弈的重要资源,算法置身社会领域并延展出诸多附加价值,所带来的影响取决于操作主体对其的需求。一些权势集团能够凭借着“天然优势”形成对公共领域的“权力凝视”。由于算法在设计操作上的不透明性容易被一些权势集团所利用,通过影响个体行为以达到自身利益。
算法技术背后的权力掌控者,无论怀着怎样的政治动机或是商业动机都能够对社会现实产生客观的影响。当这些“权势力量”影响公众意志,背离了公共利益原则必然侵害公民权利,侵蚀民主和公平正义。因此,对算法政治传播风险背后的发生逻辑进行分析,对其消极后果的反制和未知风险的防范具有重要意义。
二、算法现实建构中的隐性规训
从公权领域维度层面,由于算法作為一种技术置身政治系统不可避免会嵌入人类价值观念或主观偏见,一定程度上侵蚀着公平正义;从公共空间维度层面,用户个人信息被视为关键输入变量的商业模式已经逐渐被企业接纳。在商业模式驱力下,公共空间与个人空间的边界逐渐消融从而造成公民隐私泄露问题;从个体维度层面,算法的定向性传播影响、塑造着个体的认知结构,使人们固守在自身的信息茧房,在日常化娱乐化的推送中逐渐“驯化”。三个维度之间存在着关联性和互通性,当算法掌控者追求最大利益的冲动超越政府责任或企业利益必然对公民权利造成伤害,因此,算法传播在三个维度中所带来的消极影响不容忽视。
(一)算法与公共权力:技术的自主性与政治性
何为“权力”,马克斯·韦伯认为,权力是实现自己意志的能力;罗素将权力定义为“有意”努力“预期效果”产生;达尔认为权力就是影响力,无论个体是否能够接受,都不能脱离于现实中的政治体制之外,政治作为人类生存的不可避免的环境,每个人都以不同方式参与政治体系。而“公共权力”指在公共管理过程中,由官员及相关部门掌握并行使用以处理公共事务、维护公共秩序和增进公民福祉的权力。从本质上来说,公共权力来源于人民,公共权力运行的过程实际上是将权力机制运用于社会公共事务的管理之中进而实现社会目标,以处理由一切社会的性质产生的公共事务。
人们在获取免费服务的同时所付出的是个人信息,一些平台巧妙地将这些个人信息兑换成金钱,算法在帮助平台做出判断的同时也侵犯了公众权利。阿里尔认为,一种将用户个人信息视为关键输入变量的商业模式已经逐渐被企业接纳,在这种数据驱动的商业模式下,为了换取非公开的个人数据从而增强用户黏性,企业愿意向用户提供免费服务。当不同来源的数据汇总在一起并创建联系时,通过数据融合,企业将改进并丰富自己已经掌握的用户档案,做到更好地追踪用户的喜好与日常生活,并利用定向广告锁定特定的产品受众,因此,企业为了争取竞争优势而收集各种数据,而企业在算法领域的投入也是一笔庞大的开支,从而形成互联网与第三方平台的“共谋场景”。算法辅助共谋,当追求最大利益的冲动超越企业利益和社会责任时,必然会对公民权利造成伤害,导致数据泄露和隐私失保的问題层出不穷。
(三)算法与共通视角:个体视角的固化与封闭
“视角主义”是尼采哲学核心思想之一。尼采在《超善恶》中提及:“‘视角是所有生活的基本条件。”尼采的“视角主义”与算法营造的信息茧房有着密切联系,由于外部世界由不同视角的活动方式构成,个体通过视角来观察和认识外部世界,从某种意义上讲,视角是“观点之眼”,有选择性的、片面性的视角无形影响和制约着个体认知结构。
算法过滤制造个体视角。算法技术改变了信息内容的生产和传播方式,个体所接收的信息是经过算法选择和过滤之后得到的,因此,个体视角被算法过滤技术所框定,看不到视角之外的世界。算法过滤基于分析甚至演算行为来制造个体视角,数据收集和算法分析自然形成一种视角路径,将符合视角的、有偏向性的事实推送给用户,看似客观事实,但这种信息经视角路径过滤后呈现在人们眼前,视角中便成了影响主观判断和态度行为的重要因素,算法和信息过滤技术影响着人们的立场,塑造着人们的价值观。算法过滤技术作为一种“合理化力量”,培养着人们的政治取向和思考方式,用户被困守在由算法过滤技术营造的信息茧房中,被潜移默化地影响着他们的认知框架和价值选择。人们在信息茧房中通过片面的视角选择取舍观点,算法推送的信息所形成的个体视角渐渐和共通视角相背离。
视角分化影响群体共识。人脑中最重要的一个机制就是压缩资料,大脑通过对资料的提取来形成自身的认知结构,而个体会本能去强化自身认知结构,在接受信息的过程中会筛选过滤无意义的信号,从某种意义上来讲,个体认知结构是用户根据其自身认知结构搭建自身比较“舒适”的信息空间。尼采所言:“如果所谓事实就是满足了‘恰当证据的事务,而恰当证据的标准又是视角所创立的,那么‘没有独立于视角的真实世界意味着,‘事实在一定意义上是视角所制造的。”“证据推导结论”转变“结论引导证据”的逻辑规则发生了转变,在信息洪流中,人们倾向于在现有的数据信息中寻找并选择符合受众原有的认知框架的信息来佐证自己的观点,当事实与观点发生冲突,个体倾向于选择虚化甚至屏蔽掉与自身喜好、偏见不符的信息来维护原有的认知框架,固化其某种观点与立场。算法的过滤机制在这个层面上完美契合了个体在搭建信息舒适区的所需,算法过滤技术成为个体屏蔽认知框架外事实的隐性推手,用户固有的认知结构在周而复始接收到与自身认知结构相匹配的信息来不断验证已有的假设,人们生活在由算法搭建的信息舒适区,一定程度上强化个体偏见,不利于个体接收多元视角的信息,阻碍信息多样性认识,在接收算法定制的“投食”过程中降低了个体自主搜寻的能力。
算法过滤技术框定了人们视野,进一步固化个体的某些观点与立场,加剧了多元主体的视角分化,使个体对一些客观性事实产生主观性差异,影响人们的认知与判断,对客观公共生活的感知也会造成一定程度上的影响,导致共识难以形成,加剧了群体共识的离散化,公共性传播有赖于“共通视角”。因此,算法传播要注重打造社会共通视角,更好地发挥传播聚合作用。
三、算法现实建构下的主体博弈
国内数据观念、客观基础条件和主观伦理规范等方面尚未成熟,因此,需要对数据和算法应用所潜在的风险进行警惕和防范。如何确保算法传播程序设计公平性和决策正当性、提高算法程序设计者和相关人员道德伦理规范以及公众的算法素养等成为防范风险纠偏直面的问题。这就需要在算法各个领域相关环节进行规范,在算法程序设计和自主决策过程中更加注重数据应用过程的准确性、公平性和正当性以及对相关人员的信息伦理规范等,以增强对抗算法未知风险的能力。
(一)算法设计:增强程序的公平性
算法设计应用的初衷是为了更好地改善问题和提高效率,而算法在基于给予人们便利与福利的同时,算法“黑箱”内在缺陷引发的算法偏见与歧视侵蚀着公平正义,这些偏见隐藏于技术客观性面纱之下。算法在设计和开发过程中难以实现绝对客观,算法程序设计者和开发者以及相关人员在算法设计过程中应尽量防范由算法偏见所带来的消极影响,将个体偏见的影响值降到最小以保证算法传播过程中的相对客观,这就需要对算法设计过程中相关环节进行规范与调整,针对算法设计主体在伦理层面、程序设计开发环节、过程性自我纠偏机制的建立环节提出可能路径。
关于算法设计主体伦理层面。技术偏见来自于人的偏见,总体来说,除了算法技术客观制约因素,偏见更多来源于人们自身,算法相关人员作为设计和研发过程中的塑造因素,伦理的引导是人工智能时代一个必然选择。因此,强化决策和设计研发主体的道德自律,建立算法程序设计以及从业人员的行业道德伦理与规范,对算法程序设计和研发者主体意识的规范是防范算法风险的第一步。
关于算法设计内部结构层面。高质量数据是政府和其他机构进行正确决策的基础。欧洲国家将大数据质量框架分为三个阶段:数据投入、数据处理和数据产出。为了在数据应用过程提高其准确性、公平性和正当性,对于数据的应用过程每一个环节都制定了相应的标准与规范。在算法设计与开发过程中,应建立使数据采集和算法研发人员接受培训的制度,以避免由数据分布区域的差异性等客观因素以及算法相关人员主体差异性造成的意识偏差等主观因素所带来的错误风险,来促进算法设计的公平性。
关于算法技术自我纠偏层面。推进算法设计的优化和创新,建立技术自我纠偏机制,一些新兴的算法纠偏工具有望实现更加公正的人工智能。2018年,脸书发布了Fairness Flow致力于人工智能系统朝着公平和无偏见的方向发展。假如智能算法运行过程中对人类的种族、性别等因素做出不公正的评估,会被自动纠偏以提醒开发者。Accenture发布了一个工具包以自动检测AI算法中的偏见,帮助相关人员在应用数据的过程中将偏见的影响值降到最小。初创公司Pymetrics同样开源了用于检测偏见的工具Audit AI,以防范算法传播所带来的消极影响。因此,打造AI公平系统对于防止加剧群体偏见或者歧视以及确保算法的“自我净化”至关重要,以期通过算法内部系统公平性促进现代人工智能系统算法的公平。
(二)算法透明:维护决策正当性
由于算法黑箱的不透明性,算法在设计操作上存在被平台所有潜力者利用的风险,一些平台为了自身利益在程序中植入非正当算法侵犯了公民权利。2017年的皮尤报告中指出,算法必须是可理解的、可预测的、可控的,以便用户能够理解其使用的影响,并且必须接受持续的评估,以便纠偏算法运行过程中的不合理环节。因此,以算法透明抵御算法黑箱,争取向用户开放更多的算法和数据增强透明度是建立信任避免误解的重要途径,这就需要政府的“有形的手”来进行监管,合理控制平台在公共信息提供方面的商业性和任意性导向,在实现算法透明机制与算法商业利益之间寻找平衡支点。阿里尔在《算法的陷阱》中提到,将算法权力关进制度的牢笼,要利用政府“有形的手”来进行更好的监管,通过法律手段强化算法治理,其中,设置用户隐私保护是一项必要条件。
在关于公民网络隐私信息保护层面,通过加强第三方算法监管力量来保证算法治理的全方位监督。美国、日本、英国和德国等国家推进了相关立法工作,2017年12月,美国纽约市议会通过了《政府部门自动决策系统法案》,根据该法案成立了由专家和公民组织代表构成的监察组以增强算法运作过程中的公平性和透明度。德国已经成立由技术专家和资深媒体人成立的“监控算法”的非营利组织,形成监管数据分析机构的辅助力量,以监测影响公共生活的算法决策过程,提高算法权力运行的透明度。具体的监管手段包括允许用户不提供个人数据、保护个人信息、数字管理以及未经同意不得将数据转卖给第三方等举措。
大数据时代,技术越来越趋于一种工具理性主义,行动者把效率与利益放在首要位置,人文主义关怀渐渐淡化,人类的情感价值让位于技术的工具价值,而价值理性边缘化也成了导致社会问题丛生的重要原因之一。2017年,美国加利福尼亚阿西洛马举办的有关AI的会议中联合签署了阿西洛马人工智能原则,该原则指出人工智能应符合“人的价值”,这也意味着数据和算法时代,技术不应以工具性侵害公共性,造成人们的信息环境的隐私困扰。算法设计者和利益相关者应兼顾效率和公共利益理念的一种平衡,坚持工具理性与價值理性的统一,以价值理性为主导,回归人类本质意义,将公共利益看作是一种道德诉求,对算法利益相关者进行主体道德内化。哈贝马斯认为,道德是社会交往过程中的一种保护装置,离开道德,交往过程中个体也就失去了所谓的保护装置而受到伤害,而道德设计就是为了确立一种共同生活的规范,消除这样一种风险。因此,现代法治国家要有一个良好的信息环境,使国家、社会和公众之间形成一种良性互动,维系民主与法治。
(三)算法把关:呼吁个体共通性
随着政治、资本、技术等外在因素的介入,社会领域中政治力量与经济力量二者能够相互转化,与经济力量密切联系的有算法传播对于培育个体思考方式的认知俘获的能力。人类学学者戴维·格雷伯指出:“如果1%的人口控制着全球大部分可支配的财富,我们所谓的市场实际上反映了他们对待事情的看法。政治游说正是塑造政治和公众认知的重要工具,它可以巧妙地影响舆论导向和社会公众的是非观。”一些“资源权力者”能够对个体兴趣进行操控,控制着舆论律动的节奏,这种隐形的操纵使用户精神存在被殖民的风险。在传播权力结构中,算法作为技术权力,任何一方一旦过度越“权”,都可能以牺牲公共性为代价影响传播生态。传播生态环境“视角”一旦掌握在少数人手里,社会的分化与冲突在所难免,算法的定向性传播和分离性视角为公共性传播和共通视角的打造带来阻碍。
人工智能时代,算法改变了信息内容的生产和传播方式,个体所接收的信息经过智能数据的加工过滤后俨然是片面的,用户犹如井底之蛙看不到全貌的世界。算法信息定制和分发带来的“过滤气泡”“信息茧房”现象框定了人们的视野,算法和信息过滤技术影响着人们的思维方式,塑造着人们的认知结构,对客观公共生活的感知也造成一定的影响。因此,算法生产的信息内容的把关范式需要进行结构性治理,算法个性化信息生产和传播过程中要将人工与人工智能相结合,增强数字信息时代人类的主体性,打造个体之间的共通领域,把关信息内容过程中从整体到碎片在一定程度上靠向整体,从大众向分众甚至个体在一定程度上回归大众。
共通视角的打造有利于解决个体视角所形成的视角分化。在技术与政治的双向互动中,共通视角的打造有赖于公共性,从人的社会归属需要角度来看,公共议程和讨论是必要的,公共议程和讨论是连接社会不同阶层、不同群体的纽带,具有社会整合的意义。传播过程中的社会整合功能不应该随着技术发展而消失,公共信息和公共议程仍然需要面朝公众,而不是让个体固化在信息茧房。因此,算法技术除了个体内容的推送也需公共性内容的匹配。通过建构公共性传播打造平台用户的共通视角,实现公共性传播和定向性传播的共融,使具有公共价值的内容能够被广泛的个体所接受,从过去的分众传播一定程度上回归大众传播。在个体与个体、个体与组织、个体与社会之间更好地发挥调适作用,让个体能够摆脱信息茧房所营造的环境的限制,才能更好地促进不同群体、阶层之间的沟通与对话,从而更大范围、更广领域地凝聚共识以形成社会认同。
多元视角的开阔有利于个体既有认知与新知之间的再整合。算法模型需要强调“共通性”和“多元性”,打破固有的“固守性”和“单一性”,这就需要算法设计者具备社会责任,利用合理的技术降低技术的“个体舒适”,增添一定的“多元新知”,使个体获取一定程度的新知,促进个体既有认知和新知的整合,完善人们眼中数字信息世界的生态,提供个体逃离信息舒适区的可能性。
除此之外,人工智能时代个体应具备相应的算法素养,预防算法技术可能会带来的潜在危害与威胁。随着智能数据和算法技术的发展,良性信息已经成为现代公民重要的资源,因此,人们需要提升网络素养,以提高搜索信息、信息筛选以及自身对于数据信息的判断能力,更好地融入数字信息世界获取信息资源,防止被算法牵着鼻子走。个体对信息敢于怀疑和提问是十分必要的,数字时代的“个体启蒙”也有助于形成监管数据分析机构的多元力量。
四、结 语
随着数据和算法的应用,技术在赋予人们幻想的同时埋伏了一些问题和风险,这些風险背后可能是一种“幸福的陷阱”。算法技术潜移默化地影响着人们的思维认知,使公众在算法营造的拟态环境下逐渐被“驯化”。兰登·温纳认为,现代技术将人们逐渐束缚于技术规范之中,某种意义上,算法重塑了传统时期的“主奴关系”。人工智能时代使得“数据奴隶”成为一种可能。运用算法的目的应该是更好地为人类服务,而不是蒙蔽或左右人们的选择,降低人类的主体性,被人类所研发的技术作茧自缚。因此,算法传播对社会的“隐性规训”更应该引起人们重视,包括算法传播对于人的精神自由层面。假如这是算法时代的“圈套”,那么人们是否能通过一系列对自身思想、行为的操控完成自我的转变,以获得某种幸福、纯洁或不朽的状态,试图重获自由,答案仍需在未来中寻找。
参考文献:
[1] [法]米歇尔·福柯.规训与惩罚[M].刘北成,杨远婴, 译.北京:生活·读书·新知三联书店,2007.
[2] [英]阿里尔·扎拉奇,[美]莫里斯·E.斯图克.算法的陷 阱[M].余潇,译.北京:中信出版社,2018.
[3] 方惠,刘海龙.2018年中国的传播学研究[J].国际新闻 界,2019(1):23-40.
[4] 罗昕,肖恬.范式转型:算法时代把关理论的结构性考 察[J].新闻界,2019(3):10-19
[5] 彭兰.假象、算法囚徒与权利让渡:数据与算法时代的 新风险[J].西北师大学报:社会科学版,2018(5):20-29.
[6] 冯建华.后真相、公共传播与共同体构建[J].宁夏社会 科学,2019(2).
[7] 汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学 学报,2018(6):27-38.
[8] 刘擎.共享视角的瓦解与后真相政治的困境[J].探索与 争鸣,2017(4):24-26.
[9] 全燕,陈龙.算法传播的风险批判:公共性背离与主体 扭曲[J].华中师范大学学报,2019(1):149-156.