APP下载

数与人的悖谬:智能传播的数据异化及其伦理风险

2024-01-01杨先顺安佳

摘" "要: 以马克思异化理论为指导,反思了智能传播时代“数据与人”的关系,剖析了智能传播数据异化的表征、伦理风险及其挑战。智能传播数据异化表现为数据产品异化、数据生产异化、数据主体异化和数据关系异化。而数据与人的异化悖论也带来了人与自我、人与人、人与社会三个层面的伦理风险,并将带来伦理关系失调、伦理价值失衡、伦理行为失范和伦理秩序“失场”等挑战。反思风险并非拒绝创新,而是倡导在智能传播实践中,树立人本主义数据伦理观,提升人的主体地位,调适数据与人的本质关系。

关键词: 智能传播;数据异化;伦理风险

中图分类号:G20" "文献标识码:A 文章编号:1004-8634(2024)06-0133-(10)

DOI:10.13852/J.CNKI.JSHNU.2024.06.013

自古至今,数据与人类密切相关,并对人类社会的生产和生活产生了重大而深远的影响。进入大数据时代,数据成为表征世界万物关系的符号。人工智能技术的基础是数据、算法和算力。在传播领域,人工智能技术带来数字化与智能化的升级,推动产品、内容、流程、组织、商业模式的创新。但在升级、创新的背后,亦呈现数据与人的发展的不平衡,数据异化为人的枷锁,蕴含着潜在的伦理风险。本文借助马克思主义对“异化”概念的经典分析来阐释智能传播数据异化的内涵和表征,并提示数据异化引发的伦理风险及其挑战,从而深化智能传播的数据伦理研究。

一、智能传播数据异化的内涵

异化概念源远流长,不同时期的哲学家和思想家对异化的概念有不同的理解和解释。在马克思主义出现之前,异化概念有一个从神学概念,经由社会学概念,到哲学概念的发展过程,这是人类不断深入认识和把握异化本质的过程。1 哲学家广松涉指出,异化在哲学范畴中可表征为主体的衍生物与主体相互对立、相互背离、相互排斥,甚至成为控制和奴役主体的异己力量。2 马克思借鉴和批判黑格尔的“绝对精神自我异化”和费尔巴哈的“人本主义异化”,提出了劳动异化理论。在马克思看来,异化包含两层含义:一是劳动异化必须由主体出发产生客体,二是主客体相对立且客体成为主体之外的异己力量。此外,在马克思的思想脉络中,机器/技术是具有中性意义的,但在资本主义生产方式中,机器/技术成为一种资本;在资本主义运用中,机器/技术导致劳动与社会关系的全面异化。换言之,人类制造出的机器/技术成为异己的力量,人类被机器/技术控制。技术异化是对马克思异化概念的引申和延展,法兰克福学派据此提出对技术异化的批判。例如,赫伯特·马尔库塞(Herbert Marcuse)在《单向度的人:发达工业社会意识形态研究》中描述了工业技术促使人自身的单面化及之后的完全异化。近年来,哈特穆特·罗萨(Hartmut Rosa)重新将异化概念引入当代的批判理论,认为科技进步、社会变迁、生活节奏的加速等因素催生出“人们自愿做某些不是人们自己真的想做的事情”的新异化。1 数据驱动的人工智能技术促进人类经济社会发展的同时,也衍生出新的异化现象并引发伦理风险。

当前,数据呈指数增长,数据驱动的算法技术提升了智能算法的数据解析力,人类社会正在走向“基于数据智能的解析社会”。2 现如今,人类身处拥有全方位、24小时的数据采集设备环境中,我们每一次使用搜索引擎、在社交媒体上点赞以及转发、在电商平台网购、在智能可穿戴设备对身体及运动进行记录等,都会产生大量数据,继而形成数据网络。通过对这些海量数据进行智能分析,我们每一个人都像是电影《楚门的世界》(The Truman Show)里的楚门,深处“第三只眼”的监控之下。这种深度观测个体的能力,使智能传播中的每一个个体宛若赤裸的人。以信息流广告(Feed AD)为例,社交媒体平台为了实现向用户定向精准推送广告内容的目的,会在用户授权同意下全面采集平台用户的相关数据,包括年龄、性别、所在区域、使用设备型号等基础信息数据,关注好友数量、好友互动频次等社交属性数据,以及用户上网操作(点击、搜索、浏览、停留、分享、跳转、关闭等)等行为数据。收集这些数据之后,就可以根据用户的社会属性、个人偏好、行为特征等进行数据挖掘,绘制用户的“数据画像”,据此再以用户可能喜欢的广告创意内容进行商品推荐,并实现定向的精准推送。看似寻常出现在社交媒体中的信息流广告,其实是数据驱动的自动化系统的“精心安排”。概言之,只要打开智能设备,这场数据驱动的数字资本游戏就在上演,而每一个个体都被裹挟其中。在广告传播学领域,本文笔者之一曾对网络广告传播的技术异化展开研究,认为“网络广告中,人的尊严遭到空前的嘲弄,而人的价值和个性被淹没在数字化的海洋中,人之主体屈服于技术客体”。3 令人遗憾的是,发展到数据智能化时代的今天,数据处理技术愈加成熟,但我们所处的异化境遇似乎比之前更加严重。通过文献梳理我们发现,马克·安杰维克(Mark Andrejevic)、克里斯蒂安·福克斯(Christian Fuchs)、蓝江等国内外学者从政治经济学视角运用马克思异化理论对数字劳动、数字资本主义等问题展开批判研究时,常采用“数字异化”概念。2015年陈万球等人最早提出“数据异化”概念,并分析了城市治理中数据异化的表现及其治理,4 但因主题所需,未深入界定此概念。2016年陈仕伟提出“大数据技术异化”概念,认为大数据技术异化从根本上说就是我们不能完全控制和固定大数据技术导致的非人道、非人性和非自由。5 本文认为在讨论智能传播数据伦理问题时,应更强调数据和数据技术(算法)与人的关系,因此主张采用“数据异化”概念。数据异化是技术异化在大数据和智能化时代演变的新形态,但目前学界的相关研究还非常少,亟需深入系统地探讨。

随着数据驱动的人工智能技术日益广泛的应用,物理空间和网络空间中的数据采集、存储、流通和应用行为大规模增加,数据与人的异化问题愈渐凸显。智能传播中,算法、云存储、区块链等智能技术依赖于大数据,数据与人已经成为智能传播的核心要素,但二者在传播实践中常常出现异化悖谬。

我们认为,智能传播中数据本身及数据技术都出现了异化现象。一方面,从数据本身来看,有学者指出,“数字资本主义创造了一个完全由一般数据组成的界面,不被数据化就丧失了存在的意义”。6 这就意味着人类已经彻底跨入尼古拉·尼葛洛庞帝(Nicholas Negroponte)所言的“数字化生存”新世界。数据驱动的智能传播中,任何自然和社会领域都可以实现数字化,甚至人本身也能被数字化。数字化生产出来的对象就是数据,并成为人类存在的一种样式。这就带来了数据本体论,进而引发数据主义和数据拜物教的热潮。数据不断冲击人类,使得人类的主体地位摇摇欲坠。另一方面,从数据技术来看,数据驱动的智能算法对人类生活和社会各个领域实现全面渗透和控制,数据分析和智能算法使人的行为规律得以被洞察、认知、利用,在这一过程中,人逐渐被数据技术控制,成为适应数据技术发展所需的工具,导致人类能动性、创造性和自主性的贬抑。此外,现阶段数据驱动的智能算法技术的发展,需要人的经验数据来“喂养”智能机器。某种程度上,人类已经沦为机器的“数据养料”“数据奶牛”。数据算法技术给人类带来便捷和效率的同时,也使主体陷入数据异化的危机之中。

据此,我们将智能传播的数据异化界定为:数据智能发展到一定阶段后,传播实践中原本作为客体的数据及数据处理技术与人类主体相对立,成为外在于人的异己力量,并反向对人类进行控制和奴役。换言之,智能传播中数据与人的异化悖谬在于,人被自己创造的数据控制,并最终成为被数据所定义的“人”。

二、智能传播数据异化的表征

智能时代,数据成为一种存在,是日常生活中不可缺失的一部分。数据生产实践中,从数据产品到数据生产,从数据主体到数据关系,都呈现异己的状态。智能传播本体的数据化和智能化消解了传播中的主体性,出现数据与人的异化悖论。马克思劳动异化理论可以阐释当下智能传播中数据与人的异化。马克思在《1844年经济学哲学手稿》中主要从四个方面论述了劳动异化理论:劳动者和劳动产品(物)相异化、劳动者和自己的生产活动(生产行为)相异化、劳动者同自己的类本质相异化,以及人同人之间相异化。其中,产品的异化是异化的外在表现;人的自我异化是异化的内在实质;社会关系异化是主体间的异化,体现为人与人之间关系的异化。智能传播的数据异化通过实践活动得以实现,具体表征为数据产品异化、数据生产异化、数据主体异化和数据关系异化。

1.数据产品异化

智能传播活动中数字劳动所生产的对象主要是数据(产品)。数据(产品)是指,以数据为生产要素,凝结着一般人类劳动,通过信息市场交换,能够满足大数据社会条件下人类需要的劳动产品。数据的生产不再是传统劳动中某个工人或雇员劳动的产品,而是由每一台智能传播终端的用户行为所产生的结果。数据成为智能传播的基本构成要素,海量数据通过相互连接与融合,形成数据网络,在传播实践中彰显强大的生产能力和价值规律。

智能传播中的数据(产品)脱离于数据生产者,通过技术进行应用并实现交换,成为数据生产者之外的异己存在物,并对数据生产者形成控制,出现数据产品异化。首先,数据产品来源于数据生产者;其次,用户在数字平台中耗费的精力越多、时间越久,亲手创造出来的异己的数据产品越强大,数据生产者就越容易丧失自己,形成数据产品与数据生产者之间的对立;最后,数据生产者与数据产品在算法技术作用下发生主客体颠倒,即主体客体化和客体主体化。概言之,用户作为生产数据的劳动者,与自己的劳动产品相分离,自己的数据通过算法技术加工后又反向诱导或控制用户,达成相关利益方的目的。伴随数据技术的发展,数据内涵愈加丰富,甚至出现数据化的仿真世界或虚实交融的世界(元宇宙),在这一过程中,数据产品异化变得更加复杂。

2.数据生产异化

数据生产的过程中,用户通过浏览网页、刷短视频、打赏直播、参与游戏、发布内容等方式生产大量的数据,通过这些可以留下数据痕迹的劳动,创造数字资本的价值。例如,爱德华·科莫尔(Edward Comor)指出,产消合一者生产的“用户生成内容”(User-generated Content,简称UGC)成为数字资本主义新的剩余价值来源的增长点,并沦为资本的工具。1 数据异化不仅体现为数据生产的结果,也体现在数据生产的行为过程之中。

数字化生存的时代,人类被数据化是存在于数据世界的必要条件,用户既是数据生产者,也是被数据化的人。用户为数据平台创造的价值越多,自己被侵犯的权益就越多;数据产品越完美,生产数据的劳动者就越畸形;数据生产劳动越有力量,数据生产者就越无力;数据生产过程越机巧,数据生产者就越能成为数据世界的奴隶。甚至,只有作为数据生产者才能维持自己作为被数据化的人而存在于数据世界,且只有作为被数据化的人才能是数据生产者。

现如今,人们离不开数据生产活动。韩炳哲曾批判指出,“人们与数据设备之间有一种近乎迷恋的、强制性的关系”。1 例如,社交媒体的使用者常常在发布一条信息后,总忍不住隔几分钟就要频繁刷新页面,以接收来自他人的评论和点赞。因此,这种生产活动是一种自身的丧失,在传播过程中逐渐失去了对生产力的控制。此外,劳动的异己性还体现为数据智能相关企业和平台对用户生产数据的劳动报酬的无偿占有,数据生产行为并不真正属于生产数据的劳动者(用户)。

3.数据主体异化

现代的主体理论起源于笛卡尔的哲学思想,架构了主体与客体、内在的自我与外在的世界之间的二元对立。康德的主体哲学则认为理性行为的人是实践理性的中心。马克思在分析劳动异化时指出,人是类存在物,异化劳动把类生活变成维持个人生活的手段,且这种生产活动是一种自由的有意识的活动。2随着数据驱动算法技术的普遍应用,越来越多的数据被用于记录和影响世界。数据技术深度嵌入人们的日常生活,几乎已经覆盖了人类全部的生存领域。这也意味着数据生产活动随处可见,如打开智能手机、与智能音箱对话、查询导航系统、佩戴运动手环等。看似是用户自主发生的智能需求,往往不经意间就完成了数据的生产活动。这种隐藏更深的数据生产使异化持续不断地加深,使生产数据的劳动者被深深嵌入其中且不易摆脱。拥有人的类特性的数据主体本应是自由且有意识地进行数据生产活动的,然而在智能传播实践中,数据主体在数据化的过程中被边缘化,数据化的“新主体”不断掏空并逐渐控制原本的数据主体。这构成了数据主体异化,主要体现在如下三个方面:

第一,度量化的数据主体异化。数据成为量化事物的一切度量工具,通过对海量数据进行挖掘分析、预测判断,每个数据主体都被度量、被数据化。“万物皆数据”冲击着人的主体地位,进而人的自由、自主都有可能受到侵犯。甚至“如果大数据分析完全准确,那么我们的未来都可以被精准地预测,因此在未来,我们不仅会失去选择的权利,而且会按照预测去行动。如果精准的预测成为现实的话,我们也就失去了自由意志,失去了自由选择生活的权利”。3 德勒兹(G.Deleuze)提出分体(Dividuals)概念,4 原本在福柯规训社会中的个体,在数据时代被信息技术消解,变为可分的数字化分体。通过将自己转化为数据,以便在数据和算法搭建的数据化空间中存活,这也就使得分体更易被控制。人类应当是数据量化工具的主人,然而在智能传播中,人们被各种数据及处理数据技术奴役,沦为数据量化工具的“工具”。

第二,镜像化的数据主体异化。从被动的数据监控到主动的量化自我,海量的数据被存储在数字空间,通过算法分析创造一个个“镜像的自我”“通过各种生命和行为数据的精准采集、建模与分析,每一个个体可以在个人层面上得到刻画和定义,个体由此投射为一种虚拟身体或数据孪生”。5 这样形成的被数据化的主体是数据主体的一种镜像,是不同于原数据主体的新事物,它以新的表征形式同环境和社会体系相关联。大数据的发展为人类构造了一个充实且自由的数据环境,这使得自我和本我之间很容易产生失衡,进而出现镜像化的数据主体异化,即主体在数据世界中的异化。以刷短视频为例,当人们打开短视频APP时,平台会根据用户以往的观看记录推送相关视频。也就是说,平台会根据镜像化的“数据我”的观看喜好,为用户营造一个沉溺其中的媒介环境,而生成“数据我”的数据主体则被“自愿”绑定在平台上,陷入算法的陷阱。

第三,标签化的数据主体异化。我们对智能媒体的基础要求之一是能够准确地“识别”,这往往和“打标签”相关联。“标签”又常常和“画像”成对出现,表征的都是理解的能力。6 智能传播中,随着数据的巨量增加,为了能够更方便迅速地进行数据分析、构建算法、洞察用户,数据公司往往会采用给数据打标签的方式工作,甚至一些互联网科技公司还会寻求外包的“数据标注员”。但大数据呈现的往往是相关关系而非因果关系。数据可以被观察,但数据背后的“原因”不能被解释;此外,数据能展示人的行为结果,却无法展示行为动机。对数据主体行为规律的洞察通常来自人类对数据的主观解释。尽管这些被标注的数据在收集阶段的目的较为单一,但在阐释及应用阶段常常带有强烈的主观性和目的性。在进行个性化内容推荐时,传播机构通常利用数据平台提供的用户“数据标签”进行目标用户的遴选,在这一过程中往往会忽略对人本身的价值关怀,只是机械式地完成寻找符合目标的“标签化”数据主体的任务。这使得数据标签背后的每一个个体成为仅具有数据差异的抽象符号,而非一个个鲜活的生命。

4.数据关系异化

马克思指出,“当人同自身相对立的时候,他也同他人相对立。凡是适用于人对自己的劳动、对自己的劳动产品和对自身的关系的东西,也都适用于人对他人、对他人的劳动和劳动对象的关系。……人的异化,一般地说,人对自身的任何关系,只有通过人对他人的关系才得以实现和表现”。1 数据产品的异化、数据生产的异化和数据主体的异化必然会映射到数据劳动生产关系的异化,即数据主体之间的关系异化。

智能传播中,数字劳动和数字劳动产品所归属的异己存在物,以及数字劳动为之服务和数据产品供其享受的存在物,只能是人自身。如果数字劳动产品不属于用户自身,而是作为一种异己的力量同用户相对立,那么这只能是由于产品属于用户之外的他人。纵观数据生产劳动实践,数据劳动者与数据产品所有者是对立关系,在传播实践中即为用户与数据平台的对立关系。用户无法获取大量数据资源的使用权,也不具备处理大量数据的能力,但智能科技巨头公司和数据平台则利用人工智能技术将大量用户生产的数据作为牟利工具。这就出现了数据生产者与数据应用者之间的矛盾。

此外,在大数据时代,我们都是以一种数据的形式在网络空间中进行交换,我们的社会关系也从具体的身体关系变成了数字化的交换关系。2数字化平台成为人与人之间沟通的主要方式,数字身份代替数据主体参与数据关系的交往。数据关系的异化主要体现为人与人之间交往的异化以及个体与社会之间的冲突。如微信朋友圈曾针对不同收入的消费者推送不同档次产品的广告,形成对消费者身份地位的区隔,这引发了对不公平议题的讨论。而关系异化最终将指向信任危机,激化用户(或消费者)对平台、相关企业乃至政府机构的不信任感。

在智能传播实践中,用户成为只需默默提供数据、接受数据分析结果的“工具人”,逐渐丧失了独立思考、反思批判的能力,人的主体性因而面临严重威胁。虽然智能传播将人与人之间的连接扩展到人与人、人与物、物与物之间的全连接,但当理性冰冷的数据关系替代了人际的感性与温暖,就会偏离人的社会文化本质,并引发一系列伦理风险。

三、智能传播数据异化的伦理风险

现代社会中,风险无处不在。德国社会学家乌尔里希·贝克(Ulrich Beck)提出风险社会概念。人工智能、元宇宙等技术应用正逐渐冲击并重构原本用以调节人与人之间、人与自然之间关系的伦理道德规范体系和价值体系,很可能带来不可逆的伦理、道德和人本主义危机。伦理风险是风险中的一个重要类型,与经济风险、政治风险、文化风险等密切相关。伦理风险是客观存在和主观认知的结合,是人类为获得“道德合法性”或“存在正当性”的不确定要素和事件的组合。3 具体是指“在人与人、人与社会、人与自然、人与自身的伦理关系方面,由于正面或负面影响可能产生不确定事件或条件,尤指科技所产生的不确定的伦理负效应,诸如伦理关系失调、社会失序、机制失控、人们行为失范、心理失衡等”。4 数据异化的伦理风险就是人因主体性丧失而产生不确定性,进而带来的伦理负效应。智能传播活动中由数据异化带来的伦理负效应及破坏力,常常具有影响程度广泛、危害持久和不可逆等特征。

人的主体性即人作为活动主体的质的规定性,是人特有的属性。1 主体存在于主客体相互关系中,主体是相对于客体而言的。因此,考察一切活动的主体状况,最终必须进入主客体的相互关系中。从马克思的主体性思想来看,在智能传播实践的主客体关系中,人是主体,客体世界包括他人、社会、自然界等。在“人与自我”“人与他人”“人与社会”的关系中,人的主体性通过人的认识和实践活动得以实现,也只有在这种相关关系中,主体才具有自主的意义。以下我们将从人的主体性关系层面考察智能传播数据异化的伦理风险。

1.“人—自我”层面的伦理风险

智能传播中,数据驱动的人工智能技术使人与自我相隔离,并引发三类伦理风险。

第一,人的精神困扰引发的伦理风险。作为碳基生物的人类与动物相区别,除了肉身还有精神和意识。随着数据驱动的人工智能技术对智能传播实践的全面介入,人们出现了一些精神困扰。例如,信息沉溺(Addiction)是一种严重的心理依赖现象,在沉溺机制中有一种主体难以抵制的诱惑与操控。2 进入人工智能时代,上瘾机制设计变得更加智能化,可以通过对用户行为数据的监测分析,结合算法技术,实现精准刺激,令用户沉溺其中无法自拔。沉溺于虚拟游戏的玩家、网络购物的买家、网红直播的粉丝,背后都隐藏了平台设计的智能化上瘾机制,智能技术促使用户被牢牢限定在特定的媒介场域并沉溺其中,甚至无法辨别虚拟与现实的边界。此外,数据驱动的人工智能技术还会引发一些人的技术恐慌(Technophobia),即对技术和科学的恐惧。面对不断增强的人工智能技术,人们产生压力和不安情绪。尤其是一些相对弱势的群体,如无法辨别智能传播信息真伪的儿童和老年人,他们往往会在智能传播实践中变得更加手足无措。

第二,人的能力让渡引发的伦理风险。智能算法的提升,使人类自愿将原本属于人自身的独特能力,诸如数据处理能力、逻辑分析能力、记忆能力等让渡给智能技术。智能机器代替人类进行判断、决策、分析,使得人本身的想象能力、创造能力、认知能力、独立思考能力等受到限制和阻碍。数据智能技术的创新对主体的现有思维和心智框架提出新要求,当这种要求无法满足,不适应性随之产生,出现主体焦虑。以人类的认知能力为例,智能算法可以根据从用户处获取的信息,分析其兴趣及习惯,推荐个性化信息内容,从而强化用户对某些问题的既有认知。当面对意见相左的问题时,“过滤泡”(Filter Bubble)就会发挥剔除功能,回避与自己相反的信息,排除了相对的信息源,也就彻底远离了其他认知。3 长久的结果便是人会被固化在某一认知之中,导致其对某些认知观点的盲从和对其他认知观点的遮蔽,进而形成内生性偏见。2016年美国总统大选中,剑桥分析公司对Facebook社交软件的用户数据进行分析判断,进而推送对应信息给用户,这很容易放大“信息茧房”(Information Cocoons)效应,将人类困在封闭狭窄的信息系统中,禁锢他们的思想认知能力,降低他们对信息的判别能力。

第三,人的存在意义消解引发的伦理风险。纵观人类与技术的相处之道,人类为适应技术社会发展的需要,往往深陷被客体化的危机之中。人类本身借助技术获得了主体身份,却常常在不知不觉中沉迷于对技术的膜拜。数据驱动的人工智能技术以前所未有的强度干预人的实践活动。人类主体对技术的迷思使人类陷入客体化的困境,人类主体的存在感和存在价值被消解和重构,进而产生本体性焦虑。智能传播中,数据主体产生被数据控制和替代的焦虑感。一方面,数据驱动的智能算法剥夺了人类的尊严,人们的数据轨迹被监控、展示、应用,智能算法对人的想法和行为的解读使人在数据面前变得一览无余,人的尊严与自由在算法面前甘拜下风;另一方面,智能语音助手、社交机器人等人机交互智能产品的出现,进一步强化了一些人被时代淘汰的无力感。这种对数据技术的畏惧,容易使人自愿接受技术权力的宰制,导致个人沉沦。

2.“人—人”层面的伦理风险

马克思认为,人的本质就是一切社会关系的总和。主体间关系标明了人作为主体地位的实现和表现,每一个人需要在人与人之间的社会关系中实现自我确认。人是一种社会动物,有群体存在的必要,也有社交的需要,数字世界的人际交往常常是现实世界社会关系的映射。智能传播中,数据关系疏离和关系物化都会引发伦理风险。

第一,关系疏离引发的伦理风险。现代化背景下,技术进步打破了人与人之间原有的有机联系。表面上,人们之间沟通联络的方式变得更加便捷,似乎更有利于人与人的交往;但在表面之下,是人与人之间的疏离与冷漠,以及普遍性的不信任。大数据组成的信息大量涌入我们的生活,形成数据海洋,而个体就像是在大海中奇幻漂流的少年派,孤立无援,茕茕孑立。这种孤独在数据驱动的智能时代更加凸显。首先,大数据技术使得人与人之间的关系更加脆弱。当智能系统为个体提供全部服务时,人所需要的就是系统的服务而非他人,他人将不再是交往关系中的另一个端点。数据驱动下的自动化智能技术的广泛应用,进一步加速了原子化个体的形成。原子化的个体组成了现代社会,而这些微粒是相互脱离的。将微粒联系在一起仅仅是出于各自的利益和互相利用的必要性,这就构成了库克里克(Christoph Kucklick)所描述的“微粒社会”。1 从人机关系看,近年来兴起的AI合成主播、智能语音助手等,以其惟妙惟肖的真实感,将智能机器人变得和真人一般。人工智能产品在日益拉近其与人之间距离的同时,人与人之间的伦理关系却被弱化。例如,当前有些父母的育儿方式是把智能设备当成“电子保姆”,这在一定程度上破坏了亲子关系。其次,技术也重塑了人类社会的人际关系。低头族和手机成瘾者出现,使得人与人之间的现实沟通逐渐减弱。从熟人社会到陌生人社会再到如今的智能解析社会,无孔不入的数据智能技术支配和控制着人的自由时间,使人陷入社交恐惧之中,人与人之间的疏离和冷漠加剧,成为机器控制下的孤立个体。最后,智能传播中基于相同的兴趣爱好和价值观等感性因素而形成的人与人之间的社群关系,常常呈现出“群体极化”趋势,即新的数字鸿沟的出现进一步强化了不同阶层、群体之间的信息隔膜,造成某一群体针对某一信息不能畅通地与其他群体进行沟通交流,加剧了群体内部的极端化程度。2 这导致主体间的偏见和隔阂,加深了主体间的信任危机,带来社会负效应。

第二,关系物化引发的伦理风险。乔治·卢卡奇(Ceorg Lukács)将“物化”定义为“人与人之间的关系具有物之性格”。3 物化概念常用于描述主体间关系被物的关系遮盖,呈现非正常化的现象。数据驱动的智能时代,数据已经成为替代货币、维持人际关系的一般等价物。在物化的社会关系中,社会交往活动被简化为可量化的关系,甚至感性价值也可以被量化评估。《大数据时代》的经典案例中,怀孕少女的家人还不如商家更早知道其怀孕的消息。驱动商家“关心”怀孕少女的出发点,当然并非真正的关爱,而仅仅视她为“潜在的目标消费者”。这使得数据驱动的智能传播中功利主义、拜金主义滋长。正如马克思批判的,使人和人之间除了赤裸裸的利害关系,除了冷酷无情的“现金交易”,就再也没有任何别的联系了。4数据世界中,主体间原本生动的交往关系,被附着了利益的冰冷数据关系替代,数据对人进行支配和控制的过程中,人也逐渐丧失了本真。社交媒体就像一座金矿,其中所蕴藏的用户数据,早已成为各利益方竞逐的资源。人们已经成为智能传播的标靶,甚至整个社会都可能被“数据权力”主宰。

3.“人—社会”层面的伦理风险

建立在人与人关系基础之上的是人与社会的关系。个人是社会整体的一部分,社会整体包含于每一个人之中。智能传播数据异化引发的人与社会层面的伦理风险包括以下两类。

第一,对社会公平的冲击与消解。数据驱动下信息技术的巨大变革,深刻影响着社会生产和生活。大数据系统中数据生成、采集、分析、应用等各个环节叠加所引发的认知不足和利益关系失调问题,加剧了社会系统的歧视与不公平。5数据公平包括如何使丰富的数据资源被公平分配、如何公平共享数据智能产品、如何公平承担责任和义务。让数据公平地造福全人类成为我们必须面对的时代难题。当前,数据伦理研究涉及的数据不公平问题主要体现在数据垄断和数字鸿沟两方面,其根源是数据资源的不平衡和不平等。例如,在大数据的知识建构过程中,社会不同个体或团体在大数据资源的占有、使用和分配上出现了不平等,从而导致数据资源在“代表性”、“用户画像”、决策支持、行动干预等不同维度上出现“算法不正义”的情形。1 究其原因,一方面是采集来的数据本身就包含了不平等和偏见,另一方面则是使用数据(算法)时所蕴含的不平等和偏见。不同群体在数据计算的结果中遭受不公平对待,并与社会原有的不平等相互作用,构成新的不平等,引发许多社会问题。例如,谷歌的广告推送系统存在性别歧视现象:给男性推送更多高收入、高职位的招聘信息,女性反之。2 这可能会进一步加剧社会中的性别歧视,伤害女性的公平权益。通常而言,越容易留下“数据痕迹”的人将越容易被数据平台关注,这就导致那些在现实生活中原本处于社会边缘、弱势地位的群体(如儿童、老人、残障人士等)被遗忘在大数据系统之外,破坏了社会公平体系。

第二,对社会信任的侵蚀与瓦解。风险与信任往往密切相关。在安东尼·吉登斯(Anthony Giddens)看来,风险和信任交织在一起,信任和经过估算的风险之间实际上总存在着一种平衡。3尼克拉斯·卢曼(Niklas Luhmann)认为,在任何情况下,信任都是一种社会关系,社会关系本身从属于特殊的规则系统。4 智能传播中的不信任既包含人们对数据智能产生的知识本身的不信任,也包含对数据智能技术的不信任,以及对数据智能技术背后操作的人、机构和制度的不信任。首先,以“深度伪造”(Deep Fake)技术为代表的人工智能技术可以轻松制作虚假图像和视频,构建虚假信息环境,普通人难以辨别真伪,增加了人们对传播内容的“不确定”,加剧了后真相时代的信任危机。其次,数据流通过程中的数据泄露和用户隐私问题,使得人们对数据应用缺乏基本的信赖,甚至产生不安全的心理感受,对隐私问题的高关注度和高参与度体现人们对新技术应用的不信任。最后,以数据流量造假为例,2020年,我国广告主因移动广告欺诈(Fraud)导致的损失达到180亿元人民币左右。5 相关利益方通过机器人流量作弊和“人肉流量”作弊等方式进行短视频刷量、直播间刷人气、带货数据造假等违规操作。数据要素已经成为数字经济市场的重要资源,是许多数据智能技术公司的核心竞争力,但对数据流量的一味追逐也破坏了传播渠道市场交易的信任之维。概言之,数据主义视域下“万物皆可量化”,削弱了人的自由,使人成为数据智能技术的附属物,并由此衍生出各种信任危机。

四、智能传播数据异化伦理风险带来的挑战

数据驱动的人工智能技术一方面帮我们消除了许多的不确定性,另一方面也不断产生新的不确定性,可谓机遇与风险共存。在传播实践中,数据驱动的人工智能技术对传播的内容与形态产生了极其重要的影响,并不断冲击传播过程中人的主体地位,带来不可估量的伦理风险,对传统的社会伦理带来如下挑战:伦理关系失调、伦理价值失衡、伦理行为失范和伦理秩序“失场”。

1.伦理关系失调

伦理关系是人与人之间的一种客观关系。伦理关系本质上是现实合理性秩序中的关系,是主体精神渗透其中并通过道德、法律、习俗等规则体系维系的关系。6 快速发展的算法技术在带来便捷的同时,也带来了伦理关系紊乱,我们将此称为伦理关系失调。传统的社会伦理关系以“人”为基础,而在智能社会中,一切都可以量化为数据,形成以“数据”为基础的数据关系,打破了传统主体的时空限制和传统的社会伦理关系。

在信息文明时代,作为局部性的人与人关系问题,以及单纯的自由和隐私问题等伦理关系,将全面融合为整体性的人与人、人与其所创构世界的整体关系问题。7 人工智能技术将现实社会与数据世界的区隔进一步打破,数字化的虚拟关系网络解构了传统的人与人、人与社会的社会关系网络。一方面,伦理关系拓展到数据化世界,包括人与数据化的人、数据化的人与现实社会、数据化的人与数据化的人之间的伦理关系等,而伴随人工智能技术的不断发展强大,还将面临“人—机”关系等问题。另一方面,现有的伦理关系与虚拟关系交织在一起,重塑了人们生产生活的社会情境,同时也将面临更加复杂多元的道德与利益关系的挑战。在这一过程中,应树立人本主义数据伦理观,提升人的主体地位,调适数据与人的关系。

2.伦理价值失衡

人工智能的发展必然会挑战既有的人类价值,促使人类去重新思考人类的基本属性与伦常关系。1 马克斯·韦伯(Max Weber)区分了价值理性和工具理性,认为工具理性只关注效率、功用、计算和手段,价值理性则注重行为本身的价值,人才是终极目的。法兰克福学派批判性地指出工具理性导致技术理性霸权,消解了人生存的价值基础。数据驱动的人工智能技术广泛应用,加速了工具理性与价值理性的背离,对社会原有的价值体系进行解构,使其处于一种价值失衡状态。

智能传播中,不同技术力量的渗透和利益的驱使,使数据的收集、存储、分析、开发和应用等各个环节都可能引发伦理问题。在数据的生产实践中,往往无法同时满足多维度的价值评估准则,比如安全与隐私、效率与公平等。不同群体的利益价值取向与价值需求之间存在潜在的难以弥合的冲突。用户需要在让渡个人隐私带来的危害与可获得的技术带来的便捷之间进行价值判断。通过确认“隐私声明”和勾选“用户协议”的方式,数据主体与数据平台建立了并不完全公平的契约关系。数据的相关利益者陷入价值的分裂与冲突,价值框架如何弥合工具理性和价值理性的鸿沟,实现数据的工具理性与人的价值理性的统一,成为另一种挑战。对此,应坚持开放、公平、人本的道德价值取向,摒弃非人道、非人性和非自由的伦理价值选择。

3.伦理行为失范

伦理行为是人的自由意志选择的结果,而自由意志的有效行使,取决于主体对行为过程及其后果的知晓和控制能力。换言之,伦理行为应该是一种以自由意志为前提,由选择机制和责任能力共同决定的责任行为。2 伦理行为失范是指在具体情境中,行为主体违反既有的伦理规范并通过行为表现出来的一种状态。

面对伦理风险时,人们常常会根据风险认知预测后果,从而决定其伦理行为。由于数据异化伦理风险往往是潜在的、长周期的、影响范围广且深远的、结果不可逆的,因而容易被智能传播主体忽略。在一定的伦理意识支配下,从业者根据一定的伦理价值标准,进行“义”与“利”、“工具理性”与“价值理性”、“经济价值”与“人本价值”的伦理抉择。智能传播生态中,职业共同体的伦理意识尚未达成共识,新型伦理行为准则尚未构建,难以对海量的数据进行监管,从而导致传播主体的伦理行为处于失范状态,带来消极影响并破坏社会秩序。这就有待建构一整套全新的伦理行为规范及其标准,通过自律与他律、内部与外部相结合的方式,制约相关利益方的失范行为。

4.伦理秩序“失场”

狭义的伦理秩序指称符合伦理性的善的秩序,广义的伦理秩序指称具有伦理属性的秩序。伦理秩序是伦理关系的结构性存在。伦理秩序首先是一种客观性的关系结构,这种结构自身具有客观交往规则系统,是伦理关系的内在秩序。对这种客观交往关系及其交往规则系统的自觉意识与主观表达,即为伦理规范要求。3 “失场”原为戏剧表演术语,意为演员该出场时而未及时出场(或未出场),借用这一术语,伦理秩序“失场”是一种隐喻,意指适应智能传播时代的新伦理秩序本应及时登场却滞后出现。数据作为新型生产要素,业已影响了人类的生产生活方式以及传统的伦理秩序。当前,传统的社会伦理秩序被冲击和解构,已经无法应对智能时代的伦理风险,但智能化社会的新型伦理秩序尚未塑造成熟。

智能传播中,伦理秩序“失场”的挑战一方面源于伦理责任的弱化。在传统的传播实践活动中,通常由传媒工作者等专业人员担任维护社会伦理秩序的角色。但在智能传播实践过程中,数据驱动的算法技术具有复杂性、隐蔽性和系统性等特征,当某一环节出现问题时,很难进行严格的责任主体界定,主体之间的利益纠葛也很难明确,加之部分从业者数据伦理意识的模糊和道德信仰的缺失,使得伦理责任难以落到实处。另一方面源于智能传播场景下伦理共识理念尚待确定。这妨碍了新型伦理秩序——一种在传播实践活动中形成的普遍认同的、稳定的、能维系智能传播实践活动有序运行的价值规范体系——的建构。

五、结语

正如人类历史发展中每一次新技术的产生都会对人类既有制度产生深刻影响,随着科技的快速发展,信息数据化速度不断加快,人类社会进入了“数据爆炸”时代,数据反噬人类,造成数据异化。关注智能传播中的数据异化问题,并不是拒绝智能技术的创新发展,更不能因噎废食,抵触大数据及算法技术的应用,成为抵制新技术的“卢德分子”(Luddites),而是要辩证思考数据与人的关系,既要看到数据异化带来的伦理层面的风险,也要看到风险中蕴藏的合理规约数据发展的机遇和挑战。

马克思认为,异化是一种暂时而非永恒的历史现象,并不是一种不可改变的人类境况。人的异化的克服与人性的复归、人类的解放应当是同一过程。在实践活动中,既要高度警惕数据对人的奴役,也要扬弃物化的社会关系,通过构建数据异化伦理风险防范机制,树立人本主义数据伦理观,以探寻人类在数据智能时代的自由解放之路。

The Paradox of Data and Human: Data Alienation and Ethical Risks ofIntelligent Communication

YANG Xianshun, AN Jia

Abstract: This article, guided by Marx’s theory of alienation, reflects on the relationship between “data and human” in the era of intelligent communication, analyzes the characteristics, ethical risks, and challenges of data alienation in intelligent communication. The alienation of data in intelligent communication is characterized by the alienation of data products, data production, data subjects, and data relationships. The paradox of alienation between “data and human” also brings ethical risks at three levels, namely, human and self, human and human, human and society. It will lead to challenges such as disruption of ethical relationships, imbalance of ethical values, deregulation of ethical behavior, and “collapse” of ethical order. Reflecting on risks is not about rejecting innovation, but rather advocating for establishment of a humanistic data ethics perspective in the practice of intelligent communication, enhancing subject status of human, and adjusting essential relationship between data and human.

Key words: intelligent communication; data alienation; ethical risk

(责任编辑:陈" "吉)

基金项目:国家社会科学基金项目“大数据营销传播的伦理治理体系研究”(19BXW100)

作者简介:杨先顺,暨南大学新闻与传播学院、媒体国家级实验教学示范中心教授,博士生导师(广东 广州510632)。安佳,暨南大学新闻与传播学院博士研究生(广东 广州510632)。

1 王树人:《关于马克思主义之前的异化理论》,《哲学研究》1983年第10期,第42页。

2 广松涉:《唯物史观的原像》,邓习议译,南京大学出版社2009年版,第201—211页。

1 哈特穆特·罗萨:《新异化的诞生:社会加速批判理论大纲》,郑作彧译,上海人民出版社2018年版,第7页。

2 段伟文:《人工智能与解析社会的来临》,《科学与社会》2019年第1期,第115页。

3 杨先顺:《技术异化中的人性残缺——对当前网络广告的追问与反思》,《现代传播》2005年第2期,第44页。

4 陈万球、石惠絮:《大数据时代城市治理:数据异化与数据治理》,《湖南师范大学社会科学学报》2015年第5期。

5 陈仕伟:《大数据技术异化的伦理治理》,《自然辩证法研究》2016年第1期,第46页。

6 蓝江:《从物化到数字化:数字资本主义时代的异化理论》,《社会科学》2018年第11期,第112页。

1 姚建华:《数字劳动:理论前沿与在地经验》,江苏人民出版2021年版,第7页。

1 韩炳哲:《在群中:数字媒体时代的大众心理学》,程巍译,中信出版集团2019年版,第52页。

2 马克思:《1844年经济学哲学手稿》,中共中央编译局编译,人民出版社2018年版,第52页。

3 维克托·迈尔-舍恩伯格、肯尼斯·库克耶:《大数据时代——生活、工作与思维的大变革》,盛杨燕、周涛译,浙江人民出版社2012年版,第205页。

4 G.Deleuze, Negotiations:1972-1990, trans. Martin Joughin, New York:Columbia University Press,1995,pp.177-182.

5 段伟文:《面向人工智能时代的伦理策略》,《当代美国评论》2019年第1期,第31页。

6 黄升民、刘珊:《重新定义智能媒体》,《现代传播》2022年第1期,第127页。

1 马克思:《1844年经济学哲学手稿》,第54页。

2 蓝江:《智能算法下人的数字异化与生存变革》,《人民论坛》2021年第Z1期,第 22页。

3 张彦:《“风险”研究的历史嬗变:转向与建构》,《学术月刊》2008年第6期,第30页。

4 陈爱华:《高技术的伦理风险及其应对》,《伦理学研究》2006年第4期,第96页。

1 袁贵仁:《主体性与人的主体性》,《河北学刊》1988年第3期,第25页。

2 段伟文:《信息文明的伦理基础》,上海人民出版社2020年版,第79页。

3 伊莱·帕里泽:《过滤泡:互联网对我们的隐秘操纵》,方师师、杨媛译,中国人民大学出版社2020年版,第9页。

1 克里斯多夫·库克里克:《微粒社会:数字化时代的社会模式》,黄昆、夏柯译,中信出版集团2018年版,第VI页。

2 徐汉明、孙逸啸:《算法媒体的权力、异化风险与规制框架》,《西安交通大学学报(社会科学版)》2020年第11期,第131页。

3 阿克塞尔·霍耐特:《物化:承认理论探析》,罗名珍译,华东师范大学出版社2018年版,第17页。

4 《马克思恩格斯选集》,人民出版社1995年版,第275页。

5 刘丽、郭苏建:《大数据技术带来的社会公平困境及变革》,《探索与争鸣》2020年第12期,第114页。

1 林曦、郭苏建:《算法不正义与大数据伦理》,《社会科学》2020年第8期,第3页。

2 A.Datta,“Automated Experiments on Ad Privacy Settings”,Proceedings on Privacy Enhancing Technologies, No.1(2015),pp.92-112.

3 安东尼·吉登斯:《现代性的后果》,田禾译,译林出版社2000年版,第31页。

4 尼古拉斯·卢曼:《信任:一个社会复杂性的简化机制》,瞿铁鹏、李强译,上海世纪出版集团2005年,第6页。

5 腾讯防水墙、腾讯安全天御、InMobi:《2020中国移动广告反欺诈白皮书》,2020年12月。

6 宋希仁:《论伦理秩序》,《伦理学研究》2007年第5期,第1页。

7 王天恩:《大数据、人工智能和造世伦理》,《哲学分析》2019年第5期,第38页。

1 孙伟平:《关于人工智能的价值反思》,《哲学研究》2017年第10期,第120页。

2 刘大椿:《科技时代伦理问题的新向度》,《新视野》2000年第1期,第35页。

3 高兆明:《“伦理秩序”辨》,《哲学研究》2006年第6期,第111页。