风险视域下智能传播的风险表现与治理策略
2020-05-15吴双周建青
吴双 周建青
摘 要 文章在风险视域下利用乌尔里希·贝克的风险社会理论对智能传播风险进行分析,在论述智能传播可能带来价值偏见、隐私侵犯、虚实混淆、意义流失等一系列社会风险的基础上,提出了风险治理的策略:从技术、社会、文化三个方面构建风险治理的响应机制;建立“人-机”融合媒体,回归人的主体价值,在社会交往的基础上处理好人和机器的关系。
关键词 智能传播;风险表现;治理策略
伴随着人工智能技术对媒体行业的持续渗透,信息推荐系统、机器新闻写作、VR新闻等一系列新的传播形态不断出现,引发了新闻生产业态的巨大变革。然而,技术带来的远不只是眼前的红利,还裹挟着无法估量的风险。
1986年,乌尔里希·贝克(Ulrich Beck)在《风险社会》一书中第一次提出风险社会理论,认为不同于传统社会的自然风险,现代社会的风险是由社会制度和人类行为生产出来的一种潜在威胁,社会风险的产生和发展使当代社会进一步成为一个“风险社会”[1]。风险社会理论远不只是对当代社会形态的一种表征,更是对未来风险复杂性、忽视风险所造成后果的严重性的一种警觉。因此,从风险社会的视角分析智能传播的风险表现,并从中探寻有效的风险治理策略,具有重要的现实意义。
1 智能传播与虚拟风险
智能传播是指运用智能技术进行信息传递的活动,具体表现为信息推荐系统、机器新闻写作、虚拟现实新闻等。这些新兴的传播技术改变了媒介生产方式和传播格局,挑战了原有的传播规则,传播风险随之扩大。
芭芭拉·亚当曾在其著作《风险社会及其超越》中提出用“虚拟风险”来理解人工智能时代的风险,认为风险从来不是“真实的”,而总是“逐渐变得真实”[2]。我们可以从技术和社会政治两个层面来理解[3]。从技术层面来看,媒介对现实的符号化表达是对现实的复制却无法代替现实本身,难免会产生对一些事实的夸大或遮蔽。尤其当我们进入智能传播时代,虚拟现实技术极大增强了符号传播的真实性与现实感,一切都将是本源的“虚衍物”,我们无法区分复制品和本源,人类选择片面地相信了媒介带来的虚幻的“真实”。从社会政治层面来看,各种风险无论是物质性还是非物质性、也无论是可见还是不可见,所有关于风险的知识都是媒介性(mediated)的,都依赖于解释[2]。解释意味着包含着人为的和制度的因素,风险就在立场的选择中被制造出来。在智能传播时代,这种“解释”越来越以一种合法化的姿态展现在人们面前,虚拟风险越来越脱离人类的可控制范围。
然而我们不得不承认,风险是确切存在的。风险的虚拟性是研究者为了凸显风险的媒介性而推导出来的现代社会风险的新特征[3],是媒介的自反[2]。“虚拟风险”为我们全面认识智能传播的风险提供了一种思路和方法。
2 智能传播的风险表现
智能传播技术可以根据其技术基础的不同分为两部分:基于数据挖掘的算法推荐技术和基于计算机模拟的虚拟现实技术。在此基础上,我们可以将智能传播的风险表现归纳为以下四个方面。
2.1 算法的价值偏向导致人的认知偏差
算法推荐内容分发系统一经问世,便被认为是解决新闻主观价值偏向的关键技术。然而随着一系列算法和平台的负面事件的涌出,算法设计背后的价值偏向成为了公众、学界、业界纷纷讨论的焦点问题。算法推荐系统的价值偏向来源于两个方面。
一是传播内容的价值偏向。我们身处信息大爆炸的时代,算法推荐技术为我们完成了信息筛选和分发,表面上帮助我们剔除了大量不被需要的信息,实际上却将我们推进了信息茧房的陷阱。我们的固有观点在不断重复中被强化,由于缺乏新的知识性信息的摄入,认知的完整性遭到破坏,这无疑是一种隐性的认知剥夺。无法被认知的风险是构成风险不确定性的一部分,算法分散的不是公众的信息焦虑,而是公众对风险的注意力。
二是传播者的价值偏向。事实上,用技术理性和客观性赢得公众的信任的算法不仅受算法設计人员的既有价值观、技术水平的影响,同时也会遭到用户需求、市场和资本竞争的干涉。久而久之,公众会形成一种认知偏差,他们所认为的正是算法想让他们认为的。算法控制着人的认知,进而控制着人的行为并作用于环境。风险的不确定性其核心在于人为的不确定,算法正在不断加大这种不确定性。
2.2 个性化推荐带来隐私侵犯风险
现代社会的隐私悖论(Privacy Paradox)指的是人们既担心着自己的隐私面临风险,又大方地“分享”着个人信息[4]。而智能传播未来的发展将会从原本“物的逻辑”转向“人的逻辑”,更加专注于满足用户的个性化需求[5]。满足用户需求的技术基础在于用户画像,精准的用户画像必须以牺牲更多隐私为代价,人们对于隐私侵犯的疑云终将消散于迎合用户喜好的各种新AI产品所带来的满足感之中。
人们为了享受某种智能服务无节制地将个人信息资产所有权转让给互联网公司等类似的机构,但却无法一并转移隐私泄露的风险,个人信息一旦被用作他途,无论风险带来的后果有多严重,最大的风险承担者终究还是用户自己。尽管企业在获取个人信息之前会通过与用户签订隐私政策的形式使这种交易变得合法化,声称会将风险控制在安全范围之内。但隐私政策的制定者是企业自己,其制定的规则必然以某种隐匿的方式在为自己谋利,这无疑又会带来新的不确定性。
2.3 VR新闻混淆虚实界限
VR(Virtual Reality)又称虚拟现实,利用计算机仿真技术创建一种模拟环境,令使用者仿佛置身于真实的景象之中。2015年,美国广播公司ABC在一次的《夜间报道》中,用VR的形式展现了叙利亚首都大马士革的罕见画面。同年,《纽约时报》推出VR电影《流离失所》讲述了在战争中受害儿童的现状。VR新闻逾越了时空的距离,直接将人们带到新闻现场,获得如同亲历的感官刺激。这使得媒介编码和受众解码的过程不复存在,颠覆了新闻媒介原本的逻辑。每个人都成为新闻的亲历者,媒介内化为了人们自身。因此,媒介在VR的场域中是不存在的[6]。
一方面,虚拟现实的强沉浸性,将原本地域化的风险纷纷带至“在场”和“当前”,强烈的感官冲击使得一场全球性恐慌一触即发。另一方面,媒介“消失”,让信息的本源变得扑朔迷离,一切信息连同其携带的风险都成了本源的“虚衍物”[2]。我们所处的世界将会变成约瑟夫·福特所预言的混沌体,是一个拥有无穷多自由度的复杂系统,偶然、随机、不可预测。风险评估和管理在此刻完全失去其效用,人类将表现出对风险后果概念化的集体无能力[7]。
2.4 人机交互阻碍意义交流
意义是人给对象事物赋予的含义,是人类在传播活动中相互交流的一切精神内容。人类与机器的最大不同就是,机器不可能理解,而人类之间的交流存在共通的意义空间。尼尔·波茨曼在《技术垄断》中指出,人表达的意义大于符号相加产生的结果,超越了至少两个人共享的符号所致[8]。意义交流使我们能看到事物涉及的心理、情感、道德层面,决定了人类的主体地位,而智能传播技术正在削弱人类这种得天独厚的优势。
智能传播时代,人类意义的流失可以归因于两个方面。一是人机交互取代了人与人的交流,人们纷纷躲避在属于自己的信息孤岛上,失去了意义共享的机会,意义生产活动成为一种奢望。二是虚拟现实所呈现的符号无限接近真实,符号的意义失去了原有的价值。借用麦克卢汉所说的“热媒介”的概念,虚拟现实无需人类进行任何“热身运动”就可以得到所有的信息。符号提供的信息越是饱和,符号的意义就越是微弱,符号将越来越浮于表层,直至与意义分离。人类在意义的流失之中,失去了基本的审美和价值判断,同时也失去了人类在机器面前独特的主体优势,人类的文化也将遇到前所未有的威胁。
3 智能传播风险的治理策略
“风险并不指被引发的危害,它们并不等于破坏。”[7]贝克的风险社会理论并不是要摧毁我们在风险社会中生存的信心,反而是引导我们关注在风险社会中暴露的社会问题,以乐观的态度积极地应对风险。吉登斯指出,风险在某种程度上可以看成是对新世界积极探险的“激励原则”[7]。机器的出现本就是对社会固有规则的破坏和重组,这也是技术推动社会进步的原动力。因此,我们不能矫枉过正地杜绝一切技术的进步,而应该通过对技术本身和与技术相关的社会规则、制度、理论的升级和补充,尽可能将风险的不确定性降到最低。
3.1 构建风险治理的响应机制
风险并不是一个静止的状态,在不同时期有不同的表现,因此风险的应对也理应是一个动态的过程。我们不妨借鉴诺伯特·维纳的控制论来探索风险社会保持平衡和稳定的方法。控制论理论体系的核心概念为“负反馈理论”,指的是将系统的输出结果返回到输入端,并且使输出端和输入端作用相反,以减小系统偏差,从而达到自动调节的目的。在风险社会中,我们可以通过培养一种多方位响应机制,以期面对风险时迅速做出反应,从而达到调控的目的。
3.1.1 技术响应机制
利用算法解释权破解算法黑箱。美国计算机协会2017年发布《关于算法透明性和可问责性的声明》中就提到了算法解释权,鼓励使用算法决策的系统和机构对算法的过程和特定的决策提供解释。这指的是当数据主体认为算法决策得出的结果与自己预期不相符合时,有要求对算法设计以及运行(即数据的分析处理过程)进行解释的权利[9]。这种方法破除了技术门槛,以一种容易理解的方式展示算法原理,可以在算法设计及数据计算出现偏差时及时对其进行救济,是一种既保障了数据主体隐私又维护了算法专利的两全之策。
引入差分隐私(differential privacy)技术降低隐私识别风险。差分隐私技术的原理是向存储在数据库的原始数据中,人为添加符合拉普拉斯分布的噪声,使得攻击者无法获得准确的数据,从而实现数据的安全存储[10]。苹果工程副总裁克雷格·费德里吉在2016年宣布苹果将使用这一技术来保护iOS用户隐私。目前,差分隱私技术在Google的Chrome以及Apple的iOS系统中均已投入使用。
3.1.2 社会响应机制
社会响应机制要求公众、政府和立法机构三者立足自身,自觉提高风险防范意识,作为社会成员积极承担智能传播所伴随风险的责任和义务。对于公众而言,应该提高媒介素养,保持独立思考能力,谨防信息茧房和回音室效应。同时,公众应保持对新媒介的理性认识,规范自身的媒介使用行为,提高智能传播风险的责任意识。对于政府而言,应具备强烈的风险意识,为相关机构建立风险预警和防范机制提供资金支持,加快实现风险社会的政、企、媒协同治理,起到引领和统筹的作用。对社会问题的出现迅速响应,确保主流信息传播机制的正常运行,提高政府的公信力、影响力。对于立法机构而言,考虑建立人工智能监管部门,明确机器人犯法的责任主体。完善大数据时代隐私权保护相关条例,将数据使用限制在合法的范围之内。出台相关法律法规,极力惩治谣言、虚假新闻源头,促进智能媒体平台行业的良性发展。
3.1.3 文化响应机制
斯科特·拉什主张在风险应对中引入“风险文化”的思想。风险文化强调的是依靠带有象征意义的理念和信念而非等级森严的定式和秩序实现对社会成员的治理,以价值为核心从根本上建立起社会风险防御系统,是对现代社会风险预警机制的进一步完善[11]。价值不同于规范,是指个人以道德品行、宗教信仰、生活方式为核心的价值观念。文化可以依靠价值的媒介作用得以代代传承,因此面对现代性风险的不确定性,拉什提倡以价值为中介的文化主义风险规避方式,即通过象征性的理念和信念而非理性精确的计算和假定来处理现代性风险问题[12]。这是一个全新的反思性社会,在这个社会中,风险治理的主体已经从那些风险制造者、专家系统、媒体转向了普通的社会成员,文化的共识将他们联结在一起,届时整个社会将成为一个前所未有的庞大的风险对抗体。
3.2 建立“人-机”融合媒体,回归人的主体价值