人工智能时代新闻伦理研究重点及其趋向
2019-01-03赵瑜
赵 瑜
(浙江大学 传媒与国际文化学院, 浙江 杭州 310028)
如果我们将媒体广泛地理解为传播和交流信息的一种方式,就不难发现信息技术和人工智能的发展与媒体的内在联系及其对传统媒体的冲击或影响。人工智能通过算法和大数据分析已经深刻改变了人类的新闻传播行为,并且引发算法偏见及其纠正、数字身份及其保护、个人隐私及其保护、信息不当触及的讨论,学界日益担忧数据垄断和算法“独裁”对社会过程和社会公正的影响,因此,信息技术的伦理治理和整体规制至关重要。国务院印发的《新一代人工智能发展规划》中也已明确将“制定促进人工智能发展的法律法规和伦理规范”作为我国人工智能发展的首要保障。
自主智能系统的发展提出了一些亟待关注的问题,人、机、自然(社会)之间的关系将出现新的构建形式,如果将人工智能的终极目标等同于让机器(物)拥有自主意志,这首先引发了人类的伦理危机感,促使我们重回伦理本质的本体论和认识论问题,探讨人类如何在智能技术的中介下构建安全、公平、美好的生活。人工智能便不再是一个单纯的技术问题,而是一个哲学问题、政治问题。
新闻传播领域所建构的拟态环境会直接影响人们的情绪、观点和行为决策,对社会公正和社会安全具有重大意义。机器人写作、算法推荐和信息过滤、社交媒体机器人等带有自主智能系统因素的新事物已极大地改变了人类传播和接收信息的模式,并在形塑人类行为模式的基础上产生了巨大的社会影响。如何界定人工智能技术的新闻伦理问题,如何定义智媒时代的新闻专业主义,如何构建智能媒体伦理治理体系和法规体系,是亟待学术破题的重要领域。
本文拟综论新闻传播学、哲学和法学在相关领域的研究,厘清目前学界对人工智能和新闻伦理研究的重点领域并进行反思,为未来研究提供思考的起点。
一、 人工智能及其伦理研究
从工业革命以来,机械化、自动化已经成为人类文明的一个显著特征。1956年达特茅斯会议上一批年轻的科学家首次提出“人工智能”的概念,进一步扩大了技术人工物社会功能的想象空间,从而被称为“第四次革命”[1]。
人工智能研究,简单来说,就是要通过智能(自动化)的机器,增强人类在改造自然、治理社会的各项任务中的能力和效率[2-6]。人工智能的本质是算法。算法是为了解决问题而输入机器的一系列指令[7-10]。
人工智能起步时,研究方法以逻辑推理与启发式搜索为主,核心研究领域是符号人工智能。短暂的繁荣之后,人工智能研究进入瓶颈,直到20世纪80年代与神经网络研究结合,又焕发了新的生机。目前,计算机视觉、自然语言理解、认知科学、机器学习、机器人学等几大学科协同发展,其中机器学习中的深度学习因为AlphaGo在围棋方面的卓越表现获得了公众广泛的关注。根据牛津大学2017年针对全球顶级人工智能专家的调查,超过50%的专家认为人工智能将在45年内在所有领域超越人类,并且将在120年内将所有人类工作自动化[11]。
在1877年的《技术哲学纲要》中,卡普曾敏锐地洞见到技术具有向一切人类领域扩张的能力[12],某些技术具有一种强制性的功能,能嵌入个人生活并产生深远的影响。计算机革命正在不断提高人们对自动化的依赖,且自主性系统越来越多地掌控了各式各样的能产生伦理后果的决定。换言之,目前的自动化系统已经复杂到一定程度,甚至要求系统面对具体场景做出道德决策[13]。如此一来,问题就转变为:人们对于把自己的生命和福祉交给没有确定的伦理框架的系统会感到放心吗?近来被曝光的Facebook、亚马逊用户数据滥用,Twitter机器人账户影响用户观点和情绪等问题,使人们加深了这样的疑虑。
与科学技术要解决的“能不能”问题不同,伦理学要解决的是“该不该”问题[14]。在人工智能运用方面,伦理学研究首先必须辨析核心价值,以提供思考框架。
(一) 技术批判与技术伦理
资本主义早期对工人的残酷剥削、城市化和生态恶化,在当时就引发了技术批判和反抗,如英国知名的卢德运动。虽然主流学界对当时的反技术浪潮总体持批判态度,但“闯进花园的机器”式的技术怀疑论始终存在。而二战对人类社会巨大的破坏作用,使得希特勒被认为是人类史上首个运用技术力量而使罪行倍增的人。埃吕尔、麦克卢汉、马尔库塞、芒福德、赛佛、加尔布雷思、海德格尔、温纳、拉图尔等学者都发展和深化了对技术的学术反思,这些著述也是技术伦理学的直接源头。
海德格尔在《论思想》中指出,在其生存的所有领域,人都将比以往更加紧密地被技术力量包围,将人置于这样或那样的技术发明形式的控制之下[15]。哲学家们担心人成了技术社会这部机器的齿轮,从思想和行动上沦为机器的奴仆[16]。在这个意义上就诞生了“自主性技术”的概念[17],表达技术业已失去人类控制之意。在康德学术脉络下谈论技术的自主性是令人不安的,因为康德认为自主性是自我意志的根本条件。赋予技术以自主性,在某种程度上即是人的自主性被替代[18],主客体的位置产生了颠倒。
但仍然有相当一部分学者认为技术是价值中立的,技术本身并不是一种自我决定的力量,仅是一种手段。雅斯贝尔斯指出,“技术本身并无善恶。一切取决于人从中造出什么”[注]转引自闫坤如《人工智能的道德风险及其规避路径》,载《上海师范大学学报(哲学社会科学版)》2018年第2期,第40-47页。。梅赛恩也坚持技术价值中立的观点,认为“有益的做法是将技术定义为一般意义上的工具”[19]。
部分学者承继埃吕尔的研究传统,认为技术充满意向性,是社会结构的体制性力量。温纳认为技术在中立的、工具式的掩护下,建立了一种崭新的秩序[20]。美国技术哲学家唐·伊德认为技术不是中性的工具,它们在人与世界的关系中发挥着主动性的作用[21]。在拉图尔看来,道德和技术都是“本体论的范畴”,技术以具体的形态促进人类社会的形成,包括我们的行动和决定的道德特征[22]。
最微妙的就是技术影响的“偶发”机制,也就是说技术对人类的控制并不总是具有预先意图,其中一部分后果是意想不到的。换言之,人并非总能控制自身所创造的技术的社会后果。乌尔里希·贝克的风险社会概念也回应了这一观点,“在风险社会中,未知的、意图之外的后果成了历史和社会的主宰力量”[23]。
恰如荷兰学者维贝克所指出的,早期技术伦理学采取的是批判的方式,这些批评不是针对具体的技术应用场景和案例,而是对“大写的技术”自身现象的批判[24],但过于抽象化和哲学层面过于本质论的探讨方式反而流于隔靴搔痒。
(二) 技术人工物道德主体地位辨析
人工智能的技术想象突破了自启蒙运动以来人和非人实体之间的界限。美国技术哲学家唐·伊德识别出了人与技术的四种关系:具身关系、诠释学关系、他者关系和背景关系。唐·伊德所说的具身关系类似海德格尔的“上手”,有些技术能够上手,而有些技术只能在手,成为我们行动的背景性因素。随着人工智能的发展,人、技术与世界的关系结构发生了改变,人和技术也表现出融合关系,例如后现象学技术哲学家维贝克提出的赛博格关系(cyborg relation)和复合关系[25]。
人工智能的技术想象包括创造出具有自我意识的自动化系统,这就在伦理学体系内提出了一个全新的问题:技术是否能被赋予道德主体地位?自启蒙运动伊始,伦理学就有着人本主义特征。以道德术语来研究物绝非易事,这违背了伦理学理论的最基本假设[24]。
在主流伦理学中,一个合格的道德行动者至少是拥有意向性和一定程度的自由。很多哲学家认为,技术客体缺乏自由意志和意向性,不能对它们的行动负责。例如AlphaGo可以胜过人类围棋大师,但是没有办法理解自己走子行为的意义,现阶段并不具有自由意志。AlphaGo的智能实际上是以人为核心的一个巨大的延展认知系统的能力,是系统部分认知功能的某种外化[26]。无论从道义论视角还是后果论视角,人工物只能从因果层面而非道德层面对既定的行为负责。因此,“没有理由将人工物纳入道德共同体之中”[27]。
弗洛里迪和桑德斯于2004年发表了颇具影响的《关于人工能动者的道德》一文,聚焦实际上具有“行动者”资格的智能技术。他们依据行动者之互动关系标准,使用交互性、自主性和适应性三个标准来判断。一个系统如果能与外部环境互动,能在没有响应外部刺激的情况下行动,也有在不同的环境中行动的适应能力,这个系统就可以被视作行动者。如果系统行事方式会产生道德结果,那么就被认为是一个道德自主体[1]。
弗洛里迪和桑德斯在某种程度上提出了一个类似道德图灵测试的模式,区分了道德问责和道德责任。这种分布式道德允许无心的道德,将一个哲学难题转变为具备操作性的判断标准。也就是说,我们无须执着于现有系统是不是成熟的道德智能体,只要系统具备交互性、自主性和适应性三个标准,就可以被等同于一个道德主体而予以问责。当然,目前一部分哲学家不愿意赋予技术人工物道德主体地位的原因还在于担忧如此一来,将使得设计这些系统的人类工程师被赋予了免责的地位[13,24]。
(三)工程师伦理
责任是知识和力量的函数。在智能信息时代,科学家、工程师不仅人数众多,而且参与社会重大的决策和管理,他们的行为会对他人、对社会带来比其他人更大的影响,因此他们应负更多的伦理责任[28]。
在过去25年中,工程伦理领域的主要成就之一就是工程师们越来越意识到自身的价值观对设计进程的影响,以及此过程中他们对他人价值观的敏感度[13]。20世纪70年代开始,美国科学促进会和美国律师协会联合组成了国家律师和科学家会议,讨论科学研究中的道德规范问题。之后,美国发布了有关科技界社会责任的一系列报告,如关于“科学自由和科学责任”的报告[29]。2000年,美国工程和技术认证委员会(ABET)在其标准中明确指出,工程教育必须要求学生“理解职业和道德责任”[30]。美国白宫人工智能报告将“理解并解决人工智能的道德、法律和社会影响”列入国家人工智能战略,并建议AI从业者和学生都接受伦理培训[31]。
当然,也有专家认为技术活动是社会组织系统下的制度活动,单一的工程师是无法对其技术后果承担责任的。德国技术哲学家、伦理学家罗波尔指出,由于分工、合作等因素,现代技术活动不是单个人的活动,因而工程师作为个体不仅不能也不应该单独承担技术的全部责任[注]转引自刘则渊、王国豫《技术伦理与工程师的职业伦理》,载《哲学研究》2007年第11期,第75-78,128-129页。。
二、 人工智能时代的新闻伦理研究
伦理并非静态的规则,而是个体和社会应对条件变动、意外事件和新思维模式所导致的各种问题的必要人类行为[32]。当社会生活变化时,道德概念也会变化[33]。新闻行业本身受到信息技术变化的巨大影响,而由于新闻本身特殊的社会功能,新闻实践和新闻伦理对社会生活方式的形成意义重大。
传统上,媒体组织被视为履行社会特定职能的机构,其生产惯例和条件一直受到技术的影响[34-35]。对中立事实的公正报道的观念某种程度上是从社会技术的革新开始的[35-37],技术和经济学创造了一种新闻客观性,超越了这个职业原有的专业框架[38]。21世纪初信息技术的发展对传统新闻专业主义产生了巨大的冲击,传统的“验证新闻”及其严格的事实核实正在被非专业化的新闻形式所取代,“后事实”或“事后检查”的新闻业逐步形成[39],可靠性和正确性等价值观受到影响,新闻原创性等道德规则被打破[40]。也有学者把这一时代的新闻称为后工业时代的新闻[41]。
我国新闻传播学界自20世纪90年代中期开始进行新闻伦理研究和教学。综论已有的相关研究,大体可以分为三个主要议题:媒介伦理本体研究、案例研究和新媒体伦理分析。我国媒介伦理研究的第一阶段就是将新闻伦理和媒介伦理从公共道德领域分离出来,提炼大众传播工作者和媒介机构在大众传播职业道德体系中诸个因素(道德诫命)发生冲突时的理性抉择原则。
在新闻伦理的讨论和应用中,操作和操守、知情权和隐私权、市场主义和专业主义的讨论,一直在言论自由和社会福祉最大化之间产生理论碰撞。新媒体技术动摇了新闻从业者一直以来对新闻采集和传播的垄断地位,由此,围绕什么是“公正”和“正确”的新闻,出现了越来越多元的理解,传播伦理的概念出现向公民道德拓展的趋向。
目前,人工智能与社交媒体技术融合,已渗透到新闻的生产、传播和互动各个环节中。其中机器人写作[42-44]、传感器新闻[45]和智能推荐机制[46-47]是人工智能应用于新闻传播领域的典型代表。
随着新媒体技术进入新闻行业,长久被珍视的伦理传统,如新闻客观性、新闻记者的功能,受到极大的挑战[32]。学者们对人工智能技术和新闻传播的结合整体保持乐观态度,但对其间产生的信息茧房效应、信息源真实性、算法纠偏、个人隐私和被遗忘权等问题存在伦理忧虑。
(一) 个人隐私与被遗忘权
大数据是人工智能的基础,无论是传感器新闻还是算法推荐,都必须以浏览数据为基础进行加工,这就涉及了个人隐私数据的二次使用。个人与公共隐私边界的模糊,隐私数据所有权界定的模糊,当下隐私数据保护规制的不完善,都使得对个人隐私数据的二次使用始终存在着侵权的风险[48]。
学者们对新媒体时代隐私权问题的讨论,归根结底是关于公共空间与私人空间、社会边界和个人边界的讨论,主要可以分为媒体的舆论监督自由与个人隐私保护、公共数据开放与个人隐私保护、保障公众知情权与个人隐私保护这三组矛盾。
路鹃采用曼纽尔·卡斯特尔的流动空间理论指出,从Web1.0到3.0,网络空间的现实性逐渐被承认,法律规制的逻辑起点是要转变网络空间只具有工具属性的认识,辨析合理的隐私期待,确立新媒体环境下空间隐私权与现实物理空间同等的法律保护界限[49]。而隐私权保护的原则应以人格尊严与伦理价值作为要件避讳隐私,以主体不同身份角色与所处境遇确立隐私外延差异,以社会对涉私的违德行为可容忍度为依据判别隐私正当性[50]。至于隐私权保护的限度[51],只要符合公共利益相关性原则和公共兴趣合情合理原则中的一个就应该被视为体现了社会公众知情权而非侵犯了隐私。陈堂发强调,以是否直接涉及人格尊严的个人信息与个人事项作为辨别侵害隐私权的基本依据,隐私保护至少不宜成为公权滥用、工作渎职、违反党纪、违法犯罪行为回避公众舆论监督的“挡箭牌”[52]。
被遗忘权是近年个人数据所有权和隐私权探讨的一个焦点。牛津大学教授维克托·舍恩伯格提出了数字时代的被遗忘权概念,他指出,“遗忘变成例外,记忆变成常态”是大数据时代信息安全的一个隐患[53]。欧盟委员会于2012年公布的《关于涉及个人数据处理的个人保护以及此类数据自由流动的第2012/72、73号草案》中,正式提出了被遗忘权概念。当前对于被遗忘权的研究主要集中在三个方面:
第一,就欧盟等国家对被遗忘权的立法和实施过程分析被遗忘权的实质和局限。如周丽娜发现,数据主体虽然有权向数据控制者提出删除申请,但数据控制者享有的自由裁量权将数据主体置于被动地位,被遗忘权仅是应对数字化发展侵犯个人隐私的措施之一,被遗忘是相对的。被遗忘权的意义是捍卫网络用户自我尊严、提倡尊重他人自由、创建网络无惧生活[54]。对于其中的保护限度,吴飞等提出在被遗忘权的使用中,既要保护私人领地的神圣性,也要保护公共领域的开放性[55]。
第二,从文化基因和法律传统角度考量欧盟、美国等在被遗忘权上的立法尝试,指出其面临表达自由与隐私权和信息保护之间的矛盾。以美国法为代表的自由主义国家更看重公共言论的价值,以欧洲法为代表的民主社会主义联盟则将新闻自由与隐私权同等视之[56];也有学者将我国2016年颁发的《网络安全法》中个人对其网上个人信息的删除权与欧盟的删除权进行对比[57],探索被遗忘权在中国的本土化实践[58]。
第三,就被遗忘权所主张的隐私与数据保护与新闻传播实践中的新闻自由、言论自由、知情权等理念存在的冲突展开讨论,探求新闻传播领域面对这一冲突的平衡机制。赵双阁等认为,媒体应该首先在价值角度避免炒作和虚假新闻,保证数据准确和内容真实,其次通过匿名处理、模糊表达以避免因关联被删除的危险[59]。张志安等指出,媒体时代把关人的缺失加剧了侵犯公民隐私及相关个人权益的情况,需要被遗忘权的约束以弥补自媒体传播的缺陷;同时指出被遗忘权的引入可能增加互联网公司的管理成本,影响网络舆论场的开放、完整和真实性等[58]。
(二) 算法推荐与新闻偏向
算法推荐可能导致新闻偏向与虚假新闻的传播。作为个体的记者对道德行为有很强的责任感,但算法作为内容发送者的制度化,会引发专业新闻的各种伦理挑战。从聚合类算法运作的原理来看,当迭代次数受到限制时,这类算法天然存在重复推送同类信息、造成信息疲劳的问题[60]。在新媒体环境下,算法分发的更多是碎片化、个性化的信息,而不是新闻,算法推荐机制实际上是一种对新闻专业主义和公共性的解构[61]。这种算法短视加深了用户偏见,可能会导致信息茧房和回音廊效应,进而造成人与人之间的区隔,更使虚假消息得以借算法传播。新闻生态的转变在美国已经引起新闻质量的下降,而且可以预见的是中小城市将不再有报纸,这将进一步恶化新闻生态[41]。
2016年美国总统大选和英国脱欧呈现出明显的“后真相”特征:客观事实在形塑舆论方面影响较小,而诉诸情感和个人信仰则会产生更大影响。牛津词典还将“后真相”一词评选为2016年度词汇。有学者指出,“后真相”长期以来是一种政治现象,但在新闻行业结构转变的背景下,新闻传播领域的“后真相”时代获得了更为广泛的关注[62]。
关于后真相时代来临的原因,学者们主要从媒体传播形态与技术的演进[62-63]、受众心理[64]、社会经济文化背景[65-66]等层面展开讨论。研究指出,从传播技术特性出发,建立在社交网络基础上的传播渠道容易带来情绪化传播,碎片化的传播内容可能导致还原真相很困难,实时化内容生产加剧了真相挖掘和把关的难度[62];而新媒体对用户的抢占有可能导致传统新闻机构因利润下降而被迫牺牲新闻的准确性、真实性以迎合受众口味[63]。经济和文化的社会鸿沟[65]是后真相时代的社会情绪基础,而这种社会情绪操纵下的信息生产和传播所产生的群体分化,比信息茧房更令人担忧[64]。
关于新闻媒体行业该如何应对后真相,迈克尔·舒德森指出,我们仍然需要“不可爱的新闻界”,并指出真新闻应总是把真相放在首位,它不会让诚实的报道屈从于意识形态、政治鼓动或商业利益,甚至也不会迎合读者的口味,并提出了三条新闻质量的判定标准[67]。潘忠党指出,我们需要将重新建构新闻专业定位在“以事实界定真相”为内容的公共生活上,新闻界需要做的是将寻求、核查、鉴定事实和真相的过程置于公共讨论之中,重构交往的伦理规范[68]。
(三) 算法干预与信息茧房
自主决策是算法权力的核心[8],在社交网络时代,算法实际上成为一种新的议程设置,取代媒体引导舆论。目前没有基于算法伦理和规制设立基本的防御机制,公共媒体对用户大数据的使用,不能保证过程的合理性。敏感信息的使用、传播,某些受众被特定类型信息屏蔽(或者过于吸引),其实都存在伦理风险。
程序员设计的算法往往不受传统新闻伦理约束,这就破坏了新闻专业主义的行业传统和价值基础。个性化推荐背后,算法设计可能隐含着阶层区隔的意味[60]。提高算法透明度,以实现对算法的监管,已成当务之急[8]。
算法智能推荐所导致的受众所接受的观点窄化问题被形象地概括为信息茧房。信息茧房最早由美国学者桑斯坦提出,意指在通信领域,人们只选择自己感兴趣和能令自己愉悦的内容[69]。信息茧房是算法、大数据推荐等大众传播技术和“我们只听我们选择的东西和能愉悦我们的东西”这种大众心理共谋的结果[70]
关于信息茧房的后果和危害,程士安等认为信息茧房容易加剧误解、放大假消息[71];胡婉婷认为信息茧房破坏了网络公共领域建构,主要表现在网络精英的信息垄断导致多数人自由表达受阻,群体极化造成公众理性批评缺失,因缺少共同经验而削弱社会黏性、破坏共同体的维系[72];彭兰认为信息茧房是用户角度“拟态环境”的一种表现,不利于人们更充分全面地接近真实社会的信息环境[62]。
学者们从优化算法、媒体责任、个人媒介素养三个方面对信息茧房的解决进行展望:首先,通过优化人工智能推荐算法、扩大数据挖掘以拓宽对用户信息需求的定义、增加优质信息资源配比、采用人工与智能筛选相结合等方法让个性化推荐更为智能全面[44];其次,从媒体责任角度优化公共信息服务,平衡个性化传播与公共性传播、个性满足与社会整合的关系[62,70];最后,用户媒介素养要进一步提高,也是其中应有之义。
但也有学者对此提出了异议,有研究通过对Facebook用户的信息接触进行量化研究,指出当用户通过Facebook推荐算法获得新闻,其信息茧房和回音廊效应并不像人们预想得那样严重,个人选择依旧发挥着重要作用[73]。
三、 人工智能时代新闻伦理研究反思
新技术动摇了新闻从业者一直以来对新闻采集和传播的垄断地位,随着媒体边界的模糊化,“该由谁来决定公众应该知道什么和不知道什么”成为争执的焦点,其背后则是新媒体技术与社会伦理期待的冲突。因此,厘清人工智能时代新闻伦理的责任主体,考量其伦理结构与急需处理的核心辩证关系,进而为行业规制提供建议,是该领域研究的基本立场。
通过上文研究梳理可以看出,国内外学者在人工智能的伦理反思、人工智能时代的新闻传播模式与问题,以及信息技术法律规范方面,已经打下了相当扎实的理论基础。但人工智能伦理治理和规制方面的问题,并没有随着理论研究文献的大幅度增长而得到解决,这一定程度上说明了问题的复杂性,以及理论研究和实践需求之间存在脱节。
首先,在新闻传播领域,需要更加清晰而整体性地阐释人工智能时代的技术内涵、社会内涵、伦理内涵和规制内涵,为新闻传播学界对此人工技术物的理性反应提供理论基础。
人工智能技术已经深切地介入人类社会的信息传播过程,传播学界对机器写作、传感器新闻、算法排序等新兴现象的研究已成热点。目前的文献虽然多带有“人工智能”这一关键词,但在一定程度上混用了新媒体技术、社交网络等核心概念。也许从现象的梳理和分析角度,这种程度的混淆并不影响结论的有效性,但不利于整体研究域的厘清和构建。所以在人工智能技术的整体性研究方面,传播学界需要更为细腻的技术问题逻辑描述。特别是在新闻伦理研究层面,需要进一步破除技术黑箱,明晰人工智能技术影响社会信息传播的机制和伦理后果,明确人工智能成长逻辑与人为干预的窗口期。目前新闻伦理的文献很大程度上将人工智能技术视作不需要进行理论和技术辨析的概念,这反而使得对“人工智能时代”的破题不足,尤其是人工智能技术到底在哪些环节、哪些层面影响新闻伦理,它与社交媒体技术和平台之间存在何种逻辑关系,较少有研究涉及这些相对本体论的问题。
综论人工智能时代的新闻伦理研究,研究议题比较分散,聚焦性很强而理论整体性建构不足,尤其是对人工智能技术与社会结构和社会过程之间的系统性联系研究不足,容易呈现研究原子化的倾向。学界对人工智能保持很高的研究敏感度,但囿于技术本身的复杂性和不确定性,人文社科领域对此的反应往往只能聚焦于相对显性的现实议题。
人工智能技术的工程学研究领域非常繁杂,但是目前介入人类信息传播的核心技术已经相对清晰,产生的社会后果也较为直观。从上文综述可知,与新闻传播领域高度相关的人工智能底层技术是算法和大数据,在直接辨析其新闻伦理后果之前,需要对核心技术研发、迭代和应用予以社会历史还原,提供技术本体和社会情境分析。从社会历史学的整体性视野探讨这一议题,其目的在于呈现技术伦理学的实践意义,即必须关注复杂的技术伦理责任主体关系,特别是技术的决策者与组织者、创造者与生产者、需求者与使用者等社会各界的共同责任。目前有部分研究以Facebook, News Feed算法为主要案例[46,74]分析其中的技术迭代及其伦理影响。类似带有技术社会学立场的研究是进一步厘清问题逻辑的有效做法,将会为进一步厘清新闻伦理的主体和核心价值排序提供扎实的研究基础。
其次,相较于元伦理学和规范伦理学面对人工智能时代的积极学术反应,新闻伦理研究相对不足。元伦理学和规范伦理学在技术人工物的伦理主体、伦理结构和伦理治理方面积累了相对丰厚的理论基础。道德自主体形成的可能性让伦理学者反思启蒙主义以来的人本主义、个体主义伦理研究路径[25],并从问责的角度建构“人工能动者”的道德主体地位及其问责要件[1]。类似研究对人类社会应对人工智能技术可能的风险,都具有很高的理论和实践运用价值。
自1923年美国报纸编辑协会提出美国首个新闻业自律规范《报人守则》(CanonsofJournalism)以来,责任、自由、独立、真实准确、公正、公平等成为新闻传播行业职业伦理的重要原则。其中,各国行业协会、知名媒体机构都提出过操作性很强的伦理规范。
可以说,新闻伦理规范的研究从起点之始就带有很强的实践问题导向性,换言之,其本身的出发点并非在于理论抽象,而是行业指导。人工智能时代的新闻伦理研究同样沿袭这一路径,研究目标在于解决新闻行业的新问题,研究方法基本采取案例研究的模式,脸书、谷歌等国际知名公司的案例及其引发的争议是研究的主要材料。
新闻伦理研究与生俱来的形而下路径符合新闻传播行业本身的特点。但在人工智能时代,媒体技术的突飞猛进构建了一个万物皆媒的社会,新闻伦理研究向着传播伦理的方向进发,而且与科学哲学、计算机伦理、工程师伦理乃至规范伦理学有了更多对话的空间。为了更好地解决新闻传播学的问题,新闻伦理研究需要部分地放弃过于实践导向和对策导向的模式,扩充自身形而上学研究的野心。
在新闻伦理研究中,言论自由和公民权利之间的张力一直存在,新闻传播界如何协助构建一个公平、正义的社会,是其伦理研究的基本逻辑起点。互联网一定程度上形成了没有精英控制的公众舆论和表达渠道[75],那人工智能则可能取代人类精英,做出信息决策和伦理决策。如果这样的技术想象成为现实,哈贝马斯的“理想语境”、罗尔斯的“理想处境”理论假设就需要修正,良序社会所需要的程序正义和实质正义不得不将无心的道德主体纳入考虑,这将对规范伦理和新闻伦理产生巨大的影响。目前规范伦理和后现代现象学对此已有触及,新闻伦理可以在理论抽象程度上做进一步提升,以增加与原学科对话的能力。
再次,跨学科研究的数量和质量有待进一步提高。目前,算法和大数据已经产生传播权(新闻价值权重排序决策权)、信息自由(人的传播自主性)、信息触达(服务的普适性、信息的不当触达)、信息隐私权和数字身份及其保护的问题。这些问题处于传播伦理、技术伦理、组织伦理的公共区域,是多个主体共同作用的结果,通过组织提供的产品和服务予以进一步传导,最终形成传播效率、身份认同和信息安全等问题。在国家层面,就会产生数据安全、信息主权、社会凝聚力等更为宏观也更加重要的议题。
人工智能时代所涉及的技术实体以及社会情境相对复杂,要真正理解这一问题,需要计算机科学、伦理学、社会学、法学和新闻传播学之间的共同合作。从目前的研究可见,不同学科的研究议题具有相似性,算法和数据是各个学科共同关心的核心技术现实,而技术人工物的伦理、法律地位,数据安全,个人隐私和人类自主权,是公共的议题。但是目前几个学科的研究散见在不同的期刊,研究议题相对聚焦,学科间的对话却不够充分,导致难以形成学科合力,不能在技术进步话语和经济发展话语体系之下,形成来自人文社科的平衡性话语力量。
尤其是人文社科对技术伦理的反思没有形成与计算机科学之间的互动机制,研究成果因此很难应用于人工智能实践。近年来海外技术伦理研究成果已经让技术研发群体意识到自身在技术伦理后果方面所负有的责任,逐渐形成科学共同体、区域立法和公众行动之间的合作。计算机伦理十戒、阿西洛马会议、《通用数据保护法》等文本和举措值得深入研究。
在跨越学科范式的同时,人工智能时代的新闻伦理研究也需要增加方法论创新。受限于人工智能技术本身的发展阶段,目前的文献和理论假设缺乏足够的实证研究支撑。例如后真相、信息茧房等效应并没有足够的实证研究来证实或证伪,这在某种程度上影响了理论的现实影响力。与此同时,能够细致化分析研究变量之间因果关系的研究设计就更加不足,这就影响了理论的现实指导力。导致这一研究结果的因素十分复杂,在方法论层面上,在于传统研究方法论面对算法和大数据的局限性很明显。特别是算法智能排序机制使得每个受众的用户界面并不相同,传统的问卷调查、实验测量等方法的效度就会下降。目前新闻学界已经开始借鉴逆向工程原理,以输入—输出的测量模式,在保持算法黑箱的同时有效测量其中介效应。类似的研究方法融合和创新,可以进一步运用于新闻伦理的研究,正面迎击理论难点。
四、 结 语
综上,在人工智能时代,传统新闻业中的伦理挑战如报道的客观性、公正性、恶性竞争、隐性采访、有偿新闻、新闻广告、公民隐私权等议题依然具有重要的研究价值,在新技术条件下的理论分析往往也是重回新闻传播学经典问题的过程。但是人工智能技术日渐成为信息领域的主要中介技术,未来的新闻伦理研究应该紧扣算法和数据两个研究核心,区分不同的伦理主体,厘清新条件下的竞争价值及其排序。与传统新闻伦理只关心新闻内容不同,人工智能时代的新闻伦理将数据、代码和经营都包含其中,伦理结构更加复杂。
媒体伦理的三个主要原则就是真实、客观和最小伤害[32]。从全球业已产生的算法新闻工具理性与人文主义的冲突来看,如何从根本上摒弃数字泰勒主义,是一个需要进一步集结人文社科智识力量予以破解的重要问题。特别是在这一波互联网技术浪潮中,中国的新闻实践走在了世界的前列,其伦理治理的相关研究可以凝练为新时代中国特色社会主义网络治理的“中国经验”,为全球同行提供参考。