位阶与底线:人工智能时代数字新闻把关人的伦理探究
2021-12-04刘海明杨琦钜
■ 刘海明 杨琦钜
受众与媒介的关系处于动态的相互构造之中:受众创造媒介,媒介也创造受众。①以智能技术为基础的新型传播媒介正在向社会生活进行全面渗透,数字把关就是其中比较典型的例子。人们在享受数字把关便利的同时,也应敏锐地意识到数字把关正在“创造我们”。这种“创造”既能指引人们向善,也能诱导我们向恶——例如偏见、信息茧房、信息安全等。美国哲学家唐·伊德(Don Ihde)提出人与技术的背景关系——技术作为一种不在场的存在,成为人经验领域的一部分,成为当下环境的组成部分。②在新闻实践中,数字把关与用户的关系或许可以用背景关系来解释,即用户很难意识到数字把关正调节着信息环境。数字把关在把关实践中仿佛“抽身而去”,只有当它发生故障或者出现问题时,用户才能感受到其存在③。数字把关的“隐身性”暴露出技术对新闻实践的潜在威胁。面对数字把关可能带来的伦理困境,有必要从伦理层面对数字把关进行探究,确保数字把关更好地服务新闻业。
一、人工智能与数字把关
技术进步始终是推动媒介形态更迭的动力:报纸诞生于印刷术,电视诞生于电子技术,社交媒体诞生于互联网技术。人工智能技术是数字把关的技术保障。数字把关以智能机器为把关主体、以人机交往为具体形式进行信息的生产与传播。人机交往是指以成熟的智能技术和仿真技术为支撑的“超仿真智能机器人”进行的“人—机”双向交往行为。④人机交往这种新型把关优势明显,将推动新闻业的“生态变革”,催生新的把关生态。但以智能机器为把关主体也存在某些伦理风险。
(一)数字把关的产生及其必然性
“把关人”概念由库尔特·卢因(Kurt Lewin)提出。在卢因看来,群体传播中存在一些“把关人”掌控信息流通,只有符合群体规范或“把关人”价值标准的信息方可进入传播渠道。这一概念被传播学者怀特(D.M.White)引入新闻研究领域,并提出大众传媒的新闻筛选和把关理论。新闻传播领域的“把关人”理论强调对信息的采集、加工与控制流通。所谓“把关人”,是指具有让某一信息进来或出去之决定权的个人或团体。⑤把关人控制着信息传播的“门”,决定何种信息可以进入传播渠道,这种筛选新闻信息的过程体现着新闻把关的实质。传统媒体时代,最终的“把关人”是新闻机构。机构筛选新闻的标准主要体现在以下两个方面:其一是新闻的客观属性,主要表现为新闻信息含有的价值因素;其二是传统新闻机构的主观属性,即立场、经营目标以及受众需求等。可见,新闻的把关过程并非纯粹的客观中立,其中包含着复杂的价值因素。“把关人”控制信息流通的同时也构建着社会的信息环境,它通过向人们提示新闻信息的重要程度来影响人们对世界的认知与看法。因此,“把关人”对新闻业、对社会信息环境的建构至关重要。
传统媒体时代,新闻把关的主体是机构和自然人,其把关标准坚持新闻价值第一性、市场价值第二性的原则。随着媒介技术的不断发展,出现以算法技术为核心的数字把关人。新闻把关的主体发生变化,新闻把关的标准也发生相应的变化,这种变化主要表现为更加重视用户的个性化需求。数字把关通过满足用户的个性化需求来增强媒体的用户黏性,增加媒体效益。现阶段,算法技术凭借其优势被广泛地应用于新闻生产中,这种对新闻业的“渗透”主要表现为对新闻信息生产的全面“入侵”,包括新闻信息的采集、加工、传播等,由此带来新闻业的“技术转向”。在这种环境下,原本属于传统媒体的“把关”权力逐渐让渡给人工智能,新闻把关的主体从自然人(媒体从业者)逐渐变成“数字把关人”。数字把关的实质就是以人工智能为把关主体、以算法为技术内核、以人机互动为主要方式的新闻把关活动。算法作为数字把关的核心,改进媒体运作中的新闻价值判断,部分地代偿新闻从业者的把关人角色⑥。
数字把关的具体形式主要表现为新闻采写层面的机器人写稿以及新闻分发层面的智能算法推荐:一方面,数字把关人能够快速地收集与处理互联网的海量信息并形成新闻稿件,即所谓的“机器人写稿”,它可以保证“信息类”新闻生产的髙效、准确,为媒体从业者采写原创性深度报道稿件创造条件。数字把关亦能增强新闻的真实性,即人工智能将需把关的信息与无数ID生产的海量信息库联系起来,让虚假信息在全景式的审查中无处遁形。⑦另一方面,在新闻分发层面,数字把关对用户进行“精准画像”,使新闻信息的发布更具针对性,极大地增强用户黏性,数字把关因而受到用户的青睐。
面对互联网中海量、冗杂的信息,媒体从业者亟需一种工具代替他们进行繁琐枯燥的信息筛选与发布工作,用户也需要一种工具以便高效获取消息,人工智能技术的发展恰好契合二者的需求,数字把关将这些需求从可能变成现实。这表明,技术进步是数字把关产生的外因,媒体从业者与用户的需求则是数字把关产生的内因。技术进步与需求之间互构互铸:一方面,科技发展重构人与世界的关系与秩序,催生人的新需求⑧;另一方面,新的需求推动技术不断进步。技术进步与需求的关系即一个不断地满足与扩张的循环过程。由此论之,数字把关是满足人们新闻需求的产物,新的需求进一步推动数字把关的发展与完善。这种需求产生的原因可通过亚里士多德主义原则进行解释——亚里士多德主义原则是一种动机原则,解释为什么我们愿意做某些事而不是另一些事。它含有这样的意义——随着个人(由心理和生理上的成熟)能力与日俱增,在一定阶段上将变得乐于选择他能从事的、需要他运用新获得能力的较复杂活动。⑨既然用户不愿浪费时间进行简单而繁琐的信息搜索,新闻机构也希望将有限的时间与人力投入更具深度的新闻生产之中,这就需要一种工具——数字把关来代替简单的信息生产、传播与信息搜索工作。
(二)数字把关带来的“生态革命”
在现阶段,数字把关介入新闻生产及新闻分发,二者构成新的“把关生态”。
媒介技术的进步引起把关生态的相应变化。数字把关冲击原有的把关生态,这是因为技术进步带来媒介权力分化,造成把关生态的变化。新闻传播领域的“把关人”权力经历过三次分化:第一次是门户网站时期,大型门户网站从传统新闻机构手中得到部分把关权力,彼时传统新闻机构仍是把关主体;第二次是社交媒体时期,传统新闻机构将其把关权力部分让渡给社交媒体及普通用户,社交媒体在把关权力格局中开始占据主导;第三次是人工智能时代,以算法技术为核心的人工智能成为“数字把关人”,与传统新闻机构、社交媒体共同形成新的把关格局。尽管当前的把关生态呈现出“三足鼎立”的态势,但随着人工智能技术的不断发展,数字把关在此格局中显然具有更大的潜在优势。
人工智能时代的把关生态究竟“新”在何处?借用媒介生态概念可简要地对“把关生态”进行界定。媒介生态是指围绕信息活动展开,在个体、新闻机构、社会以及其他利益相关者之间进行互动融合和价值交换的系统。⑩在大众传媒时期,把关生态主要表现为新闻机构进行信息筛选、加工与传播,新闻机构占据着把关的主导地位,受众整体上处于被动接受的状态。在社交媒体时代,“受众”一词被“用户”所取代,意味着用户在把关生态中更具有主动性。相比于大众传媒时代,社交媒体时代的新闻机构与用户的互动性更强,二者能在更加平等的位置上进行信息交流与价值交换,这种“圈群传播”促使把关生态趋于多样。在人工智能时代,把关主体是智能机器而非自然人。新闻机构在把关活动中处于统筹地位,主导把关机器的设计与控制,用户在数字把关模式中的主动性更强。数字把关与用户进行信息交流与价值交换,这种人机交往的把关模式丰富新闻把关的形式,构成新的把关生态。新的把关生态意味着算法新闻判断正逐渐替代人类新闻判断。以媒体从业者为主体的人类新闻判断具有专业性、知识性和新闻价值的限制,但现阶段的算法新闻判断似乎并没有受到这些限制,甚至过度关注个人的个性化需求而导致其专业性、知识性和新闻价值的不足,这为新闻业的发展埋下隐患。
(三)数字把关应用的风险
法国技术哲学家埃吕尔(Jacques Ellul)预言:所有的技术进步都有代价。数字把关的优势具有某种“机械性”,它无法像人那样“弹性”把关,即数字把关也会具有一定的风险。这些风险主要包括:(1)新闻的真实性与客观性受到挑战;(2)新闻的人性化降低;(3)新闻价值降低;(4)算法偏见。
这些风险源自把关主体的变化。从大众传媒时代到人工智能时代,把关主体由自然人变成智能机器,经数字把关审核进入传播渠道的新闻个性化有余而专业化、人性化不足。大众传媒时代,作为道德主体的媒体从业者在进行新闻把关活动时受制于职业伦理。大众传媒以价值导向为主、兼顾市场导向,实现新闻内容的把关。从技术哲学角度看,现代技术是对于效率极其推崇的一种思维逻辑。数字把关受到新闻机构的青睐是因为它能极大地提升新闻生产的效率,但过分关注商业效率而忽视公共利益,可能造成重效率而轻价值的传播取向。
在新闻采写层面,机器人写稿的风险主要表现为其新闻作品的质量参差不齐。算法的选择和对信息的处理基于预设定的代码,输入的信息必须能转换为算法可读的数据,所有不可读的信息无法被算法解释、也不会被算法选择,新闻规范性价值不是算法选择标准的一部分,也不能被程序员预先设定。因此,机器人新闻是否符合新闻规范值得怀疑。新闻作品不仅仅只有数据,更要有对是非的价值判断,这样才能发挥出新闻应有的社会作用。从某种意义上讲,机器人写稿的信息来源不是第一性的客观事实存在,而是第二性的产物,这个第二性的产物就是数据。数据可以被人为雕琢,所以在新闻采写层面,机器人写稿的真实性与客观性面临着伦理困境,这也是目前机器人写稿多用于体育类、财经类等简单的描述性新闻报道的原因。在未来,机器人新闻讲述更复杂、更具价值的新闻故事乃大势所趋。国外已有学者提出“算法新闻2.0”,即:将自动化新闻的领域从简单的描述扩展到更丰富、更复杂的故事驱动叙事。届时,机器生产新闻的真实性与客观性将会面临更大的挑战。因此,对机器生产新闻进行伦理建构至关重要。
在新闻分发层面,由于智能算法推荐的普遍运用,用户可能在数字把关的引导下陷入“茧房”的陷阱之中而不自知。这种“不自知”也可被称为“技术无意识”,它比“茧房陷阱”更为可怕。在海德格尔(Martin Heidegger)看来,技术之本质乃是集置,集置之本质乃是危险。其中最大的危险在于,危险并不显示自身为危险。技术的“隐身性”导致技术处于自我遮蔽状态,当技术出现某些问题,它才会显现出来。在数字把关占据主导的今天,智能算法推荐让人们陷入由兴趣构建的信息“茧房”,若对其不自知,将可能使人们无法自拔。在传统的新闻把关中,编辑通常在新闻专业主义的影响下关注公共利益,选择更具价值的新闻。算法推荐为提供个性化服务,愈发关注用户的需求。由此论之,算法推荐新闻是否具有价值与用户的选择有关,不同用户的媒介素养参差不齐,可能导致算法推荐新闻的价值得不到保障。在如的泛娱乐今社会中,算法推荐新闻或许会更加趋向于娱乐化。
数字把关对人的社会认知产生重要影响。算法的实质是在行使一种社会权力,塑造人们新的认知和行为模式,控制社会认知对世界的看法。经过筛选的数据难免包含着偏见,数字把关并不能进行这种价值识别。算法被形容为“偏见进,偏见出”,这种算法偏见或许会影响公众的社会认知。社交媒体让媒介内容发生变化,视觉刺激的节奏越来越快,情节越来越复杂。与之相关,观众对形象的反应时间越来越短,因此,过度注意力取代深度注意力。数字新闻、数字把关的出现能否说是一种深度注意力的回归?在算法技术的帮助下,公众往往会被推送符合自身价值取向与兴趣的新闻,专注于自己的“兴趣领域”。从这个意义上说,数字把关有助于注意力的回归。与传统媒体时代的深度注意力相比,数字把关时代用户的注意力所关注的对象不同。在传统媒体时代,用户的注意力主要表现在对新闻以及新闻背后价值的深度思考;在数字把关阶段,用户的注意力主要是由于兴趣导向,在碎片化的时间内更倾向专注于视觉盛宴。因此,这并不是深度注意力的回归,而是一种“伪注意力”。部分人在数字把关的潜移默化之中变得浮躁,甚至造成“娱乐至死”的后果。
通过对“数字把关”的利害分析,我们亟需建立完善的机制以应对数字把关的应用可能带来的伦理困境。以伦理学理论为基础对数字把关进行伦理建构,既是数字把关自身发展完善的需要,更是用户、社会的现实需要。
二、底线的变迁:人工智能时代数字把关的底线与位阶
数字把关的伦理建构需要以伦理学基本原理为基础,底线伦理与位阶伦理或许能为此提供理论依据。底线伦理指社会的基本道德和基本的个人行为规范,其功能在于从社会和个人两方面维系社会生存的基础道德。把关底线的“变迁”是其适用对象的扩大,即将数字把关智能机器置于底线伦理的限制之下,新闻把关的底线仍是新闻机构与媒体从业者要生产并传播符合规范的新闻信息。位阶伦理关注伦理冲突发生时各种伦理的优先次序。当新闻把关活动发生伦理冲突时,位阶伦理能确定伦理的优先级别进而提供解决路径,二者共同构建传统新闻把关的伦理规范框架。在人工智能时代,可借鉴底线伦理与位阶伦理的理论对数字把关进行伦理建构。
(一)底线伦理的内涵与外延
底线伦理主张行为或行为准则的正当性,相对于人们追求至善、崇高的伦理现象而产生。底线伦理的内涵要求人遵守基本行为准则,这是一种普遍的义务论。底线伦理与圣贤伦理是指导个人行为准则的两个方面,它们处在同一序列中,但底线伦理具有绝对的优先性:当且仅当不触及底线伦理之时,个体方可考虑追求更好、更全面的发展。底线伦理是最后的、不可再退却的临界点,在道德要求的次序上具有优先性,只有守住道德底线,才可能向更高层次的道德境界发展。底线伦理针对的主体是人,它所关注的是人的基本道德准则以及应该遵守的基本道德义务,它是让一个人之所以为“人”的规范性保障。
在人工智能时代,底线伦理仍然有值得借鉴之处,一方面,底线伦理是数字把关设计者不可逾越的伦理准则,使数字把关生产与传播的信息尽可能符合新闻规范与道德规范。另一方面,底线伦理作为理论依据可用以探讨智能机器应遵守的基本准则,这也是底线伦理在人工智能时代的延伸。机器能否像人一样遵守某些准则?答案显然是可能的。著名的阿西莫夫机器人学三定律即机器人的行为准则。在人工智能时代,机器已经拥有人的部分能力,即控物的能力、工具理性的能力,这也是人赖以战胜其它动物的能力。就数字把关而言,“控物的能力”表现为对数据的独立处理。“工具理性的能力”使其能深度学习以提高工作效率。此时的数字把关机器已变成拥有一定行为能力的能动体,因此有必要为其制定规范准则。
数字把关包括设计者以及数字把关智能体两个方面。程序的设计者是具有道德主体地位的人,理应受到底线伦理的限制,设计者需要在设计之初有意识地评估数字把关运用可能带来的风险,数字把关的设计目的应具有正当性(例如不能窥探用户隐私)。数字把关智能机器也应遵守底线伦理以规范“行为”,因此,要为数字把关智能机器制定规范准则,包括编入自上而下的道德原则以及其增强自身的深度学习。关于这个问题,后面将会进一步阐述。
(二)数字把关的技术伦理位阶
当技术活动产生某些伦理冲突时,需要确定一种适用的伦理加以解决,这就是技术伦理的位阶。其中,优先适用的伦理称为上位技术伦理,次优适用的称为上位技术伦理。通常而言,当技术主体是具有职业身份的专业技术人员时,一般将职业伦理判定为上位技术伦理;当技术主体不具有职业身份时,则将社会公德判别为上位技术伦理。确立伦理的优先适用等级有利于化解技术伦理的冲突。
就新闻事业而言,我国媒体从业者的职业伦理包括坚持新闻的真实性、坚持正确的舆论导向、全心全意为人民服务等。可见,媒体从业者的职业伦理以公共利益为基础,以人民利益、社会利益为中心,确保新闻事业作为人民与社会的发声窗口。由此论之,当新闻把关活动面临职业伦理与社会公德的伦理冲突时,应优先考虑公共利益。
数字把关不同于人工把关,当数字把关活动与社会公德发生伦理冲突时,智能机器能否在优先考虑公共利益的前提下加以解决呢?根据荷兰哲学家 P.克努斯(Peter Kroes)提出的技术人工制品二重性理论:技术人工制品一方面是自然客体,与人的意向性无关;但另一方面又与设计者设计过程的意向性密切相关,在这方面它是人为的。站在设计者的角度上看,应从源头上尽量减少数字把关发生伦理冲突的可能性。在设计之初,设计者就必须考虑到其是否会有损社会公德的可能,形成伦理准入原则。若损害社会公德,该程序就不能运用于具体的把关实践中,否则数字把关的设计者必须要承担相应的责任。即便如此,仍存在着我们不可忽视的情况:(1)当前的数字把关智能体并不具有独立识别伦理冲突的道德敏感性;(2)数字把关独立地进行把关活动。因此,在新闻实践中可能发生数字把关设计者无法预料的伦理冲突,这是数字把关实践的矛盾之处。因此,最理想的办法是将公共利益优先这一原则编为机器可读的数据并植入其中,以赋予数字把关智能体伦理敏感能力,使其在面对伦理困境之时能够应对未知的伦理风险。
(三)位阶与底线——数字把关的适用伦理
底线伦理在人工智能时代的运用表现为为数字把关制定规范准则提供依据;位阶伦理则要求当数字把关面临职业伦理与社会公德的冲突时,数字把关应像人一样优先考虑公共利益,而非商业利益。二者共构人工智能时代对数字把关的伦理建构的理论基础,进而使数字把关具有一定的伦理敏感能力与判断能力。
提及底线伦理主张行为或行为准则应具备正当性,即可联想到约翰·罗尔斯(John Bordley Rawls)提出的“正义的两个原则”之一:每个人对与其他人所拥有的最广泛的基本自由体系相容的类似自由体系都应有一种平等的权利。简单地说,这个原则表明了在权利分配与义务分派的过程中,用户、社会组织在享有平等的基本权利时也需履行相应的义务。用户将信息传播的权利让渡给新闻机构,新闻机构就应履行义务,为用户提供丰富且有社会价值的信息,而非一味地迎合用户的喜好。智能时代的数字把关人更应如此。数字把关的产生解构原有的把关生态,成为新的把关主体。数字把关的权力不仅仅是新闻机构赋予的,更是用户赐予的。随着新闻机构与用户对数字把关的认知不断加深,数字把关实践不断受到质疑。数字把关要重新赢得信任,就需要保证其把关“行为”的正当性,即在底线伦理的基础之上进行新闻把关活动,且把关活动应以公共利益优先为准则。
在人工智能时代,数字把关不可逾越的底线仍然是保证新闻信息的真实性与客观性,在为用户定制个性化新闻时仍以不违背社会公德为底线。在新闻传播领域,这种社会公德应包括杜绝低俗信息、假新闻、算法偏见以及信息传播窄化引起的“信息茧房”等。因此,需要把数字把关置于伦理的限制之下,使数字把关受到公众的监督。据此,不仅是数字把关智能体的设计者,更包括数字把关智能体,都应受到底线伦理与位阶伦理的限制。
三、道德的嵌入:对数字把关的伦理道德建构
在数字把关活动中,智能体拥有自主决策的能力且不受人为的干扰。因此,不仅要在最初设计上对数字把关的设计者进行伦理限制,还需要在具体的技术实践过程中将数字把关智能体置于伦理的建构之下。瓦拉赫(W.Wallach)和科林·艾伦(C.Allen)提出“自上而下的道德(Top-Down Morality)”“自下而上的方法(Bottom-Up and Developmental Approaches)”以及“自上而下以及自下而上的合并(Merging Top-Down and Bottom-Up)”三种方法,对讨论人工智能机器的道德建构不无启迪意义。
(一)技术公司:“自上而下”的嵌入
“自上而下”的嵌入方法指将传统伦理学原理的标准、规范及原则化为代码编入到人工智能机器的程序之中,包括德性论、义务论、功利主义等。数字把关机器的伦理建构需从源头上将底线伦理、位阶伦理的原则规范嵌入到数字把关机器的设计之中,使数字把关成为具有一定道德敏感性的智能机器。目前有学者提出人工智能的自主智力开发(Autonomous Mental Development,简称AMD),目标是通过有限的训练或探索,即泛化,来实现卓越的性能,(这种训练、探索)概括起来有三种类型:架构设计驱动型、内在价值驱动型和学习价值驱动型。其中“架构设计驱动型”可理解为从源头上对智能体进行编程,这当然包括道德伦理的嵌入,将道德伦理编入智能机器之中成为其自主智力发展的前提或基础。“学习价值驱动型”即稍后要讨论的基于智能机器深度学习的“自下而上”的道德嵌入模式。
经过道德伦理嵌入的数字把关智能体的核心不是单纯的算法技术,而是一种“道德算法”。以往数字把关所依赖的算法技术在工具理性的影响下以满足用户快速获取信息以及个性化需求为主,因为用户媒介素养的不同,这不但使信息的价值性有所下降且信息的真实性也遭受到巨大的挑战。例如,“新闻反转”是由于媒体片面地追求信息传播的速度而忽视对新闻事件全方位的调查。过度追求传播速度与个性化体现在算法技术中就是工具理性压制价值理性。经过道德伦理嵌入的道德算法会更加重视信息的价值,它以价值导向为主,在追求信息的知识性、价值性的同时满足人们的不同需求,确保数字把关的善用。
在对数字把关“自上而下”的伦理嵌入中,技术公司扮演着开发者与完善者的角色。要胜任这样的角色,需要技术公司对数字把关智能体的把关活动进行“跟踪”,在跟踪的过程中发现问题并完善技术,最大程度地趋利避害。自上而下的伦理嵌入还可增强技术公司的责任意识,有助于建立完善的问责体系,推动数字把关的健康发展。
(二)新闻机构:“自下而上”的嵌入
自下而上的发展方法是基于智能机器的深度学习,使其在不断的实践中学习成长的伦理建构模式。把关机器收集用户的信息数据并加以分析,在这个过程中分辨用户的道德取向并学习,进而使数字把关生产传播的信息符合伦理道德的规范。现阶段,自下而上的方法更具有可行性且能得到大多数用户的认同。然而,仅仅依靠智能机器的深度学习还远远不够,因为智能机器本身不具备价值判断的能力且用户反馈数据良莠不齐。这预示着,除了依靠数字把关的学习算法,新闻机构与用户也扮演着十分重要的角色。
首先,需要用户提升自己的媒介素养。数字把关根据用户反馈的数据进行分析和行动,假设用户总是无意识地关注自己感兴趣的信息,这种反馈数据会引导“信息窄化”;假设用户了解数字把关潜在的风险,有意识地避免某些“缺乏营养”的信息,这种反馈数据就会反映出用户的道德偏向,数字把关机器据此进行道德学习便使数字把关传播的信息符合伦理道德的规范。
其次,数字把关的深度学习需要新闻机构的监督与引导。新闻机构是数字把关实践过程中的监督者与引导者。智能发展的本质是使机器人能够自主地“生活”在这个世界上,并在人类的监督下自主地变得聪明。在数字把关深度学习的过程中,新闻机构有责任监督并引导其“学好”。新闻机构与媒体从业者该如何监督?首要的是坚守新闻的底线,保证新闻生产的真实性与客观性。数字把关深度学习的过程亦是实验的过程,唯有坚守住底线才能追求其他。此外,用户是数字把关的直接使用者,新闻机构应加强与用户的联系并鼓励用户对信息进行反馈,同时加强平台管理,提高准入门槛,让不良自媒体无处遁形。
(三)“自上而下”与“自下而上”的融合
需要指出的是,仅有以上两种方法并不足以应对复杂的情况。需要将自上而下的道德嵌入与自下而上的学习发展结合起来。在源头上进行基本伦理原则嵌入的同时,还需要让智能机器在实践中摸索学习,双管齐下对数字把关进行伦理建构。“自上而下”的道德嵌入被认为是设计者预先设置好的道德规范,这种预设的道德规范具有机械性,无法灵活地应对各种复杂的伦理冲突。为此,需要结合“自下而上”深度学习形成的实践经验,这是智能机器在各种复杂的伦理冲突之中通过自我学习而形成的。这种实践经验的获得需要以预设的伦理道德为前提,即设计者预先设置的伦理规范是智能机器深度学习伦理道德的基础。以此论之,面对复杂多变的社会环境,这种混合方法的确是更好的选择。按照目前学界的普遍观点,混合进路是人工智能道德训练的必然趋势。无论是自上而下的方法还是自下而上的方法或是二者的混合,人类都需要扮演好“监督者”的角色。
数字把关伦理建构的混合进路要求技术公司、新闻机构与用户加强彼此之间的联系,避免各自为战。三个主体共同处于数字把关之中又具有相对的独立性。如若不加强合作可能会造成某些冲突,进而降低数字把关的信息质量。要完成数字把关的伦理建构,需要三方从合作走向融合,只有“融为一体”才能使资源得到最大化的利用。目前,新闻聚合平台是三者融合的形式之一,但是新闻机构与技术公司的合作还略显不足,这也是如今数字把关引发伦理冲突的原因之一。在新闻机构内设立技术部门,重视并加大对技术部门的投入或许是人工智能时代推动新闻与技术融合的重要方法之一。
对数字把关的伦理建构更需要政策上的支持,建立良好的人工智能社会所需要的制度保障。应确保人工智能充分朝着促进公共利益的方向发展。管理部门、技术公司、新闻机构、学界答应与公众应该联合起来,联合组建一个独立的、多利益相关者的人工智能伦理委员会。各方在平等的基础上对人工智能在新闻业的应用进行可行性探讨并制定出相应的伦理准则,在顶层设计层面为人工智能的健康发展提供制度保障。
四、数字把关的道德主体性
对数字把关机器进行道德训练是规范其行为的必经之路。拥有一定道德敏感性与道德判断能力的数字把关能否被称为道德主体是需要探讨的问题,对其道德主体性的探析能帮助我们更好地厘清人机之间的关系以及廓清责任主体。翁居阳(Juyang Weng)等人提出机器人的自主精神发展(AMD),即机器人的设计应该跟人一样拥有从“婴儿期”到“成年期”的自主精神发展时期,发展中的机器人跟人类“生活”在一起,在人类的监督下自主地变得更聪明。机器的自主发展是基于人类给定的任务或者说外部环境的复杂性而言的,因为传统的机器需要人类程序员将特定的任务编写到机器中,如果任务在混乱的外部环境中变得复杂,机器很快就会失控。这种自主精神发展应包括对智能机器的道德训练以及智能机器的自主学习发展,赋予智能机器伦理敏感能力以及评估自身行为的道德意义的能力,使其成为合格的“道德行动者”。问题在于:经过道德嵌入过后的数字把关是否具有道德主体的地位?
在对数字把关的道德主体探析之前,需要打破传统的对技术的片面性理解,这种片面性的理解使人们陷入人与技术二元对立的束缚之中。该观点从工具主义视角出发,认为技术本身并无价值取向,技术具有价值中立性,只有通过人的使用才能确定技术的价值,技术本身无善恶之分,善恶乃取决于人的使用。从人类学的角度理解,技术并非是中立性的,而恰恰相反,技术本身体现着某种价值性。人工智能机器本身就体现着某些价值取向:(1)在智能机器被设计之初就被植入了设计者的价值;(2)经过道德学习、嵌入的智能机器拥有一定的价值判断能力,其在伦理道德限制下的技术活动也体现着某些价值因素;(3)看似客观的数据中也会夹带着某些价值取向。因此,数字把关不是中立性的信息传播工具,而是包含着复杂价值取向的“能动者”。
道德主体(Moral agent)法律术语译为“道德代理人”,指具有主观判断且能够承担法律责任的自然人,他具有自我意识,能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任。可见,智能机器要拥有完全的道德主体地位就必须要具有自我意识、能够进行道德判断并承担相应的道德责任。目前,人工智能体所呈现的“主体性”是功能性的模仿而非基于有意识的能动性、自我意识与自由意志,故应称之为拟主体性。数字把关基于设计者预设的价值与准则自动进行把关,不具备独立的道德判断能力,故数字把关也具有拟主体性。拟主体性还体现在处于伦理道德限制下的数字把关拥有一定的道德调节能力与道德敏感性,这种道德调节能力来自设计之初的基本伦理原则嵌入以及技术活动中智能机器的自我学习。
现阶段的数字把关机器不能被称为道德主体,但在把关活动中,它们将面临道德选择与判断却是不争的事实。数字把关在新闻机构的控制监督之下行使着一定的道德调节权力,因此需要对数字把关机器进行道德训练,将其置于伦理的建构之下。按照既定的道德行为准则行使道德调节的权利,既是数字把关的义务也是其底线。
注释:
① 胡泳:《理解麦克卢汉》,《国际新闻界》,2019年第1期,第87页。
② [美]唐·伊德:《技术与生活世界》,选自《技术哲学经典读本》,吴国盛编,上海交通大学出版社2008年版,第405页。
③ 戴宇辰:《“在媒介之世存有”:麦克卢汉与技术现象学》,《新闻与传播研究》,2018年第10期,第89页。
④ 林升梁、叶立:《人机·交往·重塑;作为“第六媒介”的智能机器人》,《新闻与传播研究》,2019年第10期,第89页。
⑤ 黄旦:《“把关人”研究及其演变》,《国际新闻界》,1996年第4期,第27页。
⑥ 王斌、顾天成:《智媒时代新闻从业者的职业角色转型》,《新闻与写作》,2019年第4期,第29页。
⑦ 张洪忠、石韦颖、刘力铭:《如何从技术逻辑认识人工智能对传媒业的影响》,《新闻界》,2018年第2期,第19页。
⑨ [美]约翰·罗尔斯:《正义论》,何怀宏、何包钢、廖申白译,中国社会科学出版社2019年版,第429页。
⑩ 严三九:《融合生态、价值共创与深度赋能——未来媒体发展的核心逻辑》,《新闻与传播研究》,2019年第6期,第8页。