失范与重塑:人工智能时代的新闻伦理探究
2021-06-04余雪
余雪
摘 要 算法为传统新闻业带来深刻变革,但技术的发展是两面性的,近年来由算法引发的新闻伦理问题成为传媒业无法回避的理论课题。探究人工智能时代人类无法回避的算法偏见、信息茧房、隐私侵害、新闻专业主义消解等伦理问题,并从技术、政府、媒体、平台四个角度寻求重塑新闻伦理的路径。要解决技术所带来的问题,就必须以人机共生理念为根本,让技术的发展符合伦理常情。
关键词 人工智能;新闻伦理;算法;数据
中图分类号 G2 文献标识码 A 文章编号 2096-0360(2021)01-0016-03
新闻传播学科作为我国产业发展的重要支撑力量,一直都深受技术影响。在传媒业与人工智能的互动中,算法推动媒体形态、新闻生产和分发的流程向着智能化的趋势发展,AR、VR、机器人写作、传感器等越来越多地被应用到现实新闻活动中。技术的发展具有双重属性,人工智能在促使新闻业发生巨变的同时,也因算法缺陷造成了对新闻伦理的巨大冲击。
1 变革——人工智能的革新与新闻伦理的显现
1.1 人工智能时代新闻业的突出变革
人工智能简单来说,是一种利用计算机模仿和发展人类智能行为的技术,通过算法语言完成自主学习、判断、决策等行为[1],帮助人们解决问题,提高效率。目前,通过算法而研制出的具体智能形态被越来越多地应用到传媒领域的各个方面,尤其突出地表现在对新闻生产、分发和场景的影响上。
1)自动化生产。传统的新闻生产往往是靠记者亲身在现场采集信息并整理加工,成品需经编辑审核通过后才能发布。人工智能催生了一批新型智能媒体,从信息数据的采集到加工乃至写作,都可以由机器完成,例如机器人写作等,新闻工作的效率因此提升,传统记者也得以摆脱套路化写作的桎梏,向深度报道方向转变。
2)个性化推荐。人工智能利用算法搜集用户的行为数据,分析其信息使用偏好,从而向用户提供专属的个性化新闻。个性化推荐打破了传统媒体与受众之间的沟通障碍,帮助用户迅速获得感兴趣的信息,今日头条便是算法推荐的典型。
3)虚拟化场景。VR新闻与AR新闻推动新闻报道的新形态。强大的数字技术能够对现实语境进行逼真的模仿,对新闻事件进行多角度、全方位的叙述,受众“沉浸”在虚拟和现实的交互场景中,通过自己的亲身体验去解码信息,还原新闻真实面貌。
1.2 人工智能时代研究新闻伦理的必要性
新闻伦理是在长期的新闻传播实践中形成的发挥特殊作用的规范性调节体系,主要用于调整采访、编辑、经营、管理等之间的相互关系[2],是新闻职业道德的一种重要表现。人工智能为新闻产业带来多维度的颠覆性变革,但也带来许多显性和隐形的问题,其中对新闻伦理的冲击逐渐受到业界的重视。产业红利无法掩盖背后的技术缺陷,技术一旦发展过快触碰伦理道德的高压线,就容易引发伦理问题。机器采集和生产新闻虽然提高了时效性,但工具语言的机械性却会让新闻过于僵化,失去情怀和温度;個性化服务使受众不断加固“兴趣牢笼”,难以察觉兴趣以外的信息;虚拟场景让受众过度沉浸其中,新闻真实性被淡化。
2017年是“人工智能元年”,在中国知网库中检索2017—2020年间,以“人工智能”为主题词的中文论文为72945篇;而以“人工智能”与“新闻伦理”为主题的论文仅有44篇,其中12篇为2020年的最新研究成果。由此可见,2017年后学界已经开始关注人工智能对新闻伦理的影响,但由于技术不成熟和思想的限制,相关学术研究尚在初期,且进展较为缓慢、成果较少。
人工智能作为一门学科,要解决的是“能不能”问题,而新闻伦理要解决的是“该不该”问题[3]。伦理使新闻的发展有了道德的边界,使其更好地实现为社会服务的职责。而算法本身就带有一套自成体系的语言倾向,影响到新闻的发展。伦理建设如果跟不上技术更迭的脚步,社会发展将会失控。因而,研究人工智能对新闻伦理的冲击并为重塑新闻伦理提供切实的解决路径,是所有伦理相关主体所必须重视的。
2 失范——人工智能对新闻伦理的解构
2.1 算法背后存在偏见与歧视
人工智能依靠算法支撑,算法作为一种程序语言,本应该是理性客观、不带任何倾向性的数学表达,然而其背后隐藏的偏见与歧视往往被忽略。皮尤研究中心在2019年做了一项研究发现,虽然现实生活中美国人口的男女比例大致均衡,但Facebook(“脸书”网)的新闻图片中,男性出现的频率是女性的两倍[4]。算法偏见和歧视主要来源于两方面。一方面,算法由人设计,算法工程师的学历背景、教育经历、性格爱好等各有不同,即使主观上没有宗教、性别、职业、年龄等歧视,他们在筛选数据及编码过程中也会有意无意地带入强烈的主观感情色彩,这种难以观察的倾向性会影响算法设计的过程。另一方面,如果被输入的原始数据一开始就存在偏见,例如搜索医生图像大部分是男性,搜索幼师图像大部分是女性,那么数据在被处理的过程中,会不断被这种偏见扭曲,机器属性并不会质疑这种偏向的存在,而是按照既定模式操作,最终输出的结果也将带有浓厚的偏见色彩,反映到传媒业则会产生带有导向性的新闻。
2.2 个性推送导致“信息茧房”
“信息茧房”指公众为获得满足感,往往凭借兴趣或需求来接收信息,却忽略了其他多元信息,长此以往便会将自身禁锢在像“蚕茧”一样的“茧房”中[5]。互联网的去中心化极大提高了受众的地位,人人都能成为新闻生产者,传播者为争夺受众有限的注意力,越来越注重受众的需求。人工智能利用数据采集和算法过滤,根据用户日常的浏览信息,筛选出符合用户习惯、爱好与需求的新闻信息进行推送。然而,受众在此过程中无意识地被迫接受日复一日越来越精准的同质化内容,排斥异己信息,沉浸在自我认同的话语场中,极易失去理性判断能力。
2.3 数据的非法采集触犯公众隐私
人工智能需要采集充足数据进行深度挖掘和分析,为受众推送精准的信息,而这些数据大部分来源于使用者的行为痕迹。从所有权角度来讲,用户的自身行为产生数据信息,便有权利知晓自己的权利为谁所用、如何使用、用往何处。然而事实并非如此,平台出于商业利益,往往采取越来越隐蔽的手段非法获取用户的行为数据,筛选出有价值的信息进行利用。未提前告知用户便对其信息进行采集和使用,违反了传播伦理规范。2019年Facebook被曝丑闻,其一项智力竞赛应用让1.2亿用户的个人数据面临泄露风险[6]。算法对用户隐私的侵害具有隐蔽性和迷惑性,各种智媒产品不断入侵私密场所,用户的信息安全遭到极大威胁却难以得到有效维护。
2.4 虚拟场景异化新闻真实
人工智能时代,VR/AR与新闻生产的结合以全景角度叙事,打破了时空界限,全方面延伸了人的身体感官,使受众产生亲临现场的“沉浸感”,也破坏了原有的新闻价值体系,使新闻真实被淡化。从数据角度来看,算法自身存在缺陷,不具备人类选择新闻价值的能力,极易在处理数据过程中产生偏差,导致虚假新闻。从场景角度来看,与传统的文字图片报道不同,沉浸式新闻借助影像搭建起具备“在场感”的虚拟世界,受众借助穿戴式设备在虚假与真实交融的场景中还原新闻,在巨大的感官冲击下,真实与虚构的边界被模糊,受众极易主观扭曲事实真相,迷失在隐含的价值观和倾向性中,正如此前受到关注的人脸交换技术为公众带来的困惑[7]。
2.5 缺少深度,违背新闻专业主义
传统记者往往亲临现场,依据新闻价值采写新闻,不仅最大限度反映客观事实,也会对事件进行评论分析,特别是在深度报道中,能够体现出人性的思考。人工智能则是依托海量数据库,按照程序设定好的模板生产稿件,本质上是数据堆砌出来的新闻,只停步于简单的同质化叙事,无法像人类一样挖掘表象背后的实质,缺少深度分析和批判能力,难以引起情感共鸣。媒体不仅能够传递信息,还维系着社会的众多联系。我们无法否认技术为新闻业带来的变革,却也不得不承认,机器并不能传承人的社会责任感。过度地追求工具理性而忽略人文关怀,会导致新闻记者丧失深度采写和创新的能力,让新闻无生命、无温度,新闻专业主义不断被消解。
3 溯源——技术影响新闻伦理的原因
3.1 技术不成熟,媒介素养欠缺
回顾人工智能发展历程,虽已有几十年发展历史,但直到近年来因为技术的推动才重新引起重视,如今人们仍在努力探索它在各个领域内的实践,在新闻领域内的应用更是处于初步发展阶段。目前,人工智能程序由人类设计,其本身还存在诸多不成熟的地方有待完善,在带来显著成果的同时,也时常引发一系列问题,而当算法出错带来恶果时,人类尚且没有完善的应急方案。同时,由于技术与新闻之间存在鸿沟,算法设计者缺乏一定的媒介知识,而专业新闻工作者又难以迅速掌握算法语言,落后的媒介素养跟不上技术的变革脚步,媒介接触者无法及时认识到媒介伦理所受到的冲击。在5G技术的推动下,人工智能发展前途广阔,但技术并非万能,提高全民媒介素养迫在眉睫。
3.2 工具理性与价值理性的失衡
合理使用人工智能技术能够促进传媒业良好发展,而对技术的滥用则会引发相应的伦理问题。德国学者马克斯·韦伯曾提出“工具理性”和“价值理性”两个概念,工具理性指向目的合理性行动,价值理性指向价值合理性行动,工具理性将推动人类社会的发展,但同时也会冲击价值理性[8]。人工智能对新闻伦理的冲击,正是工具理性和价值理性失衡的表现,归根结底就是人机关系不平衡。互聯网时代话语权下放,媒介监管乏力,媒体为获取关注度而过度追求点击量,不顾社会责任,以泛娱乐化新闻取代严肃叙事,引导错误的价值观。新闻为公众提供公共服务,当技术大规模介入报道,一旦被滥用,就会使伦理失范。道德在维系社会稳定方面的意义不容小觑,只有工具理性与价值理性平衡发展,才能使新闻产业健康运作。
3.3 监管措施与法律规范不到位
技术的进步离不开人的监管与规范。一方面,人工智能步入新闻领域时间较短,其发展方兴未艾,人们重视技术的突破,却难以用传统的监管方式去纠正它所带来的问题。目前,人工智能从程序的设计到产品的开发,再到公众的应用,都没有明确的相关规定。旧的管理体系已经难以适应新的变化,而新的监管体制又尚未完整建立,管理的缺位导致技术伦理的失范,却又难以有效归责。另一方面,世界各国对于出台相关法律法规进行规范的意识还不够。目前,我国人工智能与新闻业结合后有关智能化新闻的法律法规还很不完善,这两者都是冲击新闻伦理的重要因素。
4 路径——智能时代需重塑新闻伦理
未来在5G的助力下,人工智能将进一步改造升级,在新闻领域的应用也会不断扩展。传统的新闻伦理规范已经难以跟上人工智能时代的发展,这背后反映了人们对于技术的过度追求以及对人机关系的忽视。针对算法所带来的伦理问题,有必要对其开展相关课题研究。我们可以从技术改进、政府监管、媒体引导和平台自律四个维度来探讨人工智能时代如何重塑新闻伦理。
4.1 技术:改进算法,提高透明度
算法技术本身存在缺陷,首先就要从技术源头改进。在人工智能时代,算法工程师扮演着重要角色,他们参与程序的设计、决策和管理,他们的行为会对他人、对社会带来深远的影响,因此他们理应担负更多的伦理责任[9]。算法工程师应多学习新闻传播知识,在编写代码、设计程序时将伦理观念带入其中,改进技术,尽可能减少偏见与歧视。此外,由于知识鸿沟的存在,又涉及到开发者的商业机密,大众难以掌握复杂的算法语言,即使意识到伦理失范,也难以理解算法规则并解决问题,因此现代社会必须提高算法透明度,针对不同的算法规则采取合适的透明度,适当地向用户公开数据信息。
4.2 政府:推动法律建设,加强监管
我国的新闻业起步较晚,新闻法律法规尚未建立完整体系,人工智能相关的规范也尚显空白。对于技术的规范,离不开法律建设和监管督查。政府需加快推进融合新闻与人工智能的法律法规,让法律来界定违法行为,将法治观念融入技术的生产与使用中,而法律的建立不仅要靠立法者,还需要呼唤公众的力量。同时,政府需要加强对平台、媒体和技术本身的监管督查力度,填补监管空白,在智能应用出现问题时及时约束,保护公民的合法权益。
4.3 媒体:正面引导,培养复合型人才
新闻媒体维系着社会的稳定。首先,媒体必须发挥主体作用。机器人写作虽然极大促进了新闻变革,但机械化、模板化的生产过程无法取代传统记者的独立思考和批判能力,因此媒体必须明确职责,在价值观上发挥积极引导作用。其次,媒体应加大对新闻传播的监管。算法生产新闻在现阶段难免出错,媒体工作者需加强把关能力,对机器所无法涉及的过程加强审核与监查力度,采取有效应急方案。再者,当务之急是建立一支新型新闻人才队伍。新闻从业人员需带头学习人工智能知识,提高技术素养,才能更好地将新闻价值观融入到智媒应用中。
4.4 平台层面:自我约束,规范行为
人工智能时代,互联网企业平台作为向公众传递信息的中介,对于平台传播中的伦理失范问题也必须承担责任。今日头条创始人张一鸣曾公开宣扬“算法没有价值观”,引发了大众对利用算法的互联网平台的指责[10]。互联网平台从用户那里获得了商业利润,相应地就该对社会负责。平台需制定自我约束机制,加强内容审核,在伦理的框架中规范自身行为,自觉合法地获取用户信息,建立风险预警机制,纠正算法带来的伦理问题。
5 结语
技术的发展推动社会的变革。人工智能为社会各个领域带来新变化,也不可避免地会产生一些新问题。但使用技术的主体始终是人类,人类对技术的把握和控制决定着它将走向何处。新闻伦理关系到社会进步的方方面面,当下急需构建新的范式框架来界定伦理边界。人工智能与新闻产业联合发展,其关键就在于人机合作,只有把人机协作理念贯穿于建设法律法规、加强正面引导、提高媒介素养、强化平台监管等一系列具体措施中,才能促使新闻业在人工智能时代朝着健康良性的方向发展。
参考文献
[1]杨正洪,郭良越,刘玮.人工智能与大数据技术导论[M].北京:清华大学出版社,2019:1-2.
[2]郎劲松,初广志.传媒伦理学导论[M].杭州:浙江大学出版社,2007:93-94.
[3]邱仁宗,黄雯,翟晓梅.大数据技术的伦理问题[J].科学与社会,2014(1):36-48.
[4]全媒派.人脸识别背后的算法都有哪些偏见[EB/OL].(2019-11-08)[2020-09-30].https://www.tmtpost. com/4187081.html.
[5]凯斯·R·桑斯坦.信息乌托邦:众人如何生产知识[M].毕竞悦,译.北京:法律出版社,2008:15-20.
[6]侯艳艳.Facebook再曝数据丑闻:1.2亿用户数据面临泄露风险[EB/OL].(2018-06-29)[0020-09-30].驱动中国,https://news.qudong.com/article/499577. shtml.
[7]赵双阁,高旭.VR技术应用新闻实践的伦理困境及其突破策略[J].出版发行研究,2018(8):65-69.
[8]吳飞,田野.新闻专业主义2.0:理念重构[J].国际新闻界,2015(7):6-25.
[9]曹南燕.科学家和工程师的伦理责任[J].哲学研究,2000(1):45-51.
[10]韩维正.算法也有价值观[EB/OL].(2018-04-13)[2020-09-30].http://paper.people.com.cn/ rmrbhwb/html/2018-04/13/content_1847929.htm.