人工智能背景下新闻伦理失范现象研究
2020-06-03白灿明
白灿明
【摘 要】人工智能技术在新闻传播领域的广泛应用,带来新闻采集、生成、分发乃至整个新闻生产流程巨大革新。于新闻传播领域而言,挑战与机遇并存,人工智能风险与新闻伦理争议俱在。在人工智能技术成为新闻生产一种重要生产力的同时,也冲击着传统的新闻生产流程、产品结构及职位匹配。英国物理学家霍金曾说过“完美的人工智能开发意味着人类的终结”,成为对当下新闻界的一种警示。对人工智能技术过于乐观的倾向,引发其对传媒伦理问题未足够重视的偏颇。本文探讨人工智能技术在新闻业可能引发的新闻伦理失范问题及表征、探究失范成因,并尝试提出有建设性的策略。
【关键词】人工智能 新闻伦理 媒介信息素养
一、人工智能背景下新闻伦理失范的表征
1.信息安全遇危机
2016年央视“3·15晚会”曝光了OTO平台对用户信息的窃取与滥用,此事一出,网络平台用户的信息安全问题饱受社会公众质疑。如今,当新用户下载并注册一些APP时,便弹出后台有权收集用户录音权限、通信录等敏感个人信息的协议。此时,只有两种选择给新用户:一是选择拒绝,便自动退出软件,无法使用;二是选择接受,则个人信息就有暴露的危险。如此霸王协议条款无疑是对国家保护个人隐私相关法规条例的漠视。此外,在新用户选择使用智能型新闻推送平台时签署的相关协议大都冗长,大部分人会直接选择接受,但并不知晓可能存在信息被滥用甚至被贩卖的风险,细思极恐。
2.智能新闻难监管
《人民日报》作为我国媒体行业标杆,新闻质量高,时效性强。众多党媒亦始终坚持客观、理性的新闻立场。反观其他网媒资讯平台,过于依赖人工智能技术根据用户偏好与阅读习惯进行个性化推送,将普通受众困于选择的“认知孤岛”。此外,机器人新闻写作作为目前人工智能在传媒领域的重要应用为媒体工作带来便利的同时,也屡屡传递错误消息,使民众对智能新闻生疑。机器人真的能理解人类的思维与思考习惯吗?尚未可知。机器人写作存在语言生硬、报道深度与专业度欠缺等问题,影响新闻作品质量。此种情况下,大众媒体的公信力受到质疑。更值得关注的是,人工智能缺乏对道德价值的判断及监管,给新闻业的发展埋下定时炸弹。
3.信息茧房缚受众
“今日头条”作为内容聚合型平台使用算法标签将新闻资讯加以分类,将不同的新闻内容经算法计量呈现给特定受众。但算法推荐不可能将社会重要议题全面呈现给用户,导致受众个人与社会出现断裂现象。从长远看,受众会逐渐丧失对社会的全面认知。此外,受众长期仅接收自身喜好的新闻资讯,形成单一的固定思维模式和僵化的阅读习惯,限制受众提升自我媒介素养,盲目地全盘接收媒介呈现的信息,将不关心的社会公共信息拒之门外,每天关心的只是“我的日报”而已。
二、人工智能背景下新闻伦理失范的原因探析
1.唯流量至上
用户流量所带来的经济利益成为当前媒体主要的经济来源。对用户流量的过度追求,新闻从业者社会地位由“社会的观察者”渐沦为“新闻民工”。这种巨大变化在经济上表现为,部分媒体人无法吸引足够的用户流量,造成经济收入低下,承受不住现实生活压力从而变相获益。对用户流量的盲目追求是导致部分从业人员丧失新闻理想、违背新闻专业原则的重要原因之一,也是“有偿新闻”层出不穷的源头所在,逐渐成为一种隐性文化。
2.对隐性社交构成入侵
目前而言,不管是以腾讯新闻、“今日头条”为代表的聚合型新闻推荐平台抑或抖音、梨视频等短视频智能推荐平台,用户一旦对某条信息内容进行点赞、评论或者是收藏等操作,此后平台给该用户推荐的内容将集中锁定在此前用户可能无意间关注的内容。长此以往,该用户其他账号将收到大量同質化信息,如该用户在“今日头条”观看了一则世界杯新闻,随之而来的是用户可能会在其腾讯新闻账号上看到一连串体育新闻相关的推送,而这已经对他人的隐性社交构成入侵,对自然人自由地选择学习知识、接收信息的权利造成了直接的损害。
3.规范条例有待完善
人工智能技术的发展日新月异,但世界大部分国家对人工智能立法约束监督并未跟上发展。欧洲议会法律事务委员会在2016年递交“机器人法”的立法建议报告,而后通过了欧洲议会的决议,并于2017年向欧洲委员会提交议案,建议起草专门针对人工智能的法案,目的在于规范机器人的使用与管理,同时对人工智能的责任问题进行界定。但遗憾的是欧洲委员会至今未做出动作,欧盟的人工智能立法最终陷入了“雷声大雨点小”窘境。人工智能对新闻领域的影响具备普遍性。2017年,国务院发布了《新一代人工智能发展规划》,明确提出建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力,为我国人工智能立法指明了方向,但相关的立法工作并未跟上。
三、人工智能背景下新闻伦理失范的应对策略探讨
1.落实算法规则透明化
智能媒体收集、生产、传播新闻的过程具有高度复杂性,是诱发新闻伦理失范的重要因素之一,更为算法权利滥用提供了可乘之机。人工智能背景下,算法规则透明化是减少算法技术暗箱操作、算法滥用的有效手段。为了科学合理地实现算法透明化,国家和监管部门应明确界定智能系统进入市场的相关规则,同时智能新闻推荐平台需要签署市场运作协议,在协议中应该包括:一旦智能算法推荐平台与社会公共利益产生冲突,平台有义务将数据采集及分发等算法规则以通俗易懂的方式向社会公开。
2.完善自我约束机制
人工智能技术已经渗透到传媒领域中的各个环节,并且在某些工作上代替了新闻工作者,由此而产生的社会风险不容忽视。而社会对人工智能系统是否应该像自然人一样承担相对应的社会责任仍在争论不休,对人工智能是否需要承担新闻伦理责任的问题的讨论在短期内也无法得到满意的回答。为尽量降低人工智能在信息传播过程中存在的问题对社会的损害程度,长远保持社会舆论传播方向的正确,建立和完善适应于人工智能环境的新闻传播自我约束机制是未来新闻传播业界、学界、传媒监管部门需要共同关注和努力的方向。这里提及的新闻传播自我约束机制是指媒体从业人员、传媒机构、互联网信息传播平台在使用与应用人工智能技术的过程中要坚持的信息传播伦理机制。
3.出台相关法律法规
国内目前暂未出台专门规范新闻传播领域的法律条文,对人工智能和大数据的开发和使用也缺乏具体条例约束与规范。在新闻传播领域出现争议时常规操作是借鉴其他法律条例中的一些具体条款加以处理,这很容易在处理新闻传播的问题上出现行为失范,在处理新闻伦理失范时常出现无条款可用、无条款适用的情况。因此,在保证我国新闻业的本质不变的前提下,促进相关法律法规的建立与完善,是我国新闻传播领域健康发展的重要前提条件。
我国当前传播环境中对媒体的监管还存在一些漏洞,在人工智能背景下传播者与受众在信息传播中的地位发生巨大变化,普通受众、自媒体从业者、智能算法推荐平台等不仅扮演着信息接收者的角色,还被赋予了信息传播的权利与能力,同时可能还充当着信息传播者的角色。而我国以往的监管工作主要是针对专业的媒体人和传统媒体平台,对自媒体、智能算法新闻推荐平台等缺乏相对成熟的监管规范模式,对人工智能技术在传媒领域的监管工作更是欠缺。此外,由于我国普通大众媒介信息素养普遍低下,在信息传播平台上的发言经常呈现情绪化特征,缺乏理性思考;参与算法新闻推荐程序规则制定的算法工程师不是新闻传播专业出身,对新闻领域缺乏全面认识,在算法规则制定过程中经常忽略新闻伦理相关问题,这些原因也加大了智媒的监管难度。只有加强对智媒的监督力度,迎难而上,方可促进媒体生态的良性发展,降低新闻伦理失范出现的概率。
四、结语
人工智能技术在新闻传播领域的应用引发的变革渗透到新闻的采集、生产、传播、分发各环节中,有效提升新闻生产的效率,调整传媒行业格局。总体而言,人工智能技术在传媒领域的应用利大于弊,纵然受到质疑与讨论,但会反向促进智能媒体的发展。新闻界期待人工智能技术成为新闻伦理的捍卫者,为新闻传播领域的发展保驾护航。
(作者学校:广西大学新闻传播学院)
【参考文献】
[1]吴景辉. 特朗普执政时期的美国科技政策[D].华东师范大学,2019. [12];[2]吴沈括,唐巧盈.《欧盟数据保护新规对人工智能的影响》报告述评[J].信息安全与通信保密,2018(07):74-77.