算法机制下新闻伦理与法规失范现象浅析
2021-12-02刘晓星
刘晓星
摘要:随着网络技术的更新迭代,算法技术应用于新闻传播领域,对新闻传播行业带来了巨大变革,改变了用户被动接受信息的情况,但同时带来了一系列新的新闻伦理与法规失范问题。坚持对算法机制的理性看待,建立起具有人文理性的算法机制是重构新闻伦理规范的一条路径。
关键词:算法机制;新闻伦理;法规失范
一、算法技术与新闻行业的深度融合满足用户的个性化信息需求
移动客户端的发展,使用户获取信息不再受到时间、空间的约束,信息的生产、传播及接受呈现碎片化的特点。面对用户需求及海量信息,如何精准迅速的夺取用户注意力成为新闻媒体工作的重点。算法技术的主要工作是通过一些数学算法,推测出用户感兴趣的信息,以实现精准推送的目的。同时会针对受众的媒介使用行为和阅读习惯,对受众实现精准画像,精准掌握受众的行为习惯、价值取向甚至是经济水平和消费方式,从而作出预判,迎合受众的信息取向。在这个资讯过剩的时代,算法技术的应用帮助受众节约了获取信息的时间,同时也满足了受众的个性化信息需求。
二、算法技术引发新的新闻伦理与法规失范现象
1、算法技术导致低俗劣质新闻泛滥
新媒体背景下,信息传播碎片化现象加剧,新闻传播的权力逐渐從新闻媒体下放到全体公民,人人都是“麦克风”,大量信息充斥在媒介环境之中,而受眼球经济的驱动,在这些信息中有大量虚假、低质的内容。算法技术的问题暴露的问题也越来越明显,在传统的新闻传播模式中,专业的新闻从业人员会对信息进行把关,尽管带有一定的立场和价值取向,但算法技术是基于技术理性对信息进行过滤,缺少自主的思考,并会根据用户的精准反馈对这种过滤机制不断深化,”把关人“的权力弱化甚至缺失,这是技术天然的缺点,不会像新闻从业者一样恪守职业道德,在市场利益的驱动之下,大量虚假新闻、色情信息以及标题党等现象层出不穷,对现存的新闻伦理与法规产生强烈冲击,并对整个社会的主流价值观建构产生极其负面的影响。
2、信息的非法采集和过度分析。
数据信息是进入智能传播时代以来的重要资源,足够数量的信息是进行深度挖掘、分析的前提。因此,进行大量的数据信息采集成为各家媒体工作的重点之一,而随着算法技术的介入,信息的采集方式更加隐蔽,无形中就增加了个人数据被非法收集和过度分析的风险。
当前社交媒体的普及,受众产生大量数据,这就为新闻媒体采集数据提供了路径。技术的进步不仅能够对大量数据进行采集,而且能够进行深度过滤和精准分析。这就是说看似海量繁杂的信息,在经过深度挖掘和分析以后,能够发现其中的联系,进而对受众进行定位,从而在后来的数据生产中精准捕获受众兴趣点,迎合受众兴趣取向,尽可能大的创造商业价值。但是却在过程中严重侵犯了受众的隐私权、所有权等个人权利,这无疑违背了新闻伦理道德和新闻法规。
3、算法偏见
算法是技术进步和现实需要双重驱动下的产物。
自从算法技术进入新闻传播领域,对媒体生产信息、传播信息以及受众接收信息等产生了诸多影响,可以说算法技术对新闻生产的各个环节都带来了巨大变革。算法设计的一条逻辑是学习和模拟人类思维并依靠技术将其智能化,那我们也应该想到,它能模拟人的优点,同样的,也可以模拟人类的缺点。随着算法技术的普遍应用,“算法偏见”这一问题暴露得越来越明显,成为新闻从业者不得不关注的一个现象。
所谓的算法偏见是指在看似客观中立的算法程序研发中,其实带有研发人员的偏见、歧视等,或者所采用的数据带有偏见或歧视。 算法是通过对数据的采集和深度分析来预测受众价值取向的。首先我们应该注意的是,算法是由作为人类的程序员设计的,且算法背后的技术逻辑是相对不透明的,可以说只有设计者最为清楚算法技术的运行逻辑和行为模式。而算法技术的逻最直接的反应的是设计者的选择,如果作为设计者的程序员,本身的价值体系中带有偏见或歧视,那由他设计的程序带有偏见或歧视就在意料之中了。
算法技术的设计过程以及运作模式都是极其复杂的,再加上其自身的不透明度,对于新闻生产流程的客观性、公正性都会产生影响。有学者将算法偏见概括为社会偏见在人工智能传播时代的表现形式,如果算法偏见在新闻生产中一直存在,算法透明度不能得到提升,那对于新闻伦理是一种无形的挑战,甚至通过带有算法偏见的程序所产生的结果会违背现有的新闻法规。
4、权力迁移与人本精神的悖论
算法技术应用于新闻传播领域,带来便利的同时,也实现了权力的迁移。新闻分发权由专业编辑移交到了智能算法,而新闻把关的权力也出现了后移甚至缺失,在某种程度上虽然提高了新闻分发的效率,但为了追求最大的经济效益,基于技术理性算法技术往往一味迎合受众的趣味倾向,忽略了人文理性的重要性。看似是在满足人的需求,但稍加思考就会发现,我们现如今所处的环境基本上是被建构过的信息环境,很明显的趋势是人在退化,物在崛起。
这群设计算法的陌生人其实在某种意义上具有相当大的权力,如果他们自身的价值观,逻辑体系出现混乱,那会反映在算法上,而对于包括我在内的大多数根本不了解算法技术逻辑的人,如果自身的媒介素养没达到一定的程度,依旧不停的接受信息,那潜移默化之下,几个人的混乱,最终会反映在一个个个体所组成的整体社会上。
如果这几个人就是人类中道德高尚且不会在价值观上出现问题的人,那他们所作出的算法逻辑必然在技术理性上和人文理性上及其接近完美,但是有及其接近完美的人吗,那最后兼具技术理性和人文理性的算法会不会反过来真正的控制人类社会,之所以是说真正的,是因为现阶段在某种意义上,人类社会在被缺乏人文理性的技术控制着,我们是不是该庆幸,目前的这种控制以及其带来的问题被发现了,且有一大批人在研究并在尽力解决这个现象,甚至有的人能够通过提升自身来克服这一现象。但是技术能够突破人类掌控的那一天,我们根本不会察觉到,甚至认为通过算法传达的信息就是人类本身需要传递与接受的。《三体》中,三体人在物理科学层面通过几个智子打破了物理学现阶段的所有理论,实现了对人类科技进步的封锁,对比一下,人类会不会自己通过所谓的技术进步,来把自己封锁,只不过这个封锁是把自己封锁在一个看似可以自主选择信息,自由表达实则却是在特定技术逻辑下的大而闭塞的“蚕茧”之中。技术不再是为人服务的客观工具,受众极有可能沦为单方面喂养技术成长的“饲料”,人本精神受到严重冲击,在这种情形之下,新闻伦理与法规将受到前所未有的挑战。
结语
如何规避算法技术带来的冲击,一方面要靠技术的不断完善,另一方面归根结底还是人本身,新闻从业人员要怎么做才能使这个媒介环境、新闻生产流程符合新闻职业道德与伦理法规,这是一个值得整个行业都加以深思的问题。研究技术的进步,必须关注技术背后渗透的人类的价值观。 未来的新闻传播行业必将是在人类智慧主导下的人文理性与技术理性以及智能技术高度融合的结果。
参考文献:
[1]杨磊.智媒时代算法推荐技术的新闻伦理思考[J].新闻世界,2020(11):81-83.
[2]许向东.关于人工智能时代新闻伦理与法规的思考[J].人民论坛·学术前沿,2018(24):60-66.
[3]许向东,王怡溪.智能传播中算法偏见的成因、影响与对策[J].国际新闻界,2020,42(10):69-85.
[4]《算法偏见是如何产生的?》新华网2018年3月22日.
[5]陈昌凤,霍婕.权力迁移与人本精神:算法式新闻分发的技术伦理[J].新闻与写作,2018(01):63-66.