APP下载

智能时代新闻传播的伦理思考、价值遵循与制度保障

2022-12-07卜洪漩

皖西学院学报 2022年1期
关键词:新闻媒体伦理人工智能

卜洪漩

(巢湖学院 文学传媒与教育科学学院,安徽 巢湖 238024)

以计算机算法为核心,以人工智能软件为载体,实现新闻采编、审核及推送的一体化[1],是智能时代新闻传播的新范式。这是一种与传统新闻生产过程、传播模式截然不同的新模式,也是智能时代新闻传播的必然趋势。对新闻行业来说,这种颠覆性的新模式能够使其在时效性、真实性、针对性等方面取得重大突破,加速其变革进程。但全新的生产范式、传播链条、传播逻辑的改变也存在一些潜在风险。特别是在智能新闻传播的初期,必须要重视可能存在的伦理方面的隐患,确定智能时代新闻传播的价值遵循,以推动新闻传播从传统模式平稳有序过渡到智能模式。

一、智能时代新闻传播的伦理隐患

智能时代新闻传播的伦理问题,归根结底是一种新技术的应用带来的伦理问题,因此推本溯源,其本质是一种技术伦理问题。技术伦理问题的产生与技术在人类行为活动中的作用有直接关系。每一种新技术的产生,对人类而言,都是一次新的改变,它改变的不仅是人类的生存生活环境,还深刻影响着传统的伦理观念。要确保技术真正为人类所用、为人类的健康全面发展服务,就必须要考虑每种技术造就的生产或生活方式对人类社会伦理的影响,避免技术的成功导致人类伦理道德、人格等的退化[2]。智能新闻是人工智能技术与计算机技术结合的产物,它是基于独特的算法来进行新闻的生产、传播的,这种算法逻辑提高了挖掘新闻素材的效率,可以实现精准推送,确保高效生产,但也存在伦理隐患。

(一)法律层面的伦理隐患

智能新闻传播在法律层面的隐患主要是侵权问题,这种侵权由于对象不同可以划分为不同的类型:首先,侵犯隐私权。在利用人工智能工具进行数据筛选时,会获得一些涉及个人隐私的信息。传统人工新闻生产时,记者会运用化名、马赛克等方式对个人隐私信息进行处理,尽可能规避侵犯当事人隐私权的风险。但智能新闻采取的是数据和算法支持下的信息处理方式,不具备保护个人隐私的自觉,会增加个人隐私被侵犯的概率,对被侵权的当事人造成难以弥补的后果。其次,侵犯著作权。智能时代人工智能机器人只是模仿人脑进行思维、创作,其实践创作过程依赖的是互联网的海量数据,通过自动收集整合各种数据资源来挖掘新闻信息。但这些数据中有很多是有明确归属者的,比如一些研究数据、学术文章来源于一些专业研究领域人员的研究成果,很多图片源自摄影师独家拍摄的作品,这些数据资源的使用都需要征得权利人同意才可以使用。但人工智能机器人只会机械地进行数据的整合、新闻的生产,并不具备与权利人沟通征得其同意的能力,这就会导致侵犯著作权风险。再次,侵犯知情权。社会公众有知情权,人工智能新闻在生产上依赖数据且缺乏事实核实能力,一旦数据源失实,就会导致新闻失实,造成虚假新闻传播,最终会损害公众知情权,甚至一些虚假新闻还会引起不必要的社会恐慌,造成社会动乱。最后,归责和追责难的问题。智能新闻时代新闻的生产主要由各类写稿机器人进行,所有新闻稿件都是在计算机自动化处理的基础上生成的。这种情况下,该将谁定义为新闻生产主体和责任主体尚属于无法准确界定的法律难题[3]。因此,一旦出现智能新闻侵犯当事人权益的问题,很难追责。

(二)社会层面的伦理隐患

智能新闻可能引发的社会层面的伦理隐患是多方面的,概括起来,可以从新闻行业自身和对受众影响两个角度来理解。一方面,智能新闻可能会引发新闻职业道德缺失隐患。新闻职业道德是新闻工作者道德追求、价值信念的体现。但在人工智能时代,新闻采编等工作可以由新闻机器人完成,“算法+模板”的固定写作模式是一种脱离对人类文化理解的、没有情感、缺乏温度的写作模式。这种模式下创作出来的新闻作品很难顾及受众的阅读感受,只是在单纯地陈述冷冰冰的新闻事件。这显然不符合新闻行业职业道德要求,新闻行业职业道德要求新闻行业从业人员要肩负社会责任,体现对人的关怀,在传递新闻信息的同时,对社会公众进行引导。很显然,人工智能这种新闻模式目前还无法做到这一点,无法真正履行其应承担的社会责任。另一方面,智能新闻可能会引发人的全面健康发展风险。人工智能具有精准画像功能,可以通过分析用户数据识别和预测其兴趣偏好,继而投其所好,推送针对性新闻信息。这种新闻生产和传播方式表面上看确实做到了满足受众个性化、定制化获取新闻信息的需求。但从长远来看,当人长期处于一种定制化的信息环境中时,同时也意味着其失去了接触其他事物的机会,会沉浸于智能媒体所创造的“信息茧房”中而不自知[4]。长此以往,会让人获得的信息窄化、单一化,不利于其全面健康发展。

二、智能时代新闻传播应遵循的正确价值取向

技术是没有价值观的,技术的应用会给人们带来极大便利,也会带来一些挑战。但人可以确定技术的发展和应用,人的价值取向会反映到技术的发展和应用中,决定技术为人服务的效果。面对智能新闻生产传播可能诱发的伦理问题及其对社会带来的危害,必须要从技术应用者入手,树立正确的价值取向,最大程度避免可能造成的伦理风险,使智能新闻更好地服务公众、服务新闻行业。

(一)遵循工具理性与价值理性的统一

工具理性指的是在目标明确的前提下依赖于一定的计算工具进行科学预测,以效用作为评判行为的标准;价值理性指的是在接受理想信念指导的前提下,有意识地展开自身的具体行为,以信念作为评判是否采取行为、采取什么行为的标准[5](P23)。工具理性和价值理性源于“合理性”概念[6](P58),该理念最早由马克斯·韦伯提出,他认为工具理性与价值理性之间既有区别,又有十分密切的联系,但对于二者之间谁处于优先或主导地位,二者之间是否应该统一,马克斯·韦伯并未做出明确回答。随着科学技术的发展,关于工具理性和价值理性之间关系的研究受到越来越多学者的重视。法兰克福学派马尔库塞在继承韦伯理论的基础上,提出如只秉承工具理性,将用技术获利作为主要目的,最终会将人变成被利益和权力牵引的工具,所以他提出必须要确保两个理性步调的一致性,避免背离,从而避免人的异化和社会的异化[7]。此后,工具理性与价值理性应当统一逐渐成为一种主流观点。在人工智能技术应用中,算法技术的先进性、实用性是有目共睹的,但若只讲求工具理性,就会导致技术逻辑盛行,导致对新闻生产与传播社会效益的忽视,继而可能最终会导致智能新闻生存根基的垮塌。因此,新闻行业必须遵循正确的价值取向,既要坚持将人工智能技术用作新闻生产、传播的工具理性,又要坚持以社会效益、人文价值为基本信念的价值理性,在二者统一的基础上充分利用和发挥人工智能技术的优势,使其为新闻生产、传播服务。

(二)强化新闻媒体人的伦理观建设

有什么样的伦理观就会产生什么样的行为。智能新闻时代,虽然人工智能技术将发挥更为关键的作用,但这并不意味着新闻媒体人就可以置身事外。人工智能机器人虽然可以自动采集数据进行新闻信息挖掘,可以高效率处理信息,能够负担高强度的工作,但其新闻活动也存在局限性。比如人工智能机器人毕竟不具备人的自觉意识和情感体验,不能生产出有感染力、有人情温度的新闻作品,难以满足人类的情感体验需求;人工智能机器人只能对数据平台上的数据进行收集,不具备深度调查能力,那些需要实地调查、深入报道的新闻仍然要依靠专业新闻人才能完成;人工智能机器人具有超强的理性能力,能快速处理一些复杂的技术问题,但在直觉、联想等决定创造力的非理性能力方面明显欠缺,这就决定了其很难生产出有创意、有思想深度的新闻作品[8]。人工智能机器人的这种局限性也决定了智能新闻时代新闻媒体人的角色依然重要。在依靠人工智能技术进行的重要的新闻生产活动中,新闻媒体人依然应当发挥相应的审核、监督等作用。为了确保智能新闻时代新闻传播的规范化,必须要加强新闻媒体人的智能新闻伦理观建设。对他们进行技术伦理、职业伦理培训,强化其责任伦理、信念伦理,让他们在智能新闻生产中发挥保护公众知情权、隐私权、保护相关人著作权等方面的作用,减少智能时代新闻传播的伦理风险。

(三)新闻生产主体自觉履行相关义务

新闻行业是全社会新闻事业的承担者,必须要正确认识智能时代新闻生产和传播所出现的种种改变,并为其做出必要的应对,要自觉承担责任、履行义务。首先,新闻生产主体在使用人工智能工具进行新闻生产或传播的同时,要尽快推进算法规则的公开工作。即在遵循必要的商业秘密的前提下,向社会公众公开新闻生产制作所使用的算法设计的源代码、运行机制,自觉接受公众监督,让受众对这种算法有更清晰的认识。其次,新闻生产主体要征得用户同意才能使用其个人信息。智能新闻时代,新闻生产主体可以利用各种智能平台获取大量个人用户信息,但这些信息有些涉及用户个人隐私,智能新闻生产主体在收集这些信息之前,要通过合适的方式告知用户,向用户说明数据使用范围、目的,保障用户知情权,在获得用户同意后方可在新闻生产或传播中使用这些数据,切实减少损害社会公众隐私权、知情权风险的发生。再次,将智能新闻生产过程中涉及的各个环节、各个环节的相关人员的信息公之于众,自觉接受监督。比如公布智能新闻算法的相关设计人员信息,使其自觉坚持“技术向善”的理念,避免其滥用算法技术;公布新闻生产者和核实人员的信息等,使其自觉承担相应的编审责任。最后,新闻生产主体要加强把关。智能时代,人工智能机器人在新闻生产中将发挥重要作用,但由于机器人本身并不具备把关能力,所以新闻生产主体不能完全让渡出把关权。相反,应当强化把关意识,对事实进行核实,尤其是一些可能会产生重大社会影响的新闻,必须高度重视,多方核实,确保新闻生产和传播的规范化。

三、解决智能时代新闻传播伦理困境的制度保障

从新闻写稿机器人、新闻对话机器人到人工智能主播,人工智能技术不断改变并塑造着新闻传播的新样态。在这个过程中,关于人工智能是否会取代新闻记者、编辑等新闻媒体人的讨论也日趋白热化。可以确定的是,人工智能必将继续快速融入新闻业,因为其所具备的强大的数据收集与分析能力是人所不具备的,它的运用将显著提高新闻报道的效率,重新定义传统新闻业。但人工智能作为一种技术手段并不足以解决新闻传播领域的一切问题,比如它只能模仿人的思考,但却不具备人的情感体验能力和实践能力。换言之,人工智能技术和新闻媒体人各有千秋、各有优势,且二者所独有的优势都是另一方无法替代的。因此,要采取积极的办法解决智能时代新闻传播伦理困境,使新闻媒体人和人工智能技术可以互相拥抱,成为“搭档”或“伙伴”,协同作业,构建智能时代新闻传播的良好生态。

(一)国家层面:完善法律法规,为解决伦理问题提供法律保障

从国家层面完善法律法规,加强对智能时代新闻传播活动的法律规制,是解决当前智能新闻传播伦理困境的最有力途径之一。因为法律具有强制性、不可违抗性等特点,对新闻传播主体的约束性更强。一是在明确边界的同时保护用户的基本权利。用户的基本权利主要有隐私权、名誉权、知情权和肖像权等,可以通过立法明确新闻媒体利用大数据抓取、使用用户信息的边界,明确不能侵犯用户的这些权利,只有征得用户同意才能在新闻传播活动中使用用户的个人资料、公开用户的个人生活事实,否则视为侵权。二是通过立法明确智能新闻传播活动中的责任主体是人。虽然智能时代,智能机器可以用来报道和传播新闻,智能机器使用过程中的某些行为和影响人也无法完全预料,但必须要明确智能新闻传播活动中人才是理所应当的责任主体,出现伦理失范问题,承担责任的必须是人,而非机器。这是因为技术不是自生的,它是人作为主体自觉发明的产物[9],它体现的是人的主体性。在挖掘、编写新闻信息等的活动中,机器虽然有自己的选择逻辑,但这种逻辑是由人提前设计的,人可以根据需要变更它的选择逻辑。所以最终选择发布什么样的新闻、选择什么样的方式发布新闻本质上都不是机器决定的,而是由人的主观意志和意愿决定的。因此,智能新闻传播所引发的伦理失范责任不应当由智能机器承担,必须由人来承担。通过明确责任主体,可以强化新闻媒体人的伦理意识和伦理风险预防意识,有效防范由智能技术运用引发的伦理漏洞。三是通过立法明确不同责任主体应当承担的责任。智能新闻传播活动中的责任主体主要有智能机器生产者或智能软件开发者、使用者,应根据他们在智能新闻传播活动中担当的角色、以不同的伦理失范类型划分责任,并根据新闻作品对他人或社会产生影响的程度确定惩治等级。法律责任的明确,既可以让智能新闻传播中伦理失范的责任主体承担其应有的责任,防止因无人担责导致伦理失范风险扩大化,还能有效保护相关权利人的合法权利,维护智能时代新闻传播的晴朗风气。

(二)新闻媒体层面:建立管理机制,为解决伦理问题提供制度支持

从新闻媒体层面制定人机协同管理机制,目的在于通过明确人机关系来推进新闻伦理构建,为解决当前存在的智能新闻传播伦理问题提供制度支持。智能时代新闻传播活动中,对人和人工智能技术谁是新闻活动实践主体的界定关系到新闻价值的实现和伦理问题的解决。如果让人工智能技术成为新闻活动的实践主体,人成为人工智能技术的附庸,片面追求使用技术的利益最大化,就会在新闻传播中降低价值判断标准,削弱甚至湮没新闻价值。因此,新闻媒体应建立相应的管理机制,加大制度约束力度。

一是明确人是新闻传播活动的实践主体,建立使用智能技术进行新闻传播的具体规范。当前,新闻媒体人已经意识到使用智能技术进行新闻传播可能诱发伦理失范问题,在相关法律法规出台之后,新闻媒体人对智能新闻传播伦理失范问题将会更加重视。需要警觉的问题是如果新闻媒体人因为害怕产生伦理失范问题就对人工智能弃之不用,将会造成技术的极大浪费,也不利于提高智能时代新闻传播的效率。为了避免新闻媒体人因伦理失范问题产生恐慌情绪,可以通过明确的制度规范为新闻媒体人提供引导。具体可以针对不同环节,建立相应的使用制度。比如明确智能新闻采编、智能新闻发布等不同环节中相关人员应当如何规范使用智能软件、使用过程中要承担怎样的核实、把关或审核责任等,不履行责任将要受到什么样的处罚。通过明确的制度规范,引导约束新闻媒体人正确地认识和分析运用人工智能技术可能带来的伦理隐患,不断总结经验教训,加以预防避免。

二是明确使用智能技术进行新闻传播的范围、领域,鼓励在股市、交通等领域多尝试智能新闻传播,对重大突发事件、公共卫生事件等的新闻传播则要慎用智能技术。因为股市、实时交通等领域的信息一般是公开的,较少或不涉及用户私人信息。而智能技术有巨大的算法优势,可以对用户进行精准画像,了解用户喜好。同时,智能技术还具有强大的信息采集优势,可以自动采集最新的上市公司信息、实时路况信息等,使新闻媒体工作者足不出户就可以获得第一手信息。在获得新闻线索之后,智能写作机器人可以依靠自己的写作系统秒级生成文稿。比如腾讯的Dreamwriter智能新闻写作软件,可以在一分钟之内快速完成1000字左右的财经新闻的写作[10]。借助智能技术的优势,新闻媒体人可以快速完成这些领域相关信息的采写和发布工作,为用户提供个性化信息传播服务,并能极大地避免新闻伦理风险。而重大突发事件、公共卫生事件等具有社会影响力大、牵涉面广等特点,一旦在使用智能技术采编和发布新闻中出现伦理失范问题,将会产生难以估计的恶劣影响。因此,在这些领域的新闻传播中,不宜使用智能软件和智能工具。

三是明确新闻媒体人有在智能新闻传播中体现人文关怀和社会温情的伦理责任。人工智能有技术优势却不具备情感能力,仅仅依靠人工智能技术而没有人的参与的新闻采编活动是不完整的,创作出的新闻作品也是没有感染力的,这样的新闻作品也不符合新闻媒体履行自身所承担的社会伦理责任的要求。因此,要建立相应的管理制度,要求新闻媒体人对运用智能手机、传感器、互联网平台等采集和挖掘到的新闻线索进行核实,做好新闻真实性的把关工作;对由人工智能软件生成的新闻稿件进行润色,渗入个人情感因素,通过情感润色和加工提高新闻作品的人文性。此外,要求新闻媒体人探求将人的价值观和审美融入人工智能采编场景中的路径,将人的情感、喜怒哀乐通过特定的关键词借由智能技术渗入到不同场景中,创造出具有较强情感适配性、场景真实性的新闻产品。这样的新闻作品才是有温度的,才能体现人文关怀和社会温情,并更好地承担起社会伦理责任。通过管理机制的建立,可以为智能时代新闻传播提供规范指导,有利于减少因智能技术应用引发的伦理风险。

作为计算机科学的分支,人工智能技术具有模拟人的思维、行动、拓展人的智能等方面的优势。在新闻传播领域,人工智能采写、传播已经取得了一定进展。但这种依靠技术传播的模式若没有了新闻媒体工作者的辅助,只依靠个性化、定制化、高效率等优势想要在新闻传播领域长盛不衰是极不现实的。新闻传播最终面向的是有血有肉有情感的人类生命个体,要满足人类对新闻信息的多方位需求,规避使用人工智能技术带来的伦理隐患,就必须正确认识人和智能技术在新闻传播活动中扮演的角色、发挥的作用,明确谁才是主导者,谁是主要的伦理责任承担者。在明确责任的基础上,发挥二者各自的优势,实现二者的深度融合和协同作业,确保智能时代新闻传播的健康有序发展。

猜你喜欢

新闻媒体伦理人工智能
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
2019:人工智能
人工智能与就业
探讨网络新闻媒体与传统新闻媒体的整合
数读人工智能
时代召唤老区新闻媒体
下一幕,人工智能!
新常态下的新闻媒体人
医改莫忘构建伦理新机制