APP下载

自动化新闻遇上ChatGPT:机遇、挑战与转向

2023-08-29胡碟黄洪珍

传播与版权 2023年16期

胡碟 黄洪珍

[摘要]ChatGPT凭借较高的人机交互水平,成为现象级应用。自动化新闻是人工智能技术应用于新闻传播领域的产物。当自动化新闻遇上ChatGPT,采写编评等新闻生产环节会大幅提质增效,人工智能新闻生产实践会深入发展,而自动化新闻也会面临新闻质量和媒体公信力下降的可能,加剧新闻生产主体的不确定性,加大新闻伦理风险。文章阐述ChatGPT为自动化新闻带来的机遇和挑战,探究ChatGPT视域下自动化新闻的未来转向:规范智能技术应用于自动化新闻,人机协同生成自动化新闻,增强自动化新闻人文关怀。

[关键词]ChatGPT;自动化新闻;智能变革;人机协同

自动化新闻是将数据转化为叙述性新闻文本的算法过程,也被称为“算法新闻”或“智能化新闻”等。传统新闻以记者和编辑为主导,自动化新闻则以写作机器人为主体:对新闻线索的分析转化为对大量数据的抓取,从人为的撰写稿件转换为根据自然语言模型处理稿件,由人工审核把关稿件变为程序自动分发[1]。

ChatGPT是美国人工智能实验室OpenAI于2022年11月底发布的AI模型,在推出短短两个月内就达到了1亿的月活跃用户数,一跃成为用户数量增长最快的消费者应用[2]。与之前的智能写作工具相比,ChatGPT不仅可以根据特定领域的结构化模板创建内容,产出符合标准的财经、体育、科技等方面的新闻报道,甚至可以作为主体融入新闻生产。2022年12月,BuzzFeed宣布裁员12%,并使用ChatGPT创作内容。亚马逊也已经使用ChatGPT来回答客户的问题,编写软件代码,创建培训文件等[3]。人工智能及相关技术全面渗透到媒体内容生产、传播的各个环节,当自动化新闻遇上ChatGPT,会引发重大的变革性转向。

一、ChatGPT为自动化新闻带来的机遇

正如比尔·盖茨所说,ChatGPT的问世不亚于个人电脑和互联网的诞生[4]。ChatGPT所代表的人工智能的发展为自动化新闻创造了一个历史性的机会,可以有效提高生产力,提升用户满意度和参与度,并全面赋能全产业链,加速媒体发展的深度融合。

(一)ChatGPT作为“代具”,使自动化新闻生产大幅提质增效

法国著名哲学家贝尔纳·斯蒂格勒在《技术与时间》中提出人类“代具性”的理念。受普罗米修斯神话的隐喻启发,斯蒂格勒用存在主义来说明人类是不完美的存在,并认为不完美是人类“代具性”存在的基础。ChatGPT作为人工智能聊天机器人,可以在新闻、影视制作、自媒体运营等多方面充当“代具”,贡献智慧。例如,《中国日报》采编系统各部门注重ChatGPT的工具性使用,将记者从机械编辑和前期基础信息收集中解放出来,让他们更专注于现场采访和第一手资料的获取。实践证明,ChatGPT作为提高新闻生产力的“代具”,有助于减少新闻生产人员的体力输出,提高脑力输入。

(二)ChatGPT与虚拟数字人,赋能自动化新闻生产

ChatGPT可以生成虚拟数字人,提供自动语音播报等服务,为智媒时代的新闻生产提供技术支持。2023年2月,《中国日报》在微视频、抖音等社交媒体上发布了一段短视频,其中数字工作人员“元曦”与ChatGPT就中国传统文化这一主题展开互动。ChatGPT自动生成了与中国茶文化相关的视频脚本,并按要求顺利地完成了中英互译等工作。虽然ChatGPT数字播报还只是相对初步的新闻生产测试,但是这个短视频获得大量关注,虚拟数字人与ChatGPT的互动可以说是人工智能生成内容实践中的又一进步。

(三)ChatGPT作用于采写编评等生产场景,发挥自动化新闻功效

首先,ChatGPT可以对突发事件和突发新闻进行预编辑。ChatGPT可以在第一现场快速写稿,随即交由专业编辑团队审核,并第一时间将相关新闻发布在网站和社交媒体平台上。这在突发新闻、政府公告等特定情形下尤为重要和适用。ChatGPT也可以与编辑合作,增强新闻报道的实效性,确保新闻准确、及时地发布,保障受众的知情权。其次,ChatGPT可以协助编辑修饰文稿。《中国日报》新闻采编业务的一个重要部分就是聘请外语专家对文章内容进行打磨和润色。这不仅涉及文章的事实和质量,而且有关外国读者的阅读习惯和语言体验。这项任务现在可以交给ChatGPT,它拥有多达1750亿模型参数的训练数据库,囊括来自网站、书籍、社交媒体和其他平台的文本语料,可以帮助优化新闻稿件,有效增强新闻文本的可读性。最后,ChatGPT可以辅助编辑进行选题策划,帮助抓取信息,并为记者提供创造性的解决方案等。

二、ChatGPT给自动化新闻带来的挑战

人工智能技术的不断更新迭代,使自动化新闻在新闻生产上无限接近于职业创作,在新闻发布上更趋向于零成本。然而,自动生成内容传播速度快,信息量大,也在一定程度上意味着网络中短时间内有可能会充斥大量的虚假或误导性信息。以ChatGPT为代表的人工智能技术如果被用来恶意生产、复制、传播虚假内容,会带来一系列负面影响。

(一)降低新闻质量,削弱媒体公信力

首先,新闻报道通常是不同表达形式的组合,如文字、音频、视频和数据等,虽然ChatGPT等人工智能生成内容及表达形式具有生产快等优势,但是其在应用于特定场景或对自身整体逻辑进行分析时,会出现合成错误,甚至会存在因尚未完善的功能和技术而呈现低质量新闻和不良交互體验的可能,从而降低公众对自动化新闻产品的需求,削弱媒体公信力。其次,由于缺乏监管体系和专业新闻审核,ChatGPT等人工智能生成内容不仅可能在真实性方面存疑,而且可能掺杂隐蔽的表述偏差、传播陷阱、价值观扭曲等信息,而由新闻媒体背书的智能文本若出现失误则会加剧媒体公信力危机。从长远来看,ChatGPT等人工智能生成内容及表达形式有可能会给新闻质量和媒体公信力造成双重危机,从而让公众重新评估新闻的可信度。

(二)消解专业边界,加剧新闻生产主体的不确定性

当前,新闻的数字化引发新闻传播方式的变化:混合、大规模、实时的内容传播与正统、有组织、有界限的新闻传播相融合;不同类型新闻媒体、内容形式和新闻渠道形成排列组合;新闻业边界逐渐模糊,甚至可能会消失。这在一定程度上反映,智能技术可能会成为新的新闻生产主体。例如,“浙江之声”一则报道,杭州地区的一个业主群讨论ChatGPT,其中一位业主开玩笑说,他可以用ChatGPT写一篇关于取消杭州机动车尾号限行的新闻稿,并在群里直播了ChatGPT的写作过程,还将该稿件上传到群聊,由此引发围观者截图转发,经过群聊、朋友圈、短视频平台的传播发酵,信息来源产生模糊,该稿件内容被新闻化,导致错误信息传播。可见,ChatGPT等人工智能有可能制造出看似有说服力的内容,并侵占公众的注意力,进一步削弱专业新闻的权威性和消解专业边界,挤压专业记者新闻报道空间,加剧新闻生产主体的不确定性,甚至出现不合法的行为。

(三)模糊内容真实性,加大新闻伦理风险

目前,ChatGPT等人工智能虽然越来越善于理解和处理人类自然语言,人机交互的真实性模仿也在不断推进,但是其生产内容的真实性和准确性偏差仍值得商榷。德国杂志Die Aktuelle在2023年4月用人工智能制作并发布了一篇对迈克尔·舒马赫的“采访”,引发舒马赫家人不满。随后该杂志主编被解雇,且该杂志公开向舒马赫的家人道歉。可见,ChatGPT等智能技术因自身算法逻辑而缺乏事实核查能力,很容易生产虚假内容,模糊内容真实性,使输出的内容存在事实错误、知识盲区等问题和训练数据源匹配、数据使用等偏差,加大新闻伦理风险,且目前这些问题尚未有可行的解决方案。

三、ChatGPT视域下自动化新闻的未来转向

海勒等指出,“机器和人类共同成为一个二元体系,使得他们成为彼此的衡量尺度”[5]。在智媒时代,以ChatGPT为代表的人工智能生成内容应被正确客观看待,其既具有优势,也具有弊端。未来,新闻工作者要找准自己的定位,从技术逻辑的角度来理解人工智能技术。

(一)规范智能技术应用于自动化新闻

ChatGPT等智能技术参与新闻写作,既要遵守法律法规,也要接受行业监管。一是新闻生产使用ChatGPT等智能技术要遵守国家法律法规。2023年7月,国家网信办联合其他部门印发了《生成式人工智能服务管理暂行办法》,为我国生成式人工智能服务健康发展提供了重要法制保障。未来,政府有关部门还会出台更多相应的政策。可见,新闻生产要在遵纪守法的前提下合理使用智能技术,切实提升人工智能服务的透明度,增强新闻生产内容的准确性和可靠性,进一步提高新闻传播公信力。二是新闻行业要加强对ChatGPT等智能技术的监管。例如,新闻内容生产中使用ChatGPT等智能技术的场景、范围、版权等方面应遵循相应的规定,尽可能避免智能技术引发的内容风险和媒体危机等问题。三是政府和行业相关监管部门应强化技术规范,完善新闻媒体内容评估标准,建立强有力的新闻媒体风险评估和预警机制,助力ChatGPT等智能技术应用于新闻内容生产乃至媒体转型升级向善、向好发展。

(二)人机协同生成自动化新闻

当前,新闻生产模式主要表现为人机协同,一方面利用自动化技术实现大数据抓取和分析,另一方面结合记者的丰富经验和敏锐判断,将个体思维和自动化技术紧密结合。在自动化新闻生产中,记者和编辑作为新闻工作者应履行把关人的职责,强化在新闻选题、素材收集和舆论导向等方面的人工控制,有效利用ChatGPT,发挥人机协同的作用。具体而言,一是记者和编辑要对ChatGPT等人工智能生成的选题进行审核;二是记者和编辑要加强对ChatGPT等人工智能的训练,使其输出的內容与社会发展的主流观点保持一致,积极发挥新闻导向作用;三是记者和编辑要学会判断ChatGPT等人工智能给出的答案,加强对事实和来源的核实,避免错误信息误导公众。

(三)增强自动化新闻人文关怀

ChatGPT等智能技术应用于新闻生产,新闻伦理总是绕不开的话题。ChatGPT等智能技术自动化生成新闻可能会带来侵权、侵犯用户隐私等负面影响。因此,一是新闻工作者要把人类的价值观和伦理规则植入ChatGPT等人工智能,尤其要将道德法律规范嵌入ChatGPT等智能技术自动写作程序,并尝试训练ChatGPT自我学习机制来提高ChatGPT等人工智能水平,使其实现自我检测、自我排除违法违规或不道德的内容,强化隐私保护。二是新闻工作者可以搭建专属于记者的写作数据库,训练ChatGPT等人工智能模拟真人写作习惯,实现共情表达,让新闻更有温度、人情味和思想厚度。三是新闻工作者应最大限度地增强自动化新闻人文关怀,让ChatGPT等人工智能具备情感传播功能,可按照用户情感等方面的实际需求来定制相应的内容,进一步优化用户阅读体验。当自动化新闻遇上ChatGPT,用户应拥有更多的主动权,让ChatGPT等人工智能更好地服务于人本身。

四、结语

当前,ChatGPT等智能技术正在革新人工智能生成内容领域,在基于文本甚至多模态的AIGC应用领域具有重要意义。然而,目前ChatGPT等人工智能仍然依靠现有的知识和模型来回答和解决现实问题,它要成为强人工智能(Artificial Super Intelligence,ASI)还存在较远的距离。当前,预防和规范ChatGPT等人工智能创建内容可能带来的风险是十分必要的。

一方面,新闻工作者需要利用ChatGPT等智能技术去探寻更多新的技术应用,帮助解决新闻生产过程中存在的一系列复杂问题;另一方面,新闻工作者需要在自动化新闻的生产过程中,训练和引导ChatGPT等人工智能,使其为人所用。未来,ChatGPT等人工智能会发展成为一个技术标志和时代烙印,并为新闻媒体行业迎来无尽的技术奇点和知识爆炸的盛景,从而使人类稳步迈向数字宇宙的漫长旅程。

[参考文献]

[1]文希.自动化新闻的原生性失范及应对防治[J].青年记者,2023(05):46-48.

[2]刘禹良,李鸿亮,白翔,等.浅析ChatGPT:历史沿革、应用现状及前景展望[J].中国图象图形学报,2023(04):893-902.

[3]徐晨.ChatGPT下全媒体人才培养面临的挑战与机遇[J].传媒论坛,2023(06):18-20,80.

[4]刘永谋,马亮,孙宇,等.ChatGPT对公共治理的挑战与机遇(笔谈)[J].东方论坛,2023(03):1-24,165.

[5]N.凯瑟琳·海勒,黄斐.计算人类[J].全球传媒学刊,2019(01):28-46.