ChatGPT给新闻业带来的机遇与挑战研究
2023-07-18李懿宸
摘要:由OpenAI公司推出的ChatGPT作为当下最火的智能聊天机器人,使人工智能再次成为人们讨论的热点话题,尤其4.0版本的表现令人震撼,其应用范围不再限于聊天本身,在政治、经济、文化等领域也有不俗的影响力。文章阐述ChatGPT的发展历程,聚焦于新闻业,探究ChatGPT在改变新闻传播的主体、提高新闻内容的生产效率、检查新闻报道的真实性等方面的影响,以及ChatGPT可能对新闻媒体岗位产生的冲击。同时,深入思考ChatGPT存在的新闻伦理道德问题和潜在法律隐患等,并从提升新闻内容的创新性与新闻工作者的创造力,在模型训练方面有针对性地增加准确、专业的数据输入,适度使用ChatGPT来提高生产效率和针对其使用制定相关的法律法规四个角度,提出应对策略。
关键词:ChatGPT;新闻业;机遇;挑战
中图分类号:TP18;G219.2 文献标识码:A 文章编号:1004-9436(2023)14-00-04
2023年,ChatGPT在互联网上的爆火使人工智能再次成为人们讨论的热点话题。ChatGPT自推出后,仅两个月便收获了超过1亿的月活用户,成为历史上增长最快的消费级应用程序。美国企业家埃隆·马斯克称ChatGPT的出现可以比肩iPhone的发明,比尔·盖茨认为它的诞生不亚于互联网和个人电脑的问世。
目前,国内外的许多学者对ChatGPT展开了相关研究。方兴东指出,“从传播学视角看,ChatGPT带来的社会影响与冲击,本质上是人类信息传播范式的重大转变,它改变了人的生活方式和整个社会的运行方式”[1]。美国波士顿大学计算与数据科学学院教授韦斯利·J.怀尔德曼总结道:“ChatGPT为人类日常生活带来的便利将会涵盖学习、工作等多个方面,它的飞速发展将对科研、商业、政治和人际关系等领域产生深远而持久的影响。”[2]上海市计算机学会网络专委会副主任陈阳认为,“新闻媒体对ChatGPT的报道和社交媒体对其内容的快速传播,对ChatGPT的出圈起到了明显的作用”[3]。
可以说,前人的相关研究使人们对ChatGPT有了初步认识,但ChatGPT对新闻业影响的相关研究较少,因此本文从多个方面分析ChatGPT对新闻业产生的影响,并提出观点与建议。
1 ChatGPT的发展历程
ChatGPT的核心是GPT技术模型。在ChatGPT出现前,已有GPT-1、GPT-2、GPT-3三代GPT模型。ChatGPT是基于GPT-3.5架构开发的对话AI模型,2023年3月最新推出的GPT-4模型为ChatGPT提供了更丰富的训练数据集,ChatGPT的未来值得期待。
1.1 GPT-1/2/3阶段
GPT-1(约5GB训练文本,1.17亿参数量)于2018年问世。2019年底,OpenAI公司推出了GPT-2(约40GB训练文本,15亿参数量),但由于训练文本和参数量有限,其并没有十分出彩的表现。2020年推出的GPT-3凭借约45TB的训练文本、1750亿的参数量,成为当时最强大的语言模型[4]。海量的参数使GPT-3不仅在模式分析、问卷调查、机器翻译等传统NLP任务中拥有优势,还在数字算法、文章生成等领域崭露头角。
1.2 GPT-4阶段
2023年3月,OpenAI公司推出最新款人工智能模型GPT-4。由于在参数量方面较GPT-3.5增加了10倍,GPT-4在多模态输入与输出、智能程度、创造力和适应力等方面都实现了跨越式的提升。基于GPT-4架构的ChatGPT在人机交互体验、信息数据与图像处理、文本预测推理等方面的发展前景值得期待。
2 ChatGPT给新闻业带来的机遇
ChatGPT的应用场景非常广阔,在医疗保健、教育、社交媒体、营销等热门领域具有很高的应用价值。虽然目前ChatGPT并没有在我国的新闻业得到大规模的使用,但笔者推测ChatGPT在未来将为新闻业带来以下三个方面的机遇。
2.1 改变新闻传播的主体
ChatGPT正在将新闻传播的主体从人类转变成人工智能。可以大胆地预测,在不久后的将来,人们对新闻的获取可以通过与人工智能互动的方式实现。人机问答方式区别于网络搜索引擎的搜索功能,可以提供一些具有创意的内容生成,并根据每个人对信息需求的差异,对信息进行个性化的整合与智能化的生成,实现高度个性化的新闻传播。
2.2 提高新闻内容生产效率
经过大量数据的训练,ChatGPT学习并总结了文本中特定字词的分布规律和概率,在文本生成的过程中,依据输入的内容推测需要生成的字词。基于AIGC(AI Generated Content,即人工智能生成内容)高效率、低成本的特点,ChatGPT可以被使用在一些特定的新闻内容生产环节。
首先,针对一些程式化的题材,ChatGPT可以调用训练数据中的相关模板,快速地生成一篇标准的新闻报道,简化新闻内容生产流程,提高新闻生产效率。
其次,在一些专业性较强的新闻报道中,ChatGPT可以迅速准确地提供专业信息,避免新闻工作者在工作中因“知识盲区”而出现事实性错误。但是,由于目前ChatGPT的训练数据还停留在2021年,对某些领域最前沿的信息难以辨别,所以使用ChatGPT进行新闻报道的过程中需要注意信息的时效性。
最后,ChatGPT的使用流程简便,有学者指出,
“ChatGPT的接入和试用成本低,在易用性方面,ChatGPT的交互逻辑简明直接,只需输入指令便可即刻获得答复”。用户通过人机问答的形式,可以在线上快速获取信息,同时打破了时空限制,提高了生产效率。
2.3 检查新闻报道的真实性
真实性是新闻的生命,新闻报道中的每一个具体事实都应符合客观实际。ChatGPT不仅可以生产新闻,还可以通过大数据的调用反向检查新闻的真实性。崔保国、邓小院认为,“ChatGPT可以借助强大的数据搜索與识别能力,对信息传播的途径进行分析,进而反向推测信息的可信程度,最终对新闻报道的真实性作出判断”[5]。
在互联网时代,虚假新闻传播乱象时常发生,利用好ChatGPT检查新闻真实性的功能,提高人工智能对信息搜查的准确度与辨识力,将对整个新闻业的未来发展起到至关重要的作用。
3 ChatGPT给新闻业带来的挑战
万物都有两面性,ChatGPT在给人们带来便利的同时,也带来一些挑战。对此,许多学者提出了自己的观点和思考,本文总结三个具有代表性的问题并展开探讨。
3.1 新闻媒体岗位的紧缺
ChatGPT在新闻业的普及使用,可能会导致一些重复性较强的工作岗位减少。喻国明提出,“ChatGPT在中短期内功能性扩张的主要方向为:归纳性的文字类工作、代码开发相关工作、图像生成领域、智能客服类工作”[6]。对新闻业来说,新闻编辑等岗位受到的冲击最大。经过大数据的训练之后,ChatGPT在文字归纳、整理、生成等方面的效率明显高于人类,越来越多的媒体机构开始使用机器进行新闻报道的编辑,重复性强的文字基础类工作很有可能在未来被ChatGPT或更加先进的人工智能完全替代。
但目前的主流观点认为,记者、新闻策划等主观思考性较强的职业不会因ChatGPT的出现而被淘汰。新民晚报记者邵宁认为,“记者不是传声筒、复读机,记者从事的是创造性的劳动,拥有一双‘新闻眼的记者是不会被淘汰的”[7]。吴双在《别怕,和ChatGPT一起奔向未来》一文中提到,“ChatGPT的思考能力和判断能力目前是有限的,人类在不断的自我反思、自我纠正之中逐步形成批判性的思维能力是当前技术水平下ChatGPT所无法企及的”[8]。ChatGPT目前最大的局限在于无法实现“自主思考”,这也是人工智能并未真正完全替代人类的原因。如果在未来人工智能被赋予了“自主思考”的能力,那么更多新的社会问题甚至是伦理问题会随之出现,这是一个值得研究的议题。
3.2 新闻伦理道德的挑战
目前ChatGPT并不具备独立思考的能力,ChatGPT的数据输出依靠后台大量的训练数据,如果输入的训练数据带有偏见、歧视性的价值观,那么ChatGPT的输出内容就很容易出现偏见与歧视。如果不加辨别地将其运用到新闻内容的生产中,可能会产生不良的社会影响。早在2016年,微软公司推出的人工智能Tay便因鼓吹种族清洗而被下架。2022年12月,清华大学交叉信息研究院开展了有关AI模型性别歧视水平的评估项目,实验对象是ChatGPT的前身GPT-2,测试结果显示,GPT-2有70.59%的概率将教师预测为男性,将医生预测为男性的概率为64.03%。实验团队的带头人于洋说:“AI会重男轻女,爱白欺黑(种族歧视)。”[5]对此,OpenAI公司称已尽力设计了许多道德准则,并引导ChatGPT对许多带有偏见、不道德的恶意提问进行否定回答。这种做法能否确保ChatGPT不再输出带有偏见或歧视性的语句,仍有待后续检验。
ChatGPT还容易“说谎”。我国学者指出,“ChatGPT建立在一个尽量有问必答的预设原则之上,假如问一个基于它目前知识库所无法回答的问题,那么它便会自行编造一个答案,这就注定了它有说谎的可能性”[9]。ChatGPT等语言模型并不理解自己在说什么,它们只是从二手信息里寻找可能有用的信息,并将其整合、输出。这些输出的答案很可能含有错误的信息,甚至完全是在一本正经地胡说八道。
对ChatGPT的盲目使用,容易使人们陷入“图灵陷阱”。从新闻业角度来看,“图灵陷阱”即在新闻工作中过度依赖ChatGPT进行新闻的生产加工及报道。如果不加限制地使用人工智能代替人去完成工作,那么人的自主性最终将被机器剥夺。中国社会科学院哲学研究所研究員段伟文认为,“之所以会出现‘图灵陷阱,是因为智能和自动化系统没有做到‘以人为本,人工智能的部署往往使人类被迫适应‘智能化,它的结果没有使机器人性化,反而使人变得机器化”[10]。
3.3 版权及其他法律问题
版权归属是ChatGPT浪潮中备受关注的一个话题。从新闻出版领域来看,ChatGPT生成的文本是否具有版权?使用ChatGPT写出的稿件能否直接用于新闻出版?由谁来承担相应的责任?新闻业是否拥有针对人工智能应用的相关规则体系?这些问题都值得关注与探讨。华东政法大学知识产权学院的丛立先、李泳霖认为,生成内容在著作权法上可视为“代表设计者或训练者意志的创作行为”,只要满足“独创性”的要求,即具备“可版权性”[11]。同理,如果使用ChatGPT生产的内容符合版权法要求的独创性、可复制性要件,就应该认定其具有版权。未来版权发展将呈现多元化、包容性趋势。随着创作主体越来越复杂,ChatGPT及其他人工智能的生产内容将有可能被授权。
AI的文本生成能力强大,新闻内容剽窃问题愈加严重。美国波士顿大学的怀德尔曼教授认为,“剽窃的道德准则似乎比较清晰、易鉴定,但ChatGPT等自然语言处理工具带来的隐患,使剽窃的概念变得更加复杂”;美国语言学家乔姆斯基认为,“ChatGPT访问海量数据,并将其按照一定的规律串联到一起,看起来像是人类的思考,其实本质上就是抄袭”。新闻工作者利用ChatGPT对其他文本内容进行摘录,并通过AI的内容整合技术处理,最终生成自己所需的内容。这个过程虽然为新闻工作者节省了许多精力,但本质上只是一种“搬运”,并未直接经过新闻工作者的独立思考。新闻工作者最基本的一项技能就是写作能力,如果缺乏足够的锻炼,过分依赖人工智能,那么对今后整个新闻业的发展是不利的。
作为一款交流型功能应用,ChatGPT具有很强的宣传引导性。若被不善使用,就很容易引发信息诈骗、新闻造假等违法现象。ChatGPT通过大数据训练以及人工反馈进行学习,一旦接收了不良信息,就很容易形成错误的导向,误导使用者。新闻业作为国家的重要宣传事业,对传播内容的价值正确性具有较高的要求。目前的ChatGPT要在新闻业实现广泛普及,仍具有一定的法律风险。
4 应对ChatGPT挑战的策略
针对ChatGPT给新闻业带来的挑战,本文从新闻内容、数据输入、使用频次、法律法规四个方面提出相应的对策。
4.1 提升新闻内容的创新性与新闻工作者的创造力
提高新闻内容的创新性与新闻工作者的创造力是应对ChatGPT对新闻媒体岗位冲击的最优解。机器是“死”的,而人是“活”的。ChatGPT目前只能进行一些较低级的内容生成,生成的内容往往千篇一律、缺乏创新。新闻工作者可以利用这一点,提高自身创造力和批判性思维能力,生产出更多具有创新性的新闻内容,不断提高新闻内容的质量,在避免自己的岗位被ChatGPT等人工智能替代的同时,客观上促进新闻业的发展,形成良性循环。
4.2 有针对性地增加准确、专业的数据输入
ChatGPT的前期训练数据是海量的,其中难免混入一些垃圾数据和错误数据。针对此类情况,可以有针对性地向ChatGPT输入准确的数据以引导与矫正。同时,ChatGPT在内容生产过程中暴露出的专业性较差、深度不足等问题,也可以通过特定的数据输入得到改善。优化后的ChatGPT将在新闻内容生产等环节显现出更多的可能性,报道内容生成的專业性、深度将明显提升。
4.3 适度使用ChatGPT来提高生产效率
人类发明人工智能,最终目的必然是使其为人类所用。将ChatGPT视为工作助手,适度运用到日常的新闻工作中,可以提高新闻内容的生产效率,减轻新闻工作者在资料搜索与整理、文字编辑等方面的工作压力。当下,ChatGPT只是一个功能性较强的聊天互动型机器人,无法完全替代人类完成工作,如果人类过度依赖ChatGPT开展工作,就有可能掉入前文所述的“图灵陷阱”。
4.4 制定相关法律法规对AI的使用与开发进行规范
科技是不断向前发展的,在未来会有更多与ChatGPT类似的人工智能出现在人们生活的各个方面,因此制定相关法律法规对其进行管理显得尤为重要。对新闻业来说,AI生成内容的版权归属、AI在新闻传播中是否承担风险与责任等问题,都是制定法律法规时需要重点关注的内容。
5 结语
本文分析了ChatGPT的发展历程,然后从新闻传播主体的改变、提高新闻内容生产效率、检查新闻报道的真实性三个角度分析其给新闻业带来的机遇,并从新闻媒体岗位、新闻伦理道德、新闻法律三个方面阐述其给新闻业带来的挑战,再针对挑战提出优化新闻内容、增加数据输入、控制使用频次、制定法律法规的应对策略。相关人员应理性认识ChatGPT给新闻业带来的机遇和挑战,相信ChatGPT带来的是解放,而不是枷锁。
参考文献:
[1] 方兴东. ChatGPT爆红确立智能传播的主流地位[N].中国社会科学报,2023-03-07(003).
[2] 韦斯利·J.怀尔德曼.与机器共情:将人类意图与智能工具相结合[N].中国社会科学报,2023-03-06(008).
[3] 孙美娟,张译心. ChatGPT:热话题需要冷思考[N].中国社会科学报,2023-03-07(002).
[4] 沈威. ChatGPT形成机理与问题应对[N].中国社会科学报,2023-03-07(007).
[5] 崔保国,邓小院. ChatGPT给传媒业带来机遇和挑战[N].中国社会科学报,2023-03-07(003).
[6] 喻国明,苏健威.生成式人工智能浪潮下的传播革命与媒介生态:从ChatGPT到全面智能化时代的未来[J].新疆师范大学学报(哲学社会科学版),2023,44(5):81-90.
[7] 邵宁. ChatGPT来了,我会失业吗?[N].新民晚报,2023-02-09(007).
[8] 吴双.别怕,和ChatGPT一起奔向未来[N].人民邮电,2023-02-23(006).
[9] 熊明辉.多维考察ChatGPT[N].中国社会科学报,2023-03-06(005).
[10] 段伟文.积极应对ChatGPT的伦理挑战[N].中国社会科学报,2023-03-07(007).
[11] 丛立先,李泳霖.聊天机器人生成内容的版权风险及其治理:以ChatGPT的应用场景为视角[J].中国出版,2023(5):16-21.
作者简介:李懿宸(2003—),男,江苏南京人,本科在读,研究方向:广播电视学。
基金项目:本论文为2020年度国家社科基金一般项目“公共事件中网络抗争性话语的生成机制及公共治理”阶段成果,项目编号:20BXW109