变革与风险:ChatGPT模型对新闻生产的重塑
2023-12-10李御任
◎李御任
2023 年2 月,中共中央办公厅、国务院办公厅印发了《数字中国建设整体布局规划》,提出数字中国建设的整体框架,明确指出建设数字中国是数字时代推进中国式现代化的重要引擎,要全面赋能经济社会发展。ChatGPT 模型作为人工智能发展过程中的一个重要里程碑,其在经济数字化、产业数字化等方面打开了新的思路,为我国新型人工智能算法的下一步发展指出了方向。因此,发展好、用好并管好ChatGPT 系列模型,对建设数字中国具有重要意义。美国人工智能研究公司OpenAI推出的人工智能技术驱动的自然语言处理工具ChatGPT,能够理解和学习人类语言并与人类进行对话,甚至能完成新闻、剧本等内容输出任务,为信息产业带来巨大变革。①在新闻生产领域,ChatGPT 模型给人类带来了福音,但也敲响了警钟,需要引起高度重视。人类在关注技术层面创新的同时,也要及时规避其中隐藏的风险。
一、ChatGPT模型的发展历程与技术逻辑
要厘清ChatGPT 的发展历程,不得不提生成式人工智能(Generative Artificial Intelligence),其旨在通过模拟人类思维和创造力来生成新的内容,如文本、图像、音频等。事实上,ChatGPT 是生成式人工智能的典型应用。生成式人工智能的发展历程可以追溯到20世纪五六十年代的早期计算机研究,其发展历程可以分为以下四个阶段。第一,早期研究(20世纪50年代—20 世纪80 年代)。当时的科学家们试图使用计算机生成语言和音乐,然而,由于缺乏有效的算法,这些尝试的效果有限。第二,统计语言模型阶段(20世纪90 年代)。随着计算机硬件性能的提升和统计方法的发展,研究者开始使用统计语言模型来生成文本。第三,马尔可夫链和随机过程(20世纪90年代—21世纪00 年代)。研究者开始将生成式人工智能与马尔可夫链和随机过程相结合,以更好地模拟和生成复杂的语言结构。马尔可夫链是一种数学模型,可以根据当前状态和转移概率预测下一个状态。第四,深度学习阶段和预训练模型(2010 年至今)。深度学习技术的兴起对生成式人工智能的发展产生了重大影响。深度学习使用人工神经网络来模拟人脑的工作原理,并通过多层次的神经网络学习复杂的数据模式,预训练模型如OpenAI 的GPT (Generative Pre-trained Transformer)采用了Transformer 架构,成为一种功能强大的对话生成系统。
ChatGPT的技术逻辑基于GPT模型,这是一种基于Transformer 架构的语言生成模型,其通过预训练、微调、上下文理解,使得ChatGPT 能够流畅地与人类进行对话。首先,ChatGPT 通过大规模的无监督预训练来学习语言的统计规律和语义表达。模型使用了大量的互联网文本数据进行预训练,通过自监督学习任务来捕捉词语之间的关联和句子的上下文信息。这个预训练阶段使ChatGPT 学习到丰富的语言知识。在预训练完成后,ChatGPT 通过在特定任务上进行有限度的微调来提高其性能。对于对话生成任务,模型使用了对话数据集进行微调。在微调过程中,模型根据输入的对话历史和当前的对话内容来生成回复。通过与真实人类生成的回复进行比较,模型的参数逐步优化,以生成更准确、连贯和合适的回复。其次,Chat-GPT 通过阅读和理解输入的对话历史来建立上下文。模型利用Transformer 架构中的自注意力机制,对不同词语之间的关系进行建模,并将对话历史编码成一个向量表示。此外,在理解了上下文后,ChatGPT 使用训练得到的模型参数来生成回复。模型采用自回归的方式,逐个词语地生成输出。在生成过程中,模型基于当前的上下文和之前已生成的词语,使用概率分布来预测下一个最合适的词语。这个过程不断迭代,直到生成完整的回复。
二、ChatGPT赋能背景下新闻生产面临的机遇
首先,突破模板化限制。在新闻生产领域,机器人写作始终是学界和业界关注的焦点。早在2014 年,美国联合通讯社(The Associated Press)就将人工智能技术运用到体育赛事报道中。“机器人写作”能够部分解放人力资源,生产过程更加高效化。然而,自机器人写作诞生开始,模板化始终是其绕不开的问题。机器人写作通过事先编辑好新闻模板,在事件发生时直接填充数据,从而快速生成一篇新闻。因此,模板化的填充式写作难免受到批评。但ChatGPT 的出现有望突破这一窠臼。尽管ChatGPT 的语言模型依然基于模板,但其通过增加语法积累,进行不同语言表达风格的学习,通过调整采样参数,使得模型能够了解问题的背景和语境,这就使得人工智能生成内容从生硬的模板生成过渡到生动的语言模仿,即便是对于同一问题的提问,ChatGPT 也能够给出不同的答案。因此,ChatGPT 在新闻生产中的应用能够突破此前备受苛责的模板化限制。
其次,提升新闻客观性。新闻客观性从原初意义上要求对事实领域和价值领域、事实判断和价值判断作出严格的区分。②ChatGPT 能够与人类进行对话,其原因在于预先对大量文本进行了学习和训练。因此,只要ChatGPT 的学习语料事先经过审查,未出现价值观偏差的内容,并确保训练数据集中包含各种来源和观点的文章,就能够在一定程度上提升ChatGPT的公正立场,使得其对于不同事件的回答均能保持不偏不倚的态度,从而提高ChatGPT 模型在新闻写作中的客观性。同时,ChatGPT 模型依靠算法和数据库生产新闻,用大模型替代记者进行新闻写作,减少了个人主观因素对新闻生产造成的影响,提高了ChatGPT内容生产的客观性。此外,通过引入事实和证据,当模型出现不准确或有争议的回答时,及时提醒其出现的偏见和立场,使得ChatGPT 模型能够及时修正错误,也能起到提升新闻客观性的作用,以及对所有观点保持客观态度。
最后,转变新闻生产方式。人工智能的发展,使得以“人”为主导的新闻编辑室变成“人”与“人工智能”共存的新闻编辑室。ChatGPT 模型的出现,则将上述新闻生产方式向前推进了一大步。ChatGPT 对新闻生产方式的革新,可能表现在新闻内容策划与推广、传播效果评估以及内容创作等方面。基于ChatGPT 模型,人工智能技术能够收集用户的行为习惯,及时调整新闻报道方式和页面呈现方式,自动生成新闻报道策划方案,指导甚至主导新闻内容的策划与推广。传统媒体在量化新闻传播效果方面存在困难,新型人工智能技术却能实时抓取数据,使媒体能够根据实时传播效果调整传播策略和呈现方式。ChatGPT 模型的革新不仅仅体现在文字方面,未来可能还表现在视频创作及图片创作方面,根据受众需求,自动剪辑视频和生成海报,从而颠覆了传统的新闻生产方式。
三、ChatGPT赋能下新闻生产的风险
(一)缺乏人文关怀
人文关怀脱胎于欧洲14世纪—16世纪文艺复兴时期的人文主义思想,它与中世纪的神学相对立,要求把人从封建迷信中解放出来,其核心是解放人性,肯定人的价值、人的尊严和人格完整。③尽管人工智能在新闻生产领域具有突破模板化限制、提升新闻客观性、转变新闻生产方式等优点,但ChatGPT 模型并不完美,尤其在人文关怀缺失方面表现突出。从目前ChatGPT 对热点事件、历史人物等方面的回答来看,ChatGPT 模型的训练数据可能反映了社会的偏见和不平等,如果不及时加以纠正,这些偏见可能会被不断强化和扩大,导致不公平和歧视的结果。同时,Chat-GPT模型只能理解语义,往往缺乏对情感的理解和回应能力,而情感表达是交流与沟通中的重要组成部分。在与用户互动的过程中,系统可能无法适当地理解和回应用户的情感需求,从而影响用户的完整体验。最后,当ChatGPT 模型出现错误或产生不良后果时,社会上往往缺乏明确的责任和追究机制,这可能导致无法追踪问题的源头,也无法提供合适的补救措施。
(二)存在虚假信息风险
作为一个语言模型,ChatGPT 无法验证和辨别输入的信息是否真实可靠。首先,它缺乏对现实世界事件的实时了解,也无法检查事实的准确性。因此,模型有时可能会提供看似合理但实际上是虚假的答案。同时,尽管ChatGPT 能够理解上下文,但它的理解能力仍然是有限的。模型可能无法完全理解复杂的问题或上下文,并因此产生含糊或错误的答案。其次,ChatGPT 在回答问题时可以生成多个不同的样本,其中一些可能是虚假的答案。这是因为模型在训练过程中使用了随机性和采样技术,使得输出结果在一定程度上呈现出多样化。这意味着在同一个问题上,模型的不同运行可能会给出不同的答案。最后,ChatGPT对输入中的指令和提示非常敏感,可能会通过简单调整或变换提示的方式来产生不同的答案。这意味着模型可能会根据提示的偏见或要求来生成虚假的答案。
(三)版权和隐私争议待解
人工智能生成内容的版权问题由来已久,ChatGPT模型因其在算法、数据挖掘方面的巨大优势,将版权问题推向高潮,著名语言学家乔姆斯基甚至认为ChatGPT 是高科技剽窃。但也有学者称,应当以“开放”为作品保护的基本态度,建立起“投资—机器学习—作品生成—再投资”的版权创造正向循环。④目前而言,关于ChatGPT 模型的版权问题,无论学界还是业界均未达成一致。此外,利用ChatGPT 模型生产新闻还存在隐私问题,当用户与ChatGPT交互时,其输入的内容和模型的响应可能会被记录和存储。这些数据可能包含个人信息、敏感内容或其他私密信息。ChatGPT 存储的用户交互数据可能被用于改进模型的训练或研究目的。这可能涉及对数据进行分析、共享或合并到其他数据集之中。由于数据存储和传输的复杂性,ChatGPT存在潜在的信息泄露风险。恶意攻击者可能会试图访问存储的数据,导致用户的个人信息泄露。由于Chat-GPT的开放性,模型可能被用于传播误导性信息、虚假新闻、仇恨言论或其他不良内容。这可能对用户和社会造成负面影响,并带来潜在的隐私问题。
四、ChatGPT赋能背景下新闻生产的发展策略
(一)解决情感落地问题
通常来说,情感是人脑对于事物价值特性的主观反映。人工智能的出现,使得人类能够复制自身的复制品,但精神世界如何构造始终是一个难题,这一问题在ChatGPT 模型中即表现为缺乏人文关怀。心理学家提出心智预测模型的概念,其能够自下而上地对即将接收到的信息提出预设,并实现与外在环境的互动。受此影响,学者们开始讨论人工智能技术如何表现出情感。安迪·克拉克提出“面向行动”的预测加工模型,其可以对传递指令信息的神经进行编码,推进情感计算的研究,为实现人工智能技术情感化提供了新的思路。目前而言,有关情感模型的构建尽管仍然停留在理论中,但放眼未来,人工智能技术的完善必然要实现技术与人文的深度融合,这种融合不只是人文学科单方面对先进技术手段的需要,在更深层次意义上,它也是科技本身发展的需要。因此,在科学技术蓬勃发展的背景下,“数字人文”(Digital Humanities)悄然兴起。值得注意的是,“数字人文”始终以“人文”为目的,以“技术”为手段,为人类自由全面发展提供新的可能。
(二)建立监管与评估体系
ChatGPT 为实现新闻生产智能化、智慧化和数字化提供了新的可能,但有关虚假信息和隐私保护等问题依然需要引起重视。因此,推进ChatGPT 良性发展,首先需要制定明确的规则和准则,以指导ChatGPT的使用。这些规则包括禁止发布仇恨言论、暴力内容或其他违法行为,以及鼓励尊重、包容和积极的交流等。其次,开发监测和过滤机制,对ChatGPT 生成的内容进行实时监测。可以使用关键词过滤、机器学习算法或人工审核等方法来识别和过滤潜在的问题内容。再次,建立用户反馈和举报机制,让用户能够报告违规行为或问题内容。这样可以让用户参与监管过程,并帮助改善ChatGPT 的性能和安全性。此外,定期对ChatGPT 的使用情况进行审查和审计,包括审查生成的对话记录、评估监管措施的有效性,并进行必要的改进。最后,给用户提供更多的控制权,允许他们自定义ChatGPT 的行为和偏好。例如,让用户选择过滤敏感内容的级别、设置对话的主题范围等。
(三)填补法规与伦理空白
ChatGPT 的诞生,引发了人们对隐私泄露、偏见歧视等伦理与法规问题的担忧,要想实现ChatGPT 的稳步发展,必然要填补法规与伦理漏洞。首先,通过立法明确新型人工智能的责任主体。欧盟于2021年发布的《人工智能法案》(Artificial Intelligence ACT),对我国AI层面的立法具有启示意义。其次,限制敏感内容。对于可能涉及敏感主题的问题或内容,ChatGPT应该被设置为不提供详细或深入的回答。例如,当涉及医疗、法律或心理健康问题时,ChatGPT 可以提供一般性的信息,但不应该替代专业人士的意见。再次,开发伦理框架,确保ChatGPT 的行为符合道德准则。这种框架可以包括确保模型不歧视、不传播错误信息、不促进暴力或仇恨等。从次,建立监督和反馈机制来持续评估和改进ChatGPT 的行为,包括定期的审查、用户反馈的收集和处理,以及与专业人士和社区合作以获取反馈。最后,努力使ChatGPT 的行为和决策过程更加透明和可解释,通过记录模型的决策过程、提供回答的依据或来源,并向用户解释给出特定回答的原因。
五、结语
19 世纪中叶以来,科学技术广泛渗透到社会的各个领域,有关技术理性与人文理性的讨论此起彼伏。美国学者塞拉斯认为,“在描述和解释世界方面,科学是万物的尺度”,表现为无视一切非理性因素的极端理性主义。而后现代主义者如福柯、德里达等人将矛头直指技术理性,他们把“摧毁”“冲突”“消解”看作是“一种生成”“一种创造”,而“不再渴望业已永远失落的家园”。⑤应该说,上述两大发展战略存在内在矛盾,也有相互促进的方面。ChatGPT 的诞生,再次将技术理性与人文理性之间的关系提上日程。通过对这一问题的思考,笔者认为,发展好、用好并管好ChatGPT 模型,关键在于平衡好技术理性与人文理性的关系,确立人类能够驾驭技术的价值理性。正如马克思在《〈黑格尔法哲学批判〉导言》中指出:“人是人的最高本质,人就是自己的上帝,而不是技术的附庸与目的实现的工具。”⑥因此,从新闻生产领域讨论ChatGPT 模型的发展,一方面要用好新型人工智能技术带来的机遇,另一方面要规避技术可能带来的风险,做到技术服务于“人”。
注释:
①李御任,翟红蕾.ChatGPT 模型的舆论风险及应对策略研究[J].视听,2023(05):7-10.
②褚金勇.“新闻客观性”的历史脉络、逻辑向量与现代启示[J].青年记者,2019(18):29-30.
③张鹤,王巨臣.新闻报道的人文关怀[J].现代视听,2011(12):63-65.
④丛立先,李泳霖.生成式AI的作品认定与版权归属——以ChatGPT的作品应用场景为例[J].山东大学学报(哲学社会科学版),2023(04):1-11.
⑤王治河.扑朔迷离的游戏——后现代哲学思潮研究[M].北京:社会科学文献出版社,1998:12.
⑥中共中央马克思恩格斯列宁斯大林著作编译局.马克思恩格斯选集(第1卷)[M].北京:人民出版社,1972.