大语言模型引领内容生产方式变革
2023-12-02刘亚东
文/刘亚东
继ChatGPT之后,OpenAI公司2023年3月14日又发布了GPT-4。GPT-4是新一代大语言模型,它进一步提升了自然语言的处理能力,以及包括语义理解、推理和判断的智能对话能力,可以处理更加复杂和抽象的语言任务。同时,它还增加了语种,支持更多的自然语言处理任务,为人类提供更多更好的语言交流服务。
作为大语言模型,无论ChatGPT还是GPT-4,它们本身并不会直接影响新闻传播。然而,随着人工智能技术的不断发展,越来越多的新闻机构开始利用类似于ChatGPT这样的自然语言处理技术来改进新闻的生产和传播方式,从而为传媒业开辟了全新的赛道。需要注意的是,ChatGPT并不生产知识,而只是知识的搬运工。那些有见解、能创造、敢担当的人类编辑记者将与ChatGPT相得益彰,呈现出传媒业态的未来图景。
ChatGPT将彻底改变新闻传播范式
传统的内容生产需要耗费人类大量的时间和精力来构思、查阅、撰写和编辑,而ChatGPT的出现使这种状况似乎在一夜之间发生改变。尤其在生成高质量文本内容方面,ChatGPT的工作能力已然超越绝大多数人类。在新闻生产、传播和消费等方面,ChatGPT同样具有广阔的应用前景,其现实的和潜在的影响至少表现在以下几方面。
第一,提高新闻生产效率。ChatGPT和其他自然语言处理技术可以帮助新闻工作者更快速、准确地收集和分析信息,并将其转化为可用于新闻报道的文本,包括文章、标题、摘要、评论等,从而加快了新闻生产速度。比如,ChatGPT可以利用其深度学习的功能,在短时间内从大量文本中提取关键信息,并自动生成新闻稿件的大部分内容,提高媒体的工作效率。同时,ChatGPT的应用还能替代大量重复性劳动,降低生产成本。
第二,增加新闻的多样性。ChatGPT能够生成各种语言风格和文体的文本,使新闻报道的形式更加丰富多彩。例如,媒体可以使用ChatGPT生成新闻报道的初稿,通过编辑和修改,最终呈现出不同的新闻风格,满足受众的各种需求。ChatGPT和其他自然语言处理技术还能把新闻报道转化成多种形式的可视化内容,如图表、动画、视频等,这将帮助读者更好地理解和消化新闻内容,提高新闻报道的影响力和吸引力。此外,ChatGPT还能帮助媒体将一种语言的内容翻译成另一种语言,从而扩大受众群体。
第三,确保新闻报道的质量和可信度。自然语言处理技术可以帮助新闻工作者更快速、更准确地分析和验证信息来源,并消除谬误或不实信息,这将使新闻报道的质量和可信度获得技术保障。同时,借助于ChatGPT,快速检查和修正文章的语病和错别字也变得轻而易举。
第四,加快新闻传播速度。利用ChatGPT等自然语言处理技术,可以自动生成特定内容的新闻稿件,并将其快速发布到各种数字平台上,如社交媒体、新闻网站、移动应用等,这将大大提高新闻传播的速度。
第五,推动个性化新闻发展。媒体可以利用ChatGPT等自然语言处理技术来分析读者的阅读兴趣和偏好,并根据这些信息推荐相应的新闻内容。这将帮助媒体提高读者的忠诚度和参与度,增加订阅量和广告收入。
以ChatGPT为代表的人工智能技术必将在传媒业引发颠覆式创新。我们应积极推动人工智能技术在新闻传播领域的应用,以适应信息化时代的新潮流。比如,通过开发智能化新闻生产和传播平台,提高新闻生产和传播的效率和质量;利用大数据技术分析新闻信息,了解公众关注的热点和趋势,为新闻生产和传播提供数据支持;以人工智能技术开发智能化新闻交互方式,为用户提供更加便捷和个性化的新闻服务。
ChatGPT给新闻道德伦理带来挑战
ChatGPT虽然能够有效提升新闻报道的效率和质量,但也对新闻道德和伦理提出挑战。随着ChatGPT等自然语言处理技术的兴起,传媒业面临着一系列新的道德伦理问题。这些问题涉及媒体的新闻操守、职业规范、信息真实性、隐私保护等方面,给媒体和公众都带来深远影响。
第一,可能制造虚假新闻。ChatGPT无疑能够生成高度逼真的虚假新闻,媒体如果过度依赖 ChatGPT生成内容,极有可能误导公众、损害公众利益。一些不负责任的媒体甚至会故意利用这个模型来制造虚假新闻或夸大事实,并传播给公众。一旦出现这种情况,轻则会让媒体失去公众的信任,重则可能引起社会恐慌。因此,媒体在使用ChatGPT时需要保持警惕,始终以批判质疑的态度对待其生成的内容;应该加强事实核查,增强辨别力和判断力,以保证新闻的真实、客观。
第二,可能引起道德失范。ChatGPT只能根据输入的数据和编程指令来生成响应,所以道德失范的问题并不在于它本身,而在于它的使用者。同时,ChatGPT生成的内容也可能违背真实、客观、公正、全面等新闻道德准则。因此,应该制定法律法规,并辅以相应技术手段,以确保ChatGPT被用来增进人类福祉、促进社会进步。
第三,可能对个人隐私造成威胁。在新闻传播过程中,媒体需要搜集、分析和发布各种信息,其中包括个人信息。ChatGPT在学习和推理过程中,需要大量的数据输入。如果输入的数据包含敏感信息或隐私,如个人身份、兴趣爱好、行为习惯等,则会被ChatGPT学习并保存。一旦这些信息被不法分子窃取或泄露,将对个人隐私和安全造成威胁,甚至可能被用于针对个人的攻击和欺诈。此外,ChatGPT也可能在与其他智能机器人进行交互时,共享个人信息和数据,这也增加了信息被泄露的风险,需要采取有效措施来防范。
第四,可能滥用智能推送算法。ChatGPT能够通过智能推送算法,把新闻内容更精准地推送给用户,但也可能因为过度追求点击率而出现滥用的情况。这将加剧信息茧房效应,从而引发偏见和歧视,局限个人知识面,妨碍公共讨论与合作,激化社会矛盾等。因此,我们在享受ChatGPT带来的便利时,更应注重获取多样化的信息和观点,听取不同的声音,不断拓宽自己的知识面和思考能力。
第五,可能给传媒业生态带来深远的负面影响。由于ChatGPT能够快速生成大量文本内容,一些媒体可能会利用ChatGPT来获取竞争优势,这必然导致一些媒体过多使用机器人而不是记者来采写报道。所以,媒体需要在使用ChatGPT时保持平衡,以确保新闻报道在更高层次上的质量和水平。
ChatGPT能够取代编辑记者吗?
应该说,在包括传媒业在内的几乎所有行业,大多数日常工作都是重复和组合,而不是发现和创造。正是由于这个原因,ChatGPT的出现必然会使媒体减少对编辑记者的需求,导致一些工作岗位消失。这无疑会给一些新闻工作者造成压力,但也从客观上迫使他们转型,努力提升自身素质和素养,更多地从事那些富于想象力和创造性的劳动,以适应新形势和新环境。
另外,ChatGPT不会也不能完全取代编辑和记者的角色。编辑最耀眼之处,在于他们面对复杂事物所表现的敏感性、洞察力和判断力,而这是ChatGPT在可预见的未来无法企及的。记者的很多工作由于如下原因,同样是ChatGPT无法替代的。
一是无法进行实地报道。ChatGPT只能基于过去的信息来回答问题,无法身临其境地采写新闻。而记者可以到现场采访,获取第一手资料,了解事件的真实情况。
二是缺乏人类的思考能力。ChatGPT能够处理自然语言,但缺乏人类的思考能力,而一些复杂问题往往需要记者进行判断和推理。例如,在采访一些重大事件的当事人时,记者需要识别其表情和语气,从而更好地理解和报道事件。
三是无法获得独家新闻。ChatGPT是加工和处理已有信息的高手,但无法获得独家新闻。记者则可以通过深入调查和独家采访来获得独家新闻,提供更有价值的内容。事实上,很多独家选题的挖掘,都始于记者在社会生活中获得的线索,这是ChatGPT无论如何都做不到的。
四是没有人类情感。新闻大都涉及人类情感,比如忧虑、期望和关注等。记者可以更好地理解并传达这些情感,而ChatGPT没有这种人性化的感知和传达能力,无法像记者一样,写出有深度、有温度、人性化的新闻报道。
作为人类的通用任务助理,ChatGPT生成的高质量对话,让许多人误以为人工智能获得了意识并实现人格觉醒。其实,ChatGPT背后的原理仍然是大数据分析。就速度和准确性而言,从庞杂、枯燥的数据中提取有用信息并做一定处理,ChatGPT显然比人类更具优势。目前,在功能属性方面,ChatGPT已经能较好地处理标准化、结构化的内容。但迄今为止,在人格属性方面,ChatGPT还没有学会像人类一样思考并提出自己的问题。像质疑、追问、寻找对方话语中的新闻线索等记者的基本功,对于包括ChatGPT在内的现有人工智能来说还无法实现。与人类思考、分析、挖掘故事的能力相比,它还差得远!
所以,严格地说,ChatGPT是资讯整理,而不是新闻生产。由于新闻工作的特殊性,以及这个职业对社交能力、协商能力,同情心、责任感,以及创意和审美的要求,在可以预见的未来,那些称职的优秀人类记者不可能被机器取代。
ChatGPT和其他自然语言处理技术正在改变新闻生产和传播方式,在带来机遇的同时也带来挑战。我们既要认识ChatGPT的优势和特长,也要了解它的局限和短板,这样才能让ChatGPT更好地推动传媒业发展。与此同时,还应鼓励媒体和ChatGPT开发者合作,创造更多的新闻传播应用和商业模式。