大语言模型赋能数字出版的机遇与挑战
2023-11-19张宁西蒙·马奥尼
张宁 西蒙·马奥尼
【摘要】以ChatGPT为代表的大语言模型广泛应用于对话生成、文本摘要生成、问答系统等场景,具有文字编辑、知识记忆的显著优势,能替代重复性和耗时性工作,为数字出版领域的写作、选题策划、稿件审阅与校对、数字人语料供给、智能客服与销售、机构管理与决策带来新机遇。同时,其在逻辑推理、文化关联、意义挖掘等方面的不足凸显,致使其内容生成尚未融通正确出版观,知识产权争议不断,还扩大了多元群体信息鸿沟,加剧形成“信息茧房”,加大内容价值甄别难度,抬高用户信息素养门槛。
【关键词】数字出版 大语言模型 ChatGPT 人工智能 出版业
【中图分类号】G230 【文献标识码】A 【文章编号】1003-6687(2023)11-045-07
【DOI】10.13786/j.cnki.cn14-1066/g2.2023.11.006
人工智能大语言模型(Large Language Models,LLMs)在生成文本方面表现出卓越优势并掀起了一场智力革命,其广泛应用于对话生成、文本摘要、问答系统等场景,具有文字编辑、知识记忆等优势,已逐步革新产业范式。2022年11月,美国人工智能企业OpenAI推出ChatGPT应用,其技术模型是生成式预训练模型(Generative Pre-Training,GPT),生成式表明其能力是生成内容,预训练表明其能力是预先训练的。该模型凭借流畅回应复杂问题的能力,上线仅两月活跃用户达1亿人,成为互联网史上用户增长最快的现象级应用程序。其应用效果完成了大众对人工智能聊天机器人(ChatBot)从刻板的“人工智障”到“聪明有趣”的印象改观。其强大的通用性和逻辑推理能力使其变成一个生产力工具,行业接受之广引发大众对技术应用的深度思考,部分用户甚至产生“机器换人”的恐慌。
当前,中外大语言模型开发竞争激烈,但工具定位各有不同。以ChatGPT为代表的主流模型训练数据源以英文居多,优势在于处理英文文本,输出欧美国家主导下的内容,部分答案并不适用于我国用户;Meta继发布Glactica和Blender Bot3大型语言模型之后,于2023年2月宣布推出科研领域专用的大型基础语言模型(Large Language Model Meta AI,LLaMA),即用于生成文本、对话、总结书面材料、证明数学定理、预测蛋白质结构等,服务科研工作者。中国互联网大厂和高校立足国情陆续布局开发中国版ChatGPT,如复旦大学发布中国第一个对话式大型语言模型MOSS,可执行对话生成、编程、事实问答等任务;百度对标ChatGPT开发在中国文化的理解和输出上更具优势的“文心一言”(ERNIE Bot)模型,更符合中国语境与相关规范。
大语言模型革新数字出版领域内容创作范式,可缩短出版选题、编辑、加工、审核、校对、销售、服务等周期,为出版业带来前所未有的机遇,同时也给出版业带来了新挑战。如韩国出版商Snowfox Books发行了完全由ChatGPT撰写的《找到人生目标的45种方法》一书,由AI完成英译韩、校对和插图工作,整个出版流程从先前的两至三年压缩到一周,效率远超自然人,[1]高自动化水平虽然降低了出版内容创作成本,但也存在一定的风险。
一、大型语言模型赋能数字出版的机遇
目前以ChatGPT为代表的大语言模型,定位是为人类提供更加高效和智能化的辅助,而非替代业务链中的人工角色,其优势在于基于海量数据快速生成翔实系统的内容,但内容质量不高,最终采纳与否仍需人工干预。出版业可考虑将其私有化部署或改造嵌入目前的智能编辑分析系统、知识服务数字平臺、出版印刷智能云平台、图书销售系统等,为从业人员和终端用户提供更具精准性、时效性的信息支撑,促进数字出版高质量发展。
1. 辅助选题策划与内容写作,缩短选题与成稿周期
(1)大语言模型能够智能挖掘与发现潜在出版项目,明确市场需求风向标,按需规划供应出版内容,全面解决编辑在进行高质量内容生产时的难题。[2]编辑在定题阶段很难充分、全面地掌握相关领域的热点,类似ChatGPT的大语言模型学习了庞大的在线文本数据,能有效采集和挖掘主题信息,比对用户提问信息,提取多个话题中的特点、异同、热点、动态等,输出热点选题素材,为初始选题方案提供依据。[3]
(2)协助作者产生想法与思路,提供写作素材。用户通过不断变换问题让大语言模型从不同视角生成内容,帮助作者从多角度看待问题,为作者的内容创作提供线索与思路,也可帮助作者搜集论证所需的数据与案例,提供写作素材。[4]例如,《自然》(Nature)对其672名读者进行调研后发现,27%的读者使用ChatGPT等AI工具进行头脑风暴、辅助内容创作。[5]
(3)用于耗时性和重复性的内容生成,为作者留出更多时间从事创造性的知识生产。作者借助大语言模型完成概念性、重复性、程序性、搜索性等耗时性工作(如导论描述、术语定义、概念界定、数据溯源、要点提取等),[6]若是内容不符合预期,作者也能与其交互从而修正内容,获取更新后的答案。作者还可输入主题、目标、方法、数据等关键信息,利用ChatGPT等工具生成初稿,省去考虑行文风格、语句、语法、逻辑,甚至润色的时间。[7]然而,AI内容生成质量不高,高品质内容创作依旧需要作者投入一定的个人创造力。
(4)辅助文本翻译、编译和转译。大语言模型是一个处理各种自然语言任务并涵盖不同语言的模型,被视为一个统一的多语言机器翻译模型,具有较好的稳健性与可信性,能够有效提升作者阅读外文的效率。[8]例如作者可利用 ChatGPT翻译多元语言文本,生成连贯性、丰富性、系统性、准确性高的长篇翻译稿件,也能实现古汉语转译为现代汉语,有效缩短编译稿件的时间,提升工作效率。
2. 协助编辑稿件审阅与校对,提高审稿质量与效率
(1)自动执行简单的稿件审阅任务,缩短审稿周期。ChatGPT可依据设置的语法和格式规则分析稿件内容、评价稿件质量、标记提醒需要编辑处理的疑难问题,使到达编辑手头的稿件质量更高,给作者的反馈更快,也能更快进入排版与编写阶段。[9]
(2)检测稿件内容关键信息的准确性与一致性。ChatGPT能为审稿人提供标准信息参考,可识别数据不一致、错误或验证研究结果的准确性,保证稿件内容数据、术语、时间等元信息前后一致,甚至复现和检测研究结论。[10]
(3)提升审稿反馈意见的客观性。人工审稿会不可避免地将专家个人偏见渗入评审中,影响或干扰作者原始观点与知识创新,甚至改变作者原始想法,不利于知识进步。大语言模型可检测和验证结构化和客观性强的稿件内容,为审稿人提供参考意见,能在一定程度上消除个人偏见,为作者提供更客观的反馈意见。
(4)辅助稿件校对与润色,节省编辑人员校对时间。与Grammarly相比,ChatGPT英文校对效果比原稿好10倍,[11]能解决文本中机械的语法、逻辑和用词问题,甚至改写无实际内涵的表述内容,使文本表达自然通顺、内涵准确,[3]也可为古籍文本添加标点,提高文本可读性。然而即便如此,其校对效果依旧存在瑕疵,需人工校对后才能出版。
3. 活化数字人语料信息供给,增强出版内容呈现效果
(1)短视频与直播数字虚拟人输出内容的知识容量与思维表述更具思想深度与广度,而非机械陈述指定文本。服务型虚拟数字人核心功能是替代真人为用户提供服务,常见形态有虚拟主播、虚拟老师、虚拟陪伴助手等。2021年以来,各企业陆续推出用于短视频和网络直播的AI数字人主播,服务品牌介绍、知识科普、娱乐表演等,进一步推动知识传播与知识服务。在不久的将来,用户拥有善解人意和无所不知的虚拟老师和陪伴助手将是常态。[12]
(2)打造嵌入大语言模型应用的身份型数字人,成为连接虚拟与现实的重要“人物”,支撑元宇宙出版产业落地。身份型数字人是用于社交、娱乐、传播类型的虚拟IP/偶像/名人,可以是真人的辅助分身,也可以是个体在虚拟世界的第二分身。例如Meta Media超媒体控股集团旗下《InStyle优家画报》推出全球首位具有“灵魂”的虚拟主编Beatrice,依托ChatGPT拥有极其活跃的AI大脑和惊人的时尚思维,专为“Z世代”传递时尚资讯。[13]中华书局推出的“苏东坡”数字人是名人在虚拟世界的分身,若集成ChatGPT类语言模型,则更能增强分身的逼真性与人情味,提升大众对其传达的中国传统文化的信任度。
(3)活化游戏NPC对话,强化游戏体验的真实性。游戏是数字出版的重要产品之一,用户与NPC的互动通常需从固定选项中选择。将ChatGPT接入Unity 3D中,让AI控制游戏NPC与玩家对话,凭借庞大的语料数据库,通过自动语音识别技术,将声音转换为文字,对文字进行自然语言处理,并将处理的文字结果转换为语音,可实现NPC与玩家的对话自由,[14]这使数量庞大但呆板的NPC“灵魂更加有趣”,可提高用户沉浸感与交互质量。[4]
4. 嵌入智能客服与销售场景,提升服务流程精密程度
(1)辅助出版网站管理与运营,提高运营效率。 ChatGPT可用于出版类网站运营和营销,包含电子邮件营销、出版物描述生成、消息回复、个性化推荐、订单处理与管理等。例如美国数字媒体公司BuzzFeed与OpenAI合作使用ChatGPT辅助网站内容的制作。[15]
(2)根据用户画像定制个性化沟通内容,提升智能客服或销售场景中的用户满意度。ChatGPT等模型有多轮对话记忆功能和上下文对话学习能力,可持续学习与用户互动产生的数据(如用词、语气、风格、情绪等),理解用户需求与偏好,为其提供准确、连贯、符合语境的答案,从而有效提高用户满意度。
(3)提升虚拟客服和虚拟销售人员的可信度,带动出版物销售。将大语言模型对话能力与计算机视觉、机器人视觉和物理能力相结合,能创造出智能对话的人工智能系统,赋予其数字人的外形,使其看起来“有血有肉”,听起来“灵魂丰富”,可增强用户信任。[12]
(4)辅助出版物信息推广、展示与访问,提高出版物销量。大语言模型可生成摘要信息,方便经销商和读者获取出版物信息,也可根据分销商的销售记录、盈利状况、市场定位、市场动向撰写出版行业资讯与报告,帮助经销商更好地制定订购方案,还可根据读者阅读水平、兴趣和阅读历史为其推荐网站、电子书、杂志、音乐等。
5. 辅助出版机构规划与运营,推进管理流程精细运作
(1)辅助识别出版产业发展方向与任务。大语言模型基于海量数据能分析出人类无法立即识别的趋势与模式,其可行的分析事项包括:生成关于数字出版市场趋势的报告或摘要、分析读者消费行为趋势、分析加大资金投入评估的准确性、分析数字出版产业规划、分析高质量数字出版产业发展测评指标、分析热点选题等。
(2)辅助撰写出版單位社交媒体账号推文,加大推广力度。当前出版单位对外宣传和推荐的社交媒体平台主要有微信、微博、抖音等,须配备专门的运营策划、撰写、发布图文信息的人员,ChatGPT可在推文策划、分析、成文方面辅助编辑人员,节省运营成本。[15]
(3)辅助出版人才培训与测评,提升从业人员素养。ChatGPT以人机对话方式为出版从业人员讲授课程、解决或回答用户问题,如推荐出版术语信息、定制考试内容、阅卷评分、反馈考核结果,为数字出版从业人员提供个性、高效、私密的培训体验;制定出版人才培育和测评的合格标准,辅助出版机构人才选拔、评估与考核,提升从业人员专业素养。[16]
二、大语言模型赋能数字出版的挑战
以ChatGPT为代表的大语言模型自动化程度较高,可替代重复性较高的数字出版工作任务,节约数字出版所需时间与成本。ChatGPT是AI技术演进的一小步,但是大语言模型发展的一大步,其应用在内容真实性、合规性、合法性、伦理问题等方面存在诸多不足,距离大范围落地应用还有较长的路要走。大语言模型辅助数字出版面临如下挑战。
1. 人工智能不具人脑意识,尚未融通正确的出版观
(1)不具备文化与意识形态概念。人工智能没有意识,也就不可能有世界观。大语言模型只是机器学习模型,是对语言的处理而非理解与判断,其智能性是通过数学优化算法从预训练数据集中整理排序出最优答案,不具备站在特定立场输出内容的意识。[10]根植本土的数字出版产业具有文化属性与意识形态属性,除考虑出版内容价值外,还需兼顾所处环境的文化与政治意识形态要素,这种更为高级的内容生产要求是ChatGPT尚未达到的;“文心一言”GPT模型具备理解中国本土文化的些许优势,但仍需持续训练并具备正确的出版观,这是大语言模型时代出版业关注的要点所在。
(2)伦理意识不足。加拿大国家研究委员会的数字技术高级研究官斯蒂芬·唐斯说:“现代AI是基于大量数据集上的应用数学函数。数学函数没有‘好‘恶之分,数据中的偏见也不容易被识别或阻止。”要设计出能被广泛采用的生成式大语言模型伦理系统相当困难。[17]大语言模型开发的初衷是正向赋能人类工作、学习与生活,自然语言处理在伦理、价值观、文化理解层面发挥的作用有限,不具备情感和道德判断,可能输出不合理和不恰当的答案,容易引发群体性事故。例如Meta发布的科研辅助Galactica大语言模型因输出不恰当的种族歧视、文化优越性内容,上线仅48小时便惨遭下架,有违模型创建初心。因此,作者和编辑都需要警惕大语言模型输出内容存在的潜在伦理问题。
(3)技术垄断引发科技与资本对民众集中心化的思想与意识形态控制。ChatGPT的成功得益于巧妙的技术组合,打造比肩其技术效果的模型难度较大,某一应用长期占领种子用户市场,容易形成技术垄断局面。大语言模型越成功,提供的答案也越精准,当全民都依赖和相信某一模型时,就容易捧出一个无所不知的权威“上帝”。从搜索引擎的发展历程可知,互联网大厂掌握核心的预训练数据集,为科技与资本巨头对全民集中心化的思想与意识形态控制提供了得天独厚的便利条件,须采取规范措施。
2. 预训练数据受质量限制,输出有偏见或错误的内容
(1)预训练数据集存在数据污染现象,输出内容带有偏见或错误。大语言模型的本质是依据预训练数据统计分析,将预测的答案输出给用户,其关键在于数据是否正确、完整、全面、有逻辑。[9]而当前训练所用的海量自然语言数据多是在线文本数据,其中不乏谣言、偏见和过时信息。
(2)自然语言处理奖励模型择优机制,致使内容输出单一有偏见。大语言模型的数据统计生成模型通常具有统计显著性特征,其答案输出较为单一,缺乏多元性,这种越单一的答案通常越具偏见性,在人文社科领域尤为明显。[17]
(3)专业领域数据采集力度不足,需平衡数据合规性和全面性之间的矛盾。训练ChatGPT模型所用的数据集要符合行业规范,需权衡多元主体与部门要求,以实现经济效益和社会效益的最大化。例如隐私数据和部分产业专用数据等未被纳入训练数据集范围,否则易导致大范围信息泄露,影响社会安全。在出版行业,ChatGPT在选题策划、市场规模、用户画像等方面的预训练数据有限,甚至存在知识盲区,这会降低选题、行业动态、用户行为分析结果的可信度,甚至出现事实性错误。然而,部分数据的恒久缺失必然导致相关回应存在偏差与缺陷,平衡这一矛盾是大語言模型推广应用落地要深思的关键问题之一。
(4)大语言模型训练需耗费较长时间与巨大财力,无力实时同步新数据,具有延迟性。模型会因数据残缺不全生成不相关的、通用的、重复的答案,甚至有违常识。[9]例如ChatGPT当前仅能基于2021年的数据集做出回应,对新近话题的回应可能还处于空白期,也可能输出有违事实的创造性答案,这需要作者、编辑、运营人员人工干预,审核内容后再出版,否则未经审查的答案可能会误导领域知识薄弱的用户。
3. 知识产权问题争议不断,用稿质量“劣币驱逐良币”
(1)网络数据爬取具有侵权风险,内容生成存在知识产权之争。大语言模型应用进一步放大了数字网络时代就存在的作品权属不明这一问题,[18]文本版权状态不明的情形将成为常态,原因在于预训练数据抓取自网络文本,再通过深度学习技术进行加工处理,使得内容输出更有逻辑。数据库、网页、APP等通常设置数据使用条约,但此类数据授权不一定充分和到位,如对受著作权保护的素材,直接引用可能会涉及学术伦理问题,增加GPT模型侵权的风险,这是数据挖掘带来的潜在知识产权问题。[19]诚然,该模型可生成受版权保护的内容,但前提是模型的使用符合知识产权法规和学术伦理规范,如在必要时须获得版权人许可。[16]
为规避学术不端问题,拥抱或绞杀大语言模型应用的争议不断。持接纳态度的编辑部认为:一方面,ChatGPT不能承担法律责任,出版单位不能赋予其作者资格,对此,全球知名学术期刊《自然》(Nature)、《细胞》(Cell)编辑部明确声明任何大语言模型工具都不能列为论文作者;另一方面,ChatGPT生成的内容需在文中标注引用或声明,大型出版集团如Springer Nature和Taylor&Francis声明作者需合理利用新工具与新技术,在文献综述、致谢、方法论、参考文献等类似篇幅中声明其使用结果与使用时间,而非忽略人工智能的贡献度。持反对态度的机构认为:大语言模型的内容输出带有偏见和安全问题,为此需雇佣廉价劳动力人工标注带有风险的数据,这种劳动剥削有违人权主义。同时,人类的思考能力与创造能力会被机器替代,造成个体创造力下降。因此荷兰拉德堡德大学的计算认知科学家Iris van Rooij呼吁抵制此类模型,[20]《科学》(Science)杂志要求所有论文中都不得使用ChatGPT或其他任何人工智能工具生成的文本,中国著名科幻杂志《科幻世界》拒收ChatGPT等的AI投稿。
(2)自动化写作使得知识创造商品化,出版内容呈现单一、机械化特征。自动化内容生成意味着写作不再是知识创造与输出,而是标准化的任务流,出版物出版成了纯牟利的商品。AI生成的文本(尤其是创造性强的文学、艺术等)难以捕捉人类复杂和细微的情感,难以生成与人类产生情感共鸣和富有洞察力的文本内容,出版物的多样性、原创性、细腻程度降低。[21]
(3)利用大语言模型快速成稿与投稿加大编辑部审稿负荷,稿件质量出现“劣币驱逐良币”的不良竞争局面。在大语言模型的加持下投稿数量猛增,编辑部既要处理大量稿件,还需花费更大成本辨别AI生成的内容,工作负担增大。例如《科幻杂志》(Clarkesworld Magazine)在收到大量AI生成的投稿后不堪重负暂时关闭投稿渠道。针对大模型书写的稿件增多现象,亚马逊特设新书籍类别Books about using ChatGPT,即用ChatGPT撰寫的图书。由此,自动化写作使得市场上将会流通大量劣质出版物,优秀原创作品可能丧失发表机会,部分作家可能面临失业。
4. 技术与数据可及性不公,加剧形成信息鸿沟现象
(1)技术可及性不公,信息供给不均。以复旦大学版MOSS为代表的我国大预言模型最大短板是中文网页干扰信息较多(如广告),数据清理困难较大,有些回答逻辑不清甚至有违事实,整体上中文处理水平不高,比肩ChatGPT性能还有较长的路要走。国内专家预判ChatGPT从数据、算力、模型等维度上领先“文心一言”一至两年,概括起来为OpenAI第一梯队、Google第二梯队、百度第三梯队。[22]OpenAI的服务只能采用微软API接口,即不允许私有化部署,接口单一无法与机构业务深度关联,无论是出于数据安全考虑还是使用的便捷性都不利于在中国落地。打造出版业专用的GPT成本过高,出版机构可等待比肩ChatGPT的中国化模型推出后再考虑私有化部署或应用改造。
(2)数据优势以英文文本为主,中文内容生成质量则稍显逊色。用户获取信息的平等性受其所用模型和检索话题、领域、时间等因素影响,ChatGPT所用算力资源大、标注成本高,处理英文数据更具优势,LLaMA文本训练重点是拉丁语和西里尔字母,而百度推出的“文心一言”模型预训练数据以互联网上的汉语文本数据为主,各大语言模型所用的数据集质量不一。[9]受中文汉字信息复杂度和在线文本数据质量影响,我国大语言模型内容输出效果暂时难以比肩ChatGPT。
(3)用户提问水平不一,答案质量不同。大语言模型无论是替代现有搜索引擎还是嵌入搜索引擎都会加剧“信息茧房”现象,严重程度远超推荐系统时代。ChatGPT在输出答案之前需要拆分理解用户输入的问题,提问中的关键信息要素会影响其对内置知识的调用,极端情况下可能出现不同表述的同一个问题的答案天差地别。发挥其效用要求用户理解自然语言处理的流程,多角度拆解和重置问题以获取理想答案,因此用户既要懂得领域知识,也要了解计算机思维。[9]从实践来看,若用户提问用语模糊不清,输出的答案也似是而非;也可能输入清晰问题,答案却模糊不清。除去客观因素,答案检索质量受信息素养和领域知识差距影响,会不成比例地影响边缘化群体,将使不同水平用户之间的信息鸿沟持续加大,致使用户认知更加单一,观点更加顽固,甚至相信谬论。
5. 加大内容价值甄别难度,抬高用户信息素养门槛
(1)极具人情味的对话搜索方式降低用户甄别信息的警惕心理,对用户采纳正确内容的信息素养和领域知识提出了更高要求。ChatGPT的进化成长路径之一是基于人类反馈进行强化学习,持续与其交互才能深入理解用户意图,继而主动输出用户偏好的答案。不同于传统搜索引擎列举的一条条冷冰冰的链接,ChatGPT以极具人情味的对话方式提升用户对其输出内容的信任程度,降低对信息可信度的警惕心理,[23]这种更高明的骗术使普通用户在有限的领域知识指引下默认其回应正确合理,而模型因数据质量有限会输出带有偏见或错误的答案,也会因为大量用户滥用该技术训练模型学习错误答案而输出误导性信息。
(2)生成内容难以溯源,参考数据不透明,抬高了用户甄别信息可信度的门槛。不同于传统搜索引擎列出的链接,大语言模型输出的内容是处理、排序后输出的答案。因ChatGPT类应用生成答案的原始数据来源不透明,作者难以溯源参考文献的权威性和可信性,[8]判断内容可否采纳的难度加大。[23]
(3)大语言模型善于扩充或压缩文本篇幅,或有违作者原意。ChatGPT优势在于创造新文本,有时会遗漏或变相叠加重要细节,例如将一段话压缩为一句话,或将一个关键信息扩充为一句话。作者和编辑在利用ChatGPT查询内容,校对、检测稿件时,须辨别其内容改写是否有必要。[24]
结语
相较大语言模型对文本的处理与生成效率,人脑的短板在于存储信息少、算力不足,ChatGPT类模型的出现为从业人员补充和扩展智能,推动数字出版高质量发展,而出版业也要思考如何应对上述挑战。
大语言模型时代,数字出版从业人员要放大和强化作为自然人最为本能的优势,要做到拥有正确的出版观、价值观与使命感,具备能够鉴别大语言模型创作内容的有效性、客观性、有用性的专业素养;具备多角度、多元化、多语种问题表述与检索能力,最大化、多角度、系统性地检索答案,辅助内容生成与编辑;根植具体情境提出重要且有意义的问题,善于从学科和产业实践中发现问题,再借助人工智能内容生成工具获取答案,在完成个体工作的同时训练优化大语言模型;发挥个体想象力和创造力,创建更为新颖优质的内容,成为大语言模型预训练数据的供给者。总之,没有人类创造原始数据,再强大的人工智能内容生成工具也是“巧妇难为无米之炊”,人的角色难以替代。
参考文献:
[1] 全球首本ChatGPT撰写、AI翻译校对的图书将于下周在韩国出版[EB/OL].[2023-02-20].https://m.jiemian.com/article/8929512.html.
[2] 赵宇佳,姜进章. 智能出版的变革趋势与策略[J]. 编辑之友,2023(1):64-72.
[3] 毛渝川,蒋庆. 首本由ChatGPT写的实体书出版,国内出版界如何应对? [EB/OL].[2023-02-28].https://www.sohu.com/a/647497296_116237.
[4] Aljanabi M. ChatGPT: Future Directions and Open possibilities[J]. Mesopotamian Journal of CyberSecurity, 2023(1): 16-17.
[5] How Nature readers are using ChatGPT[EB/OL].[2023-02-20].https://www.nature.com/articles/d41586-023-00500-8.
[6] 孙美娟,吴楠. ChatGPT给人文社会科学带来的机会大于冲击——访南京大学社会学院教授陈云松[EB/OL].[2023-02-23].中国社会科学网,http://www.cssn.cn/skgz/bwyc/202302/t20230223_5594608.shtml.
[7] 王树义,张庆薇. ChatGPT给科研工作者带来的机遇与挑战[J/OL].[2023-02-23].图书馆论坛,http://kns.cnki.net/kcms/detail/44.1306.G2.20230223.2231.002.html.
[8] Jiao W, Wang W, Huang J, et al. Is ChatGPT a good translator? A preliminary study[EB/OL].[2023-05-19].Cornell University,https://arxiv.org/abs/2301.08745.
[9] Bracey R. ChatGPT: Some uses for editors. CyberText Newsletter[EB/OL].[2023-01-21].https://cybertext.wordpress.com/2023/01/21/chatgpt-some-uses-for-editors/.
[10] Goldrick-Jones A. ChatGPT and the Role of Editors. Editors Toronto[EB/OL].[2023-02-06].https://editorstorontoblog.com/2023/02/06/chatgpt-and-the-role-of-editors/.
[11] Huh S. Emergence of the Metaverse and ChatGPT in Journal Publishing after the COVID-19 Pandemic[J]. Science Editing, 2023, 10(1): 1-4.
[12] 徐賜豪. 给数字人装上ChatGPT?多家公司这样回应[EB/OL].[2023-02-22].https://finance.sina.com.cn/blockchain/roll/2023-02-22/doc-imyhpvzy8626660.shtml.
[13] 元宇宙首个时尚IP:全球第一个ChatGPT主编上任![EB/OL].[2023-02-22].https://t.qianzhan.com/caijing/detail/230223-b18a732d.html.
[14] 杨名宜,喻国明. 赋能与“赋魂”:数字虚拟人的个性化建构[J]. 编辑之友,2022(9):44-50.
[15] Bruell A. BuzzFeed to Use ChatGPT Creator OpenAI to Help Create Quizzes and Other Content[EB/OL].[2023-01-26].https://www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660.
[16] Hern A. AI bot ChatGPT Stuns Academics with Essay-Writing Skills and Usability[EB/OL].[2023-01-04].https://www.theguardian.com/technology/2022/dec/04/ai-bot-chatgpt-stuns-academics-with-essay-writing-skills-and-usability.
[17] 叶妮. 虚实共生:数据驱动时代的算法主体性、中介关系与治理逻辑[J]. 编辑之友,2023(5):59-65.
[18] 姚鹤徽. 智能时代出版者版权风险与防范之策[J]. 编辑之友,2023(4):84-89.
[19] 丛立先,李泳霖. 聊天机器人生成内容的版权风险及其治理——以ChatGPT的应用场景为视角[J]. 中国出版,2023(5):16-21.
[20] 赛先生. ChatGPT等新工具,将如何影响科学的发展?[EB/OL].[2023-02-23].https://mp.weixin.qq.com/s/VN87ujaEJeyTjZ0dyhLK8w.
[21] Bhattacharjee M. Should publishers fear the industry's next big disrupter? ChatGPT answers. What Is New in Publishing? [EB/OL].[2023-01-04].https://whatsnewinpublishing.com/should-publishers-fear-the-industrys-next-big-disrupter-chatgpt-answers/.
[22] IDC:2022中国大模型发展[EB/OL].[2023-02-26].https://www.eet-china.com/mp/a198216.html.
[23] Stokel-Walker C. AI Chatbots are Coming to Search Engines-can you Trust the Results?[EB/OL].[2023-05-16].https://www.nature.com/articles/d41586-023-00423-4.
[24] 沈书生,祝智庭. ChatGPT类产品:内在机制及其对学习评价的影响[J]. 中国远程教育,2023,43(4):8-15.
基金项目:广东省教育科学规划项目“面向大学生传统文化教育的VR古籍游戏化系统模型与实践研究”(2022GXJK416)
作者信息:张宁(1990— ),女,陕西渭南人,博士,北京师范大学文理学院讲师,主要研究方向:数字出版、古籍文献活化利用;西蒙·马奥尼 (1952— ),男,英国伦敦人,博士,北京师范大学未来教育学院教授,伦敦大学学院信息研究系退休荣誉教师,主要研究方向:数字人文、数字出版、图书营销等。