ChatGPT对学术期刊的挑战及其应对策略
2023-11-12张新玲谢永生章权
文/张新玲 谢永生 章权
2022年11月30日,美国OpenAI研发的聊天机器人程序ChatGPT一经发布便迅速火爆全网,引起全球互联网界、学术界及产业界的关注和热议。OpenAI此前还发布了GPT-1、GPT-2和GPT-3,ChatGPT是基于第三代大模型GPT-3的升级产品,是在GPT-3.5上进行微调而诞生。2023年3月14日,智能水平更高、专业学术基准性能及图片识别能力更强的GPT-4发布,再次引爆了人们对ChatGPT的关注。与此同时,我国的人工智能技术也取得了很大的进展,2023年3月16日,国内首款对标ChatGPT及GPT-4的大语言模型“文心一言”正式发布。此外,国内大量“类ChatGPT大语言模型”也蜂拥而出,也可用于文本生成。ChatGPT预示着一个新时代的启幕,将极大推动人工智能发展乃至信息产业革命。
ChatGPT被称为学术界的“灵丹妙药”,可以帮助研究人员阅读文献、分析数据、撰写论文,是研究人员不可多得的学术研究助手。但ChatGPT缺乏准确、充分传达复杂科学概念和信息所需的知识和专长的能力,缺乏评估处理信息真实性和可靠性的能力,因此其最显著的缺点是生成的信息不总是准确的,即ChatGPT输出的论文有可能在数据、结论、意识形态、科技伦理方面存在错误和误导性信息,这对学术出版尤其有害,加上错误信息还没有高效的识别软件,因此,相关内容审查需要作者、编辑及审稿人的仔细核实、验证及修改,需要花费大量的人力和时间。
ChatGPT属于人工智能,但又不是普通的人工智能,在很多方面远超普通人工智能。社会层面已开启ChatGPT融合发展及对策研究,如ChatGPT与教育、新闻出版及图书馆行业等的相关研究。因此,本文重点研究ChatGPT等对学术期刊的挑战及对策,以期在理论上丰富人工智能时代学术期刊发展模式的研究内容,在实践上帮助期刊积极应对ChatGPT带来的挑战,及时制定发展规划,调整发展路径,为构建新时代学术期刊的发展模式提供参考。
一、ChatGPT对学术期刊的挑战
对学术期刊来说,ChatGPT可协助审稿、策划组稿、编辑加工等,提高期刊出版发行和学术传播的效率和质量,给学术期刊带来新的发展机遇,但由于ChatGPT输出的学术论文存在不确定性,也给学术期刊带来很大的挑战。
(一)知识产权风险及著作权问题
人类技术发展史表明,新技术的广泛应用将会引发新的法律风险。ChatGPT强大功能的背后,也暗藏很多法律风险隐患,首要的就是知识产权风险和著作权问题。在数据源获取阶段,ChatGPT对数据集的使用可能涉及对原始作品权利人的知识产权侵权风险;在内容生成阶段,ChatGPT或其权利人对其生成的信息是否享有著作权,是否会产生知识产权法律风险,还存在争议。解决这些法律风险问题对未来ChatGPT的技术研发和应用尤为重要。
1.ChatGPT应用过程中的知识产权风险。ChatGPT在学术论文的生成过程中用到大量人类作者创作的文字作品,这可能侵犯了他人的著作权。ChatGPT不直接抄袭他人的文本,而是形成对他人作品的一种重新的组合。而《著作权法》本身并不保护人的观点或思想,保护的是这种观点或思想的表达形式,所以ChatGPT使用人的语言的模式很可能会规避掉《著作权法》对著作权的保护。此外,有学者指出,ChatGPT用3000亿单词的语料数据和1750亿的参数,很大程度上依赖CommonCrawl、WebText、维基百科和书籍语料库等海量数据,这就涉及“文本数据挖掘”是否需要相应的知识产权授权及是否侵犯“复制权”的问题。OpenAI公司是否取得了这些公司的授权?使用这些数据是否存在知识侵权风险?有学者认为ChatGPT是一个高科技剽窃系统;有国外新闻媒体指责OpenAI在不支付任何费用的情况下使用他们的文章来训练ChatGPT。ChatGPT在学术论文创作过程中所用数据面临很大的知识产权风险,若该问题得不到妥善解决,可能会使ChatGPT辅助生成的学术论文受到侵权的影响,这种现象不仅影响学术论文的知识传播及使用,还会影响作者的声誉和学术期刊的发展。
2.ChatGPT辅助生成的学术论文的著作权问题。ChatGPT生成的内容著作权归谁,人工智能是否应被承认为作者等问题引起学界和业界人士的激烈争论。学术界存在两种不同的观点:一种认为ChatGPT有著作权和署名权。《著作权法》的一个重要功能是保护著作权,如果是人工智能机器人的生成物由人类署名,就算抄袭,因此,应给人工智能生成物署名。另一种认为:“权利—义务—责任”一体,著作权人应就所生成的内容负责,权利和义务是相伴相生的,人们如果给ChatGPT权利,那它必须承担义务,如果存在侵害著作权的问题,同样应由著作权人来承担相应责任,但ChatGPT只是一个信息处理工具,无法为生成的内容承担责任,所以责任还是在ChatGPT的使用者身上。因此,人工智能不具备主体资格属性的独创性,不存在著作权意义。
从Web of Science数据库调查可知,从2022年11月ChatGPT发布以来,截至2023年4月12日,仅有5篇论文将ChatGPT列为共同作者。从目前的呼声及学术期刊发布的声明看,人们大多数倾向于ChatGPT辅助生成的论文无相应的著作权。Nature发表声明“任何大型语言模型工具(比如ChatGPT)都不能成为论文作者”,Science明确禁止将ChatGPT列为论文的合著者,Springer-Nature声明不能将ChatGPT列为作者,eLife主编迈克尔·艾森(Michael Eisen)表示ChatGPT不可能是作者。我国也有期刊做出了回应,《暨南学报(哲学社会科学版)》不接受ChatGPT单独或联合署名的文章。
(二)ChatGPT辅助生成论文的出版规范不明
ChatGPT具有强大的数据搜集和智能文本生成功能,但在准确性和创新性方面存在缺陷:其缺乏评估处理信息真实性和可靠性的能力;论文的生成是执行“搜索—整合—生成”的指令过程,不太具备创新能力,很难生成新的观点和想法,没有真正意义上的思考创造。这引起了期刊出版者的质疑,ChatGPT准确性和创新性的缺陷能否承担学术论文的辅助写作的重任?ChatGPT辅助学术论文写作的规范是什么?如何扬长避短,合理利用ChatGPT的优势同时避免其错误信息?当前对此还缺乏相应的规范指导,不同的学术期刊各自为政,比较混乱,影响了学术期刊行业的发展。如Science禁止在投稿论文中使用ChatGPT生成的文本;Nature、Critical Care、Belitung Nursing Journal等20余个期刊的相关文章在致谢中将ChatGPT的应用情况简要说明,但不够详细。ChatGPT在学术界扮演的角色越来越重要,相关部门和期刊出版者应尽快出台ChatGPT辅助学术论文的使用规范,引导作者合法合理地使用ChatGPT。
二、学术期刊的应对策略
比尔·盖茨说:“ChatGPT像互联网发明一样重要,将会改变世界。”面对越来越强大的ChatGPT,宜疏不宜堵,封堵政策是最不可行的,学术期刊应采取积极开放的态度,勇敢应对时代进步与技术发展带来的挑战。
(一)加大审稿力度、增加审稿内容、丰富审稿形式
审稿是决定学术期刊文章质量的关键环节,目前学术期刊审稿制度主要是“三审制”,而ChatGPT的出现给当前的审稿制度带来一个很大的考验。美国西北大学的一项研究显示,ChatGPT撰写的论文摘要和内容竟然“骗”过了期刊编辑和审稿人。因为ChatGPT输出的论文存在信息准确性低和原创性差的问题,需要期刊编辑和同行评议人对论文进行更加细致、专业的审查和筛选。ChatGPT背景下学术期刊必须更新审稿方式,提高审稿质量,更加注重学术论文的知识准确性和创新性审查。
1.严控编辑初审环节,提高审稿质量。按当前的审稿程序,初审主要审查重复率、研究方向、研究价值、是否涉及敏感话题等,这些都是大方面的,很少涉及文章的详细内容。为防范ChatGPT的滥用,需改进传统的初审模式,加大初审力度,重点关注文章的内容错误,包括数据、伦理、政治性审查、参考文献等,为文章复审做好铺垫。在送审之前应加强与作者的沟通和交流,为作者提供详细的修改意见,以保证学术论文内容的准确性和科学性,从源头消灭学术论文中的错误信息。
2.增加复审内容,丰富复审形式。其一,注重内容准确性审查。传统上复审的主要内容是:创新性、科学性、学术不端、先进性及重要性。当前,复审要增加专业内容准确性审查,包括数据是否可靠、理论依据是否可靠、是否具有明显政治倾向等。建议期刊编辑将重点审查内容罗列在审稿单上,引导审稿人的审稿思路。
其二,丰富审稿形式。智能时代复审作为有效的学术质量控制机制也应不断创新发展,不能局限于传统的复审模式。小组/协作式同行评议模式比较适合论文各项内容的全面细致审查,该模式是基于团队的同行评议方法,多名审稿人对稿件进行评议,共同提交综合审稿意见完成审稿,弥补审稿人知识点的盲区,有助于各学科论文内容信息的全面审查。
(二)明确制定ChatGPT的使用规范
可以预见的是,在未来ChatGPT等人工智能技术很难禁用。期刊必须制定ChatGPT的使用规范,使ChatGPT真正服务于期刊和作者。规范的制定要建立在详细了解ChatGPT在辅助学术研究方面的优势和局限的基础上,搞清楚ChatGPT在哪些方面可替代人类,哪些是人类必须要主导和把关的。当前,学术期刊界对ChatGPT的主要使用规范有两种:禁止使用和限制性使用。鉴于ChatGPT在数据搜集、优化整合等方面优于人工,但在创新性及准确性方面尚有缺陷,对原创性要求高的期刊可禁止使用ChatGPT,其余可采取限制性使用。综合考虑,因当前ChatGPT在创新性及准确性方面存在的弊端,限制性使用可能是比较适合的选择。可建议研究者在文章的构思、数据搜集、优化整合、可读性提高方面使用,但在学术论文的关键部分不能使用,在论文创作中用过ChatGPT的部分,应在文章适当的地方做明确且详细的说明,以便于编辑对ChatGPT生成的内容进行审查。
(三)提交并公开论文原始数据
为提高数据的透明性,更有力地阻止ChatGPT输出的错误信息,期刊可要求投稿者提交原始数据和程序、处理数据、研究材料、公式推导过程、质性研究资料、总结后的详细数据等相关附件,并在期刊网站上公开原始数据。实际上,国内外很多期刊尤其是实验科学领域已采用公开原始数据的模式,以提高科学研究的可重复性(在学术研究领域,可重复性指的是针对同一研究问题,其他研究者的独立研究可以借助作者提供的方案再现实验结果)。例如,我国期刊《中国工业经济》、国际期刊Nature及子刊也要求作者提供与论文结论有关的所有数据。未来,越来越多的研究者会将ChatGPT用于学术论文写作,公开论文原始数据将是有效预防滥用ChatGPT的有效举措。
(四)加强编辑使用人工智能的培训
ChatGPT在学术界的应用也带来期刊界对人工智能技术人才的巨大需求。当前我国很多领域都缺乏人工智能人才,当务之急是对期刊编辑人员进行规范化、专业化技能培训,使编辑人员熟练掌握数据搜集、智能审稿系统的应用,将所学应用到期刊的审稿及编辑出版中,提升编辑人员的信息素养。通过对近几年开展的编辑业务培训的调查,发现人工智能相关的课程已出现在编辑业务培训中,如中国期刊协会开设的“智能审校技术在期刊审稿及编校质量提升中的应用”课程,帮助编辑学习智能审校技术,受到大量编辑的好评。但当前关于人工智能的培训较少,需要增加人工智能培训的相关课程。
三、结语
ChatGPT、GPT-4及“文心一言”等人工智能技术的发展及应用尚在起步阶段,未来可能给学术期刊带来更大机遇和挑战。人机协同时代,学术期刊应加快与人工智能融合发展,强化学术期刊人工智能人才队伍建设,制定明确的人工智能使用规范,引导作者合理合法地使用人工智能工具,构建积极、健康的学术环境,共同促进学术研究的繁荣发展。