ChatGPT在社科期刊中的应用与风险防范
2024-10-23赵玥
【摘 要】随着ChatGPT等生成式人工智能的兴起,其在学术研究、期刊发展等领域中的应用越来越广泛。本文从ChatGPT在社科期刊中的应用入手,探索其在应用过程中存在的风险,包括数据隐私与伦理问题、内容质量与学术诚信风险、技术依赖与职业发展受限等。基于此,提出相应的防范措施:建立完善的数据保护机制、强化内容审核与监管、培养专业人才队伍等。
【关键词】ChatGPT;人工智能;社科期刊;辅助写作;风险防范
自20世纪末以来,互联网和数字技术的快速发展推动了全球信息传播的革命性变革。社科期刊作为社会科学研究成果的重要传播渠道,其受众群体、内容形式、传播方式等也在发生深刻变化[1]。一方面,读者对于内容的需求越来越多元化、个性化,传统的、单一的期刊内容已难以满足读者的需求;另一方面,大数据以及ChatGPT等生成式人工智能出现与应用为社科期刊提供了丰富的数据资源和技术支持,社科期刊迎来了新的发展机遇与挑战。因此,ChatGPT在社科期刊中的应用与风险防范逐渐成为学术界和业界关注的焦点。
一、ChatGPT在社科期刊中的应用
(一)内容生成与辅助写作
在社科期刊的内容生成和辅助写作方面,ChatGPT主要应用于选题策划环节。在期刊选题策划中,ChatGPT可以根据社会热点、学术前沿等生成一些选题建议,供编辑参考,这些建议可以从多个维度提供思路,如结合当前政治经济议题,提出相关的选题设想;根据最新的国内外研究动向,推荐一些原创性课题;甚至可以根据数据挖掘和情报分析等,找出某些社会问题背后的学术问题,这些建议的新颖性与前瞻性较强。编辑可以借此拓展思路,从更多视角审视这些选题,并结合期刊定位、读者特点,筛选出其中有价值的选题方向,这不仅可以丰富期刊题材,还使版面内容更符合用户诉求。例如,ChatGPT可以跟踪当前环境污染、收入分配等热门社会话题,推荐一些选题思路,如环境污染对儿童身心发展的影响,收入差距对社会向心力的冲击等。编辑可以在此基础上,考量是否适合本刊读者特征,选择合适题材。此外,ChatGPT也可以根据机器学习、大数据分析等前沿技术,为编辑提供交叉学科的选题方向[2]。
(二)编辑工具与审稿辅助
ChatGPT作为一种强大的自然语言处理工具,其编辑工具与审稿辅助功能在社科期刊中扮演着重要角色,不仅可以提高编辑工作的效率,还可以辅助其确保论文质量和准确性,在社科期刊中的应用具有巨大潜力。其一,文稿格式检查与修正。在文稿录用前,编辑人员可以利用ChatGPT自动扫描稿件内容,检验论文结构、段落格式、参考文献匹配度等情况。同时,ChatGPT可以通过生成编辑建议,协助作者修改不规范的引用标注、图表标号、统计表示等问题,确保文稿符合目标刊物的体例要求,这些功能可以提高编辑人员的工作效率,使其能将更多精力放在审读文稿的学术质量上。其二,写作质量评估与反馈。在组织同行评审前,编辑人员可以利用ChatGPT的语言生成能力,自动检测论文的语言流畅度、逻辑性、观点连贯度等指标,识别出语言描述模糊、逻辑表达欠通顺的段落,这可以辅助编辑人员快速判断文章写作质量,对需要修正的地方给出明确反馈。同时,ChatGPT也可以直接为作者生成语言优化表达,提升论证说理的准确度。其三,审稿意见综述与建议。在文稿修改阶段,编辑人员可以将多个评审专家的审阅意见汇总输入ChatGPT,让其自动提取共性内容,指出多位评审者的共识性建议,并结合论文主要内容生成综合的修改意见,这可以避免重复性工作,帮助作者快速抓住多数评审者的主要关注点,有针对性地修正完善论文内容。
(三)个性化推荐与用户互动
ChatGPT在个性化推荐与用户互动方面的应用具有广阔前景。通过充分发挥ChatGPT的语言生成和分析能力,可以提升编辑工作效率,满足读者需求,提升用户体验,促进期刊发展和进步。其一,知识图谱驱动的精准推荐。期刊编辑可以通过整合用户历史浏览与下载数据,构建用户兴趣知识图谱,实现对用户研究方向及领域偏好的精确描绘。在此基础上,ChatGPT可以通过知识图谱不断学习更新,实现对用户长期学术兴趣的捕捉。例如,通过分析某博士研究生过去一年在期刊网站上的检索关键词、详情页浏览时长等数据,可以判断该用户主要关注计量经济学和劳动经济学交叉领域的内容。当期刊每周新增这些主题相关论文时,ChatGPT可以基于用户知识图谱主动推送新的文章,帮助用户跟进领域进展,这实现了基于知识图谱的用户兴趣建模和精准内容匹配,大幅提升期刊推荐的个性化体验。其二,用户问答与互动优化。对于期刊用户的信息查询,编辑也可以通过ChatGPT提供智能问答和主动式服务。例如,用户在期刊投稿系统中咨询期刊属性、审稿流程等常见问题时,ChatGPT可以快速自动响应,减少编辑重复劳动。而在稿件处理等待期间,ChatGPT还可以主动推送审稿进度提示,避免用户的追问,优化沟通体验。
二、ChatGPT在社科期刊应用中的风险
ChatGPT在社会科学期刊中的应用,虽然带来了诸多便利,但也伴随着一系列风险,这些风险包括数据隐私与伦理、内容质量与学术诚信以及技术依赖等多个方面,需要期刊工作者认真对待,并采取相应的措施来规避和管理。
(一)数据隐私与伦理问题
ChatGPT系统所基于的数据主要来自网络上已公开的大量文本,这些文本是非结构化数据,包含了许多用户隐私信息和个人数据,一旦这些数据进入ChatGPT系统,将面临被套取、利用和传播的风险。具体来说,这些非结构化文本中常包含用户的姓名、邮箱、地址、电话等敏感隐私信息,这些信息一旦进入ChatGPT训练集,就可能被公司利用或通过系统输入输出渠道泄露出去。同时,文本中也可能包含种族、性取向等敏感信息,也会引发数据歧视和伦理争议。此外,ChatGPT生成的内容也可能包含或引用某些敏感个人信息,给社科期刊文章的信息安全与隐私保护带来重大隐患。因此,社科期刊在利用ChatGPT撰写或修改文章时,应避免敏感信息的泄露。
(二)内容质量与学术诚信问题
ChatGPT生成内容的质量与学术诚信也将产生多重风险。其一,系统生成文本的事实准确性和逻辑性均无法保证。ChatGPT是依据语义关联和概率匹配来拼凑语句,无法判断内容的真假、对错,也无法保证语义和逻辑的连贯一致,这意味着其生成的社科文章极可能出现数据错误、政策误读、理论偏差等问题。其二,ChatGPT目前的生成能力还较为有限。在复杂的学术概念阐释、模型建构、命题论证等方面应用空间有限,这意味着其生成内容的深度与创新性都大打折扣。其三,ChatGPT生成内容的可追踪性和可审计性有限。人们无法判断某句表述是否原创,也无法分析其生成逻辑过程,这对文章的学术误导和抄袭判断带来困难。因此,如若社科期刊直接利用ChatGPT生成文章,或者作为辅助工具修改文章,都将严重损害学术诚信,不仅增加了错误信息传播和理论误导的风险,也给学术评价和反思带来难题。
(三)技术依赖与职业发展受限
在社科期刊中,如果过度依赖ChatGPT,将会对期刊编辑等相关从业人员的职业发展产生一定影响,这主要体现在以下三方面:其一,编辑过度依赖ChatGPT进行选题策划和稿件审读,会削弱自己的学术判断力和专业敏锐度。长期依赖会使编辑丧失选择优质稿件和把控期刊风格的能动性,这不利于编辑进一步提高学识修养,扩大学术视野,也制约了专业能力的发展[3]。从职业发展角度看,编辑将难以通过扩充学识、提高鉴别力获得职称晋升。其二,编辑将成为ChatGPT技术的“附庸”,过度依赖语言模型生成文章,也会削弱自己的写作能力、语言组织能力,一方面影响了自己的学术论文写作,另一方面也难以胜任撰写高质量编者按、评论文章等任务。其三,一旦ChatGPT等技术突然消失,过度依赖这些技术的编辑会面临巨大冲击。由于构建内容的能力严重退化,选题策划和组稿能力大幅下降,可能面临工作压力,职业生涯也会受到影响。
三、社科期刊应对人工智能的措施建议
(一)建立完善的数据保护机制
鉴于ChatGPT等人工智能技术中所涉及的数据隐私与伦理风险,社科期刊有必要建立完善的数据保护机制,可以从制定数据收集和使用规范、建立用户申诉机制等层面入手。第一,制定严格的数据收集和使用规范。社科期刊可以要求利用ChatGPT等工具辅助撰写与修改文章的作者提交数据来源说明,明确说明文中引用数据的具体出处,避免使用涉及用户隐私或敏感信息的数据集[4]。同时期刊也应制定详细规范,规定数据引用与处理的底线与原则,杜绝非结构化文本中用户隐私信息的泄露风险。此外,期刊还可以要求作者在论文中加入数据处理部分,详细说明对非结构化文本信息进行脱敏处理的技术手段,以消除文章中直接或间接引用的个人敏感信息。只有制定严格的数据使用规范,才能从源头减少数据隐私泄露的风险。第二,建立用户申诉与通报机制。社科期刊应向用户与作者公开期刊使用和引用数据的规范,并建立信息安全申诉机制。一旦发现期刊文章中存在泄露隐私的风险或事件,可以通过申诉渠道快速干预与修正。申诉渠道可以设置专门团队,使用安全技术检验文章与数据源的可靠性,避免用户信息被滥用。此外,期刊也应当定期发布使用数据与信息技术的监测报告,通报可能存在的安全隐患,确保用户和作者的信息权益。
(二)强化内容审核与监管
针对ChatGPT等工具生成内容存在的质量与诚信风险,社科期刊有必要从强化内容审核和加强监管机制两个维度采取应对措施。第一,在内容审核方面,社科期刊需要建立系统性的人工智能辅助生成内容审查机制。具体来说,期刊在设置同行评议和编辑评审流程时,应增加关于文章写作中是否使用ChatGPT生成内容的必选声明。投稿作者需要明确标注论文中使用ChatGPT工具生成的段落,同时提供相应的生成记录,以便评审人员复核文章的学术可信度。在评审过程中,编辑和评审专家应重点关注ChatGPT生成内容的事实准确度、逻辑严谨程度、创新性等质量维度。对于所有利用ChatGPT工具生成的部分,评审人员都需要严格审视科学性,避免自动化偏差的风险。第二,在监管方面,学术机构应建立人工智能生成内容的监测机制。可以通过抽样复审已发表文章,判断其中是否存在ChatGPT生成内容的情况。一旦发现存在未标注的生成内容,需要求作者后补注明及提供生成细节数据。另外,还可以关注引用文章中类ChatGPT生成内容的情况,追踪其学术传播影响,避免错误信息扩散。此外,相关学术机构也可以建立ChatGPT生成内容的举报平台,供用户和作者质疑文章真实性。一旦收到举报,可以启动更严格的评审流程、请求修订或撤销发表。只有持续加强监管,才能有效减少ChatGPT生成内容对学术质量与诚信的影响。
(三)培养专业人才队伍
鉴于过度依赖ChatGPT等工具带来的技术依赖和社科专业化危机,学术期刊有必要从培养专业人才队伍的层面采取有力对策。
第一,加强编辑对人工智能技术应用的学习与培训。通过举办培训班、讲座等,使编辑全面了解ChatGPT等技术的原理、功能和局限,明确其在社科期刊中的应用场景,这可以避免编辑产生技术迷信或依赖。同时,教授编辑利用ChatGPT工具的具体操作方法,掌握合理有效应用的技巧,提高工作效率。第二,支持编辑开展人工智能相关的学术研究。鼓励编辑围绕人工智能在学术出版中的影响等选题开展调研与论文发表,不仅丰富自身的学术履历,也有利于进一步深入理解新技术对传统出版模式的冲击,从而提出应对之策或新思路。期刊可以给予资助、提供学术交流平台等支持[5]。第三,定期举办人工智能应用创新竞赛活动。组织编辑运用ChatGPT等新技术展开选题策划、文章生成等创意探索,评选出最具创新性的应用方案,这种竞赛不仅检验了编辑的技术应用能力,也有利于进一步激发编辑的创造潜能,从而驱动期刊模式与内容的升级迭代。第四,建立人工智能技术的应用伦理守则。明确规定编辑利用ChatGPT工具辅助写作时的学术诚信底线,禁止抄袭剽窃,必须原创融合。同时规定技术支持的合理使用范围,避免人工智能替代编辑的专业判断与决策,这有助于规范应用,防止形成技术依赖。
四、结语
综上所述,ChatGPT等生成式人工智能的应用是一把双刃剑。社科期刊在开放利用这一工具的同时,也必须明确其局限,防范潜在风险,最大化发挥ChatGPT为学科发展提供的动力,实现人工智能技术与社会科学研究的和谐统一。这需要学界与业界集思广益,在技术应用与伦理规范之间找到平衡,推动知识繁荣的健康自我迭代,为社科期刊的发展提供强大动力。
注释:
[1]张楠.新时代社科学术期刊高质量发展研究——以开放大学学术期刊为例[J].河北开放大学学报,2023,28(04):102-105.
[2]张明慧,玉璐,杨军.禁用还是拥抱:生成式人工智能与中国社科期刊原创把关[J].出版发行研究,2023(08):49-55.
[3]康宁.新时代社科学术期刊高质量发展路径选择[J].传播与版权,2023(13):72-74.
[4]夏雪.数字时代社科期刊“走出去”发展初探[J].中国传媒科技,2023(07):142-145.
[5]王雷.智媒时代社科类学术期刊发展路径探析[J].中国报业,2023(01):88-89.
(作者单位:江苏省农业机械试验鉴定站)
责编:周蕾