APP下载

生成式人工智能浪潮下的学术生态:机遇、挑战及应对

2024-06-23姜涛叶思雨

关键词:生成式人工智能

姜涛 叶思雨

摘要:以ChatGPT为代表的生成式人工智能(AIGC)对学术生态产生了深远的影响。AIGC可以辅助学术生产,提高知识生产效率和质量,助力学术评价决策和提升传播速度和效果。但也产生了著作权归属、学术伦理、算法黑箱、数据安全、隐私保护等方面的风险。对于AIGC带来的困扰,应该积极面对、审慎使用。政府要加大监管力度,防范可能风险;研发企业要在技术上不断完善;学界要推进研究透明;在学术生产、评价和传播各环节都应该安排人工介入,实现人机协作、共同治理,赋能学术研究与推动社会进步。

关键词:生成式人工智能;学术生态;ChatGPT

中图分类号:G40

文献标识码:ADOI:10.7535/j.issn.1671-1653.2024.02.011

Academic Ecology under the Tide of Generative Artificial Intelligence:

Opportunities, Challenges and Countermeasures

JIANG Tao1, YE Siyu2

(1.School of Journalism and Communication, Luoyang Normal University, Luoyang 471934,China;

2.School of History and Culture, Luoyang Normal University, Luoyang 471934, China)

Abstract:

Generative artificial intelligence (AIGC) represented by ChatGPT has had a profound impact on academic ecology. Researches show that AIGC can assist academic production, improve the efficiency and quality of knowledge production, help academic evaluation decision-making and enhance the speed and effect of dissemination. But there are also risks in copyright ownership, academic ethics, algorithm black box, data security, privacy protection and so on. In order to deal with the problems brought by AIGC, it is necessary to face it positively and use it prudently. The government should strengthen supervision to prevent possible risks; Manufacturers should improve their technology continuously; The academia should promote research transparency; Artificial intervention, human-computer cooperation and joint governance should be arranged in all aspects of academic production, evaluation and communication to empower academic research and promote social progress.

Keywords:

generative artificial intelligence; academic ecology;ChatGPT

生成式人工智能(AIGC)是继专业生成内容(PGC)、用户生成内容(UGC)之后利用AI技术自动生成内容的一种新型内容创作方式[1](P192-207)。2022年11月美国人工智能实验室OpenAI发布人工智能聊天机器人ChatGPT,上线短短两个月,月活跃用户数就超过一亿,堪称史上消费者数量增长最快的应用程序。ChatGPT作为AIGC技术的重要分支和最新成果,它的面世标志着通用人工智能(AGI)时代的开启[2](P123)。目前,人工智能已经适用于文学创作、新闻写作、人工智能翻译等领域,但真正将人工智能与学术写作联结起来,能够撰写科研论文的只有ChatGPT。学者利用ChatGPT进行论文撰写,可以使写作更加流畅,缩短发表时间,加速学术创新进程,且审稿人很难识别ChatGPT输出的文本内容。这必将改变人类知识生产的传统方式,推动知识生产与传播方式创新,给肩负探索未知和文化传承使命的学术界带来颠覆性革命。学术的生产和传播离不开良好的学术生态,学术生态是学术创新和发展的基础和保障。本研究尝试从学术生态这一视角,通过综合考察AIGC对学术生态影响的作用机理,建构起一套科学合理的学术生态分析框架,深入分析AIGC给学术生态带来的积极作用与潜在威胁,并提出可行性对策建议,希冀为推动学术界合理使用AIGC提供理论指导和实践借鉴,促进学术生态的良性健康发展。

一、AIGC推动学术生态变革的内在机理

“学术生态”是指学者、学术单位或研究机构、学术共同体等主体的生存状态,既包括不同学术主体之间的互动关系,又包括了学术主体与学术环境之间的相互影响[3]。学术生态包括学术生产、学术评价和学术传播3个关键环节。学术生产致力于知识生产和学术创新,离不开外部的经费支持和制度保障;学术评价体系对于各类主体的学术活动及其交互行为发挥着重要导向与调节作用,是学术主体开展学术活动的指挥棒;学术传播旨在广泛传递和扩散创新性知识,提升社会成员整体的知识水平,加快社会进步和发展。另外,学术生态内部彼此开放,既相互竞争又彼此合作,追求学术创新和进步。学术生产、学术评价、学术传播3个环节虽然在某种程度上能反映学术生态的表征,但仅仅停留在行动层面,并不能揭示学术生态的内核关系。实际上,学术生态的发展依赖学术共同体成员通过多种互动建立的研究范式和科学合理的决策体系。因此,学术生态的基本内核关系取决于学术共同体成员的互动与联系,学术人员在频繁的学术交流中达成共识,并逐渐形成制度化的行为规范。

以ChatGPT等大模型为代表的AIGC技术可以赋能论文写作与发表等知识生产的各个环节。首先,随着AIGC技术的发展,催生新的人机深度融合知识生产方式,知识生产角色将不再为人类所独享,而是由人类与人工智能大模型协作共同推动知识的生产与创新。其次,在学术评价过程中,ChatGPT可以更好地辅助编辑审查稿件,使审稿流程更加精简高效,提高学术质量。再次,在学术传播过程中,AIGC技术驱动的人工智能大模型不再仅仅是简单、被动地作为知识传输媒介,更多的是作为知识的生产者和传播媒介主动参与传播过程并重塑传播生态,展现出传播“中介”的全新角色。最后,原有学术活动内核中的“人人”关系基于AIGC的强大能力被改变,“人机融合”关系正在变成现实,带动了行动层面各个环节的变化,进而影响学术生态的整体样态和发展趋势。其内在机理如图1所示。

二、AIGC对学术生态的影响

学术生产、学术评价和学术传播作为学术生态的关键环节,受学术生态基本内核的驱动并随之发生变化,保证了学术生态的正常运作和良性发展。AIGC能深度介入学术活动全过程,学术生产、学术评价和学术传播等环节面临着一系列机遇和挑战。

(一)AIGC给学术生态带来的机遇

1.学术生产

学术生产是开展学术活动的基础和前提。如今以ChatGPT为代表的AIGC技术正逐步展现出强大的知识创造能力,打破人类对知识生产的垄断,重塑知识生产与传播的格局。

(1)AIGC可以提高知识生产效率。学术研究是一种知识形成与理性思考的融合,它以知识创新为导向,通过科研人员研发新技术、生产新知识和革新旧思维,从而大幅度提高劳动效率和增加社会财富。通常来说,学术研究因其高深性、逻辑性、理性而为人类所独有[4](P6-11),但ChatGPT凭借强大的算力和人性化特质[5](P147),可以作为讨论者加入学术生产,和人类进行持续交互,提出价值较高的研究问题或建设性想法,通过观点碰撞不断产生新的思想火花,甚至以此为基础自动生成论文,提高科研效率。同时,ChatGPT可以快速检索浩如烟海的文献资料,提取文本中的主要信息,形成文档摘要或摘录,自动生成文献综述;亦可以直接输入某个主题得到许多重要文献,快速把握该主题的研究前沿和学术热点;还可以根据预先设置的规则快速准确地填写文档,迅速缩短学术生产周期,将科研人员从琐碎繁杂的非创造性劳动中解放出来,使他们能有更多的时间和精力投入专业学习、研究方案设计、理念创新和逻辑推理等创造性劳动中去。

(2)AIGC可以提升论文深度和论证效力。ChatGPT学术写作能力惊人,它是在超大型预训练语言模型GPT-3.5的基础上,通过输入大量的语料库和模型训练,让大语言模型学习自然语言的规则和模式,再使用人类反馈强化学习(RHLF)的方法进行指令精调,将模型的各项能力激活,并以符合人类的需求、偏好和价值观的方式来理解和生成人类语言。同时,ChatGPT可以不断丰富语料库,在现有知识基础上“举一反三”无限拓展。此外,ChatGPT 还可以矫正上下文的错误,快速找出问题根源所在,并及时准确地进行修正。最后,ChatGPT在其语料库中构建了逻辑模型或数理模型,可以通过思维链理解推理过程。依托强大的计算能力,ChatGPT已经具有一定的逻辑推理能力,推理步骤更为详细,推理结果更为全面。而普通人工智能进行论证时,遵循的是算法法则,严重依赖于固定的运行程序和对海量数据的拟合,并不具有逻辑思考能力。因此,ChatGPT拥有的算力、精确性和逻辑推理的严密性是普通人工智能所不能比拟的。

(3)AIGC可以提高论文的语言表达水平。学术研究讲究科学和准确,优秀的学术论文必须同时具备学术性和可读性。尽管学术理论专业艰深、抽象复杂,但都能以一种简明清晰的方式将观点传递给读者[6](P261)。因此,学者们在论文写作时必须灵活采用不同类型的表达方式并精心组织语言,以降低读者的理解——精力成本。ChatGPT可以利用大型语言模型LLM和海量的数据进行预训练,基于人类反馈的强化学习模型和微调技术,展示出非常出色的语言理解能力。“自然语言处理”(NLP)技术使 ChatGPT 语言表达更加灵活和人性化,可以协助人类组织与优化自然语言,自动生成更自然流畅的文本,克服了以往人工智能语言风格明显僵硬化和机械化等缺点,能够广泛应用于教育、医疗、传媒、法律等专业知识精深、晦涩难懂的领域。

2.学术评价

学术评价是促进学术生态健康发展的关键环节,是按照一定的评价标准和指标体系,对科研成果价值做出判断的过程[7](P10)。以ChatGPT为代表的AIGC技术,可以为人类学术评价决策提供很大的帮助。

(1)AIGC可以助推同行评议。同行评议即专家评价,一直是学术出版中非常重要的一环。同行评议可以严把学术质量关,并对学者学术行为严格规范。但随着科学竞争日渐激烈,需要审核的文章数量暴增,同行评议速度慢、成本高、检测错误能力差、无法防范欺诈、抑制创新等问题逐渐暴露,一些审稿人对论文的评价非常刻薄,对论文作者造成了精神伤害;过长的同行评议过程可能使科研人员付出更高的成本,科学家对同行评议的批评和抱怨也与日俱增。ChatGPT可以通过个性化内容、实时反馈、自动化服务和多渠道交互等方式,帮助提升用户体验,使用户能够更好地满足其需求和期望。相较于传统的人工编审,ChatGPT更擅长处理大量文本数据,可以将编辑和审稿人从繁琐的重复性非创造性劳动中解放出来,让他们更专注于学术质量的评估,辅助他们学术评价决策,大大提升了同行评议的效率。此外,研究结果表明,ChatGPT在论文创新性评价中表现出良好的性能,并能够较好地完成多学科领域的论文创新性评价[8](P28)。它可以为研究人员提供有用的反馈建议,也可以补充人类同行评审的过程,帮助学术期刊决定哪些研究成果应该发表[9]。

(2)AIGC可以优化期刊审稿流程。由于学术评议流程是标准化的,因而利用人工智能技术进行评审是可行的。可以考虑引入ChatGPT构建更加科学便捷和个性化的审稿流程与反馈系统,缩短审稿时间,提高作者对期刊的满意度。首先,在初审阶段,ChatGPT利用强大的自然语言处理能力,可以帮助编辑快速浏览论文内容和主题,检测和纠正语法错误、拼写错误和表达不准确的问题,通过与数据库进行比对,对文章内容进行相似性检测,识别论文抄袭和剽窃行为,确保论文的原创性,并根据期刊要求做出判断和评价,决定是否可以进入复审环节。其次,对初审合格的稿件,编辑要启动专家审稿流程。在过去的审稿过程中,编辑经常需要查找相关领域的多位外审专家进行审稿,需要耗费大量的交易成本,包括搜索成本、沟通成本、签约成本和监督成本等,耗费时间较长、主观性强且效率较低,同时还要应对审稿专家的一些突发事件。ChatGPT则能够根据论文主体内容自动提取关键审稿信息,对各领域专家信息进行数据挖掘、特征识别,精准匹配同行评议专家,智能发掘合适的审稿人。此外,ChatGPT对论文创新性评价表现良好,评价方法和标准具有一定的综合性和科学性,评价效率高、功能丰富、适用范围广,能够较好地完成多学科领域的论文创新性评价。现阶段,尽管单独使用ChatGPT对论文创新性进行评价,稳定性、准确性与真实性稍显不足,但仍可将ChatGPT视为高效的论文创新性评价辅助工具。

3.学术传播

学术传播是研究者从事学术活动不可或缺的一环,也是推动科学进步和研究创新的源动力。在AIGC技术条件下,传播权利不再为人类所独享,AIGC不再仅仅作为一种介质存在,而是和人类协作塑造学术传播共同体,引领新的传播生态。

(1)AIGC加速学术传播。AIGC通过自然语言模型深度学习论文内容和相关数据,能以较快的速度自动创作生成相应的文字、图片和视频,帮助学者快速产出说明性信息,做好宣传和推介工作,极大地提高了科研成果的展示效果和传播效率。AI擅长对杂乱无章的学术文献数据进行结构化处理,自动生成脉络清晰的知识图谱呈现给研究者,并利用图神经网络、自然语言模型深度挖掘和分析数据库,快速检索相关知识,并进行个性化推荐,方便研究者发现、获取和参考,使研究者对学术领域的知识结构一目了然,从而有效提高研究者的科研能力。此外,还可以利用AI和大数据对用户行为和偏好进行分析,自动将设置内容进行优化,使版面编排简洁明快,让论文更容易被搜索引擎检索到,大幅度增加其曝光率,从而扩大影响力。ChatGPT具有超强的翻译能力,没有语种限制,多种语言可自由切换,达到全球传播的目标。

(2)AIGC可以实现精准推送。保证学术传播效果的前提是学术知识尽可能触达目标群体,借助AIGC的算力和算法模型,学术刊物可以为用户量身定制、精准定向推送相关研究成果,给用户带来更佳的体验感和更多的便捷性。AIGC可以快速处理大量的非结构化数据,分析用户信息、深挖用户需求,为用户精准画像,提供更加精简高效的个性化解决方案和智力支持服务。例如ChatGPT可以对用户的搜索记录和阅读跟踪数据进行挖掘和分析,将用户群体依据细分变量划分为不同的类型,通过智能标签识别用户,同时把学术信息内容与用户行为数据进行智能匹配,满足他们对学术信息的个性化需求,从而达到点对点的精确知识传播效果,有效地提高了学术期刊用户服务的精准性和专业性,并打破了以往由出版机构为主导的学术期刊单向静态传播的传统。

(二)AIGC给学术生态带来的挑战

1.学术生产

(1)面临科技伦理的“污染”与盲从。以ChatGPT为代表的AIGC虽然功能强大,但和人类相比,ChatGPT的道德判断力显得过于低级,它只回答合法合规或符合道德伦理规则的问题,强调政治正确和道德伦理尊严。但在各种不良测试者的质疑及恐吓等语言威胁下,ChatGPT有时难以判断伦理的标准。一旦ChatGPT的语料库受到“伦理污染”,就需要重新学习新的伦理标准和知识,所付出的成本是高昂的。同时,当ChatGPT盲目服从程序指令,而对伦理真伪从不质疑或是对道德伦理没有预设导向时,将会产生科技伦理困境,对人们的价值信仰、态度和行为产生重要影响。在学术研究中,ChatGPT最大的缺陷是学术诚信问题。ChatGPT仅仅是一种科研辅助工具,如果对其过度依赖可能会引起抄袭、剽窃、欺诈和侵权的风险,从而危害教育和学术生态,加剧学术竞争的不平等。另外,学术研究中使用ChatGPT有可能导致批判性思维和创新能力的匮乏。趋易避难是人之本能,ChatGPT类人工智能给人类带来太多的便利,一旦过度应用,人类将产生技术依赖,思维惰化而不再独立思考,甚至会对人工智能盲目崇拜或迷信,失去自主性和判断能力,这将会对人类社会和教育构成巨大威胁。

(2)知识产权难以界定。ChatGPT的训练数据中可能包含了许多受版权保护的材料,很可能会产生侵权行为。此外,对于ChatGPT是否能在学术成果中署名目前还存在争议。部分学者认为ChatGPT可以在论文上署名,但著作权属于研发企业(机构)或使用者所有;另一部分学者持反对意见,因为现有中西方国家的版权保护规定的著作权人是自然人,显然ChatGPT被排除在外。学术责任要求学者“文责自负”,必须承担学术过失带来的后果。由于ChatGPT不具备独立财产能力,并不能承担侵权责任,所以不能当作民事行为主体看待,其对学术成果有无实质贡献也很难判断。美国Science杂志明确禁止将人工智能程序列为作者,并且ChatGPT或其他人工智能工具生成的文本、图形、图像等也不得在论文中使用[10](P313)。英国Nature杂志认为ChatGPT等工具有失科学公平,呼吁建立合法使用的基本规则,ChatGPT等大模型不能被列为作者。如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明[11](P612)。国内《暨南学报(哲学社会科学版)》发表声明也提到,暂不接受任何大型语言模型工具(如ChatGPT)单独或联合署名的文章。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。而《天津师范大学学报(基础教育版)》态度相对温和,并未明确禁止ChatGPT署名,作者说明使用情况即可。由此可见,如果赋予ChatGPT等人工智能署名权,这必将和目前相关法律法规相抵触;而假如不允许它署名,又抹杀了人工智能“作者”的实际贡献,这些都将影响学术成果的权属认定。

(3)可能会降低学术研究的科学性、原创性和多样性。由LLM支持的ChatGPT使用来自互联网的文本数据库进行训练,包括从书籍、网络文本、维基百科、文章和互联网其他文本中获得的高达45TB的学习数据,由于数据来源庞大复杂、质量不一,且生成知识的时效截止于训练数据的更新时间,导致ChatGPT生成的答案带有偏见、时效性受限甚至虚假等,与学术研究求真求新的追求相左[12](P141)。ChatGPT虽然能生成语义连贯且语法正确的文本,但并不能甄别信息真假。ChatGPT对内容的处理完全是基于算法,它有时会写出看似合理但不正确甚至荒谬的答案,有可能生成的学术文本本身就是虚假的,或者引用的文献并不存在。滥用数据或采用碎片化知识进行训练,这就使学术研究充满了不确定性、偏见和抄袭现象,将导致错误信息被传播的风险。此外,除了担心ChatGPT直接产生有害内容外,人们还担心ChatGPT创建者在训练数据中嵌入不公正的价值观、历史观、世界观和社会偏见等。受制于技术盲区,ChatGPT还不能真正像人类那样思考,逻辑推理能力有限。因此,ChatGPT对于一般知识了解广泛,但对学术问题,无法提供专业性较强、有深度、有洞见的答案。在学术生产中,ChatGPT的优势在于强大的数据检索和加工能力,却无法像人类一样产生创新性思想,学术论文内在的逻辑结构与创意是人工智能写作所不具备的。

2.学术评价

(1)AIGC的运作对定性学术评价造成冲击。通常学术评价主要包括量化评价和同行评价等类型。AIGC的运作高度依赖算法模型与被引量、下载量等量化数据,对定性的学术评价可能造成冲击。然而评价学术作品的价值,单靠量化指标是不够的,它只能反映学术成果被同行认可的程度、该项研究成果对其他研究成果的影响等。必须建立多元化评价体系综合考量才能保证评价结果的客观和公平。ChatGPT使用的数据并非及时更新的流动数据,生成的回答则是遵循已经训练好的模型、参数进行高维概率计算,缺乏真正的思考、理解和推理能力,不能提出自主观点与原创性论断。ChatGPT的反馈过于笼统,缺乏技术细节。目前AIGC只是接近人类智能,还不足以像人类专家那样用专业眼光评判学术文章,而且专家意见也不能作为训练数据纳入语料库。因此,AIGC对学术成果的价值判断可能有失公允,导致学术评价的混乱[13](P84)。

(2)知识验证机制受到挑战。传统的知识验证方法主要依赖于学术共同体的同行评议。然而,当前AIGC技术使传统的知识验证机制面临严重的挑战。其一,AIGC技术可能会使学术抄袭行为变得更为隐蔽而难以觉察,很难对ChatGPT是否参与学术生产做出研判。例如,在人机融合的协作知识生产中,学者的学术观点是否受到ChatGPT的启发和影响,是否存在观点抄袭等问题?这种剽窃形式如此巧妙,可以轻易蒙蔽现有的同行评议和绕过抄袭检测技术手段。ChatGPT使学术出版单位的查重任务更加艰巨,同时也对学术不端标准提出了更高的要求。其二,AIGC技术使知识生产进程显著提速,学术产出暴增,这无疑极大地增加了知识验证的工作量。尽管不少公司和机构不断推出AIGC自动生成内容的检测技术,例如:OpenAI公司推出的检测器AI Text Classifier;美国斯坦福大学团队研发的GPT生成文本检测工具DetectGPT,但依然不能满足当前学术不端检测的需要,检测技术和知识验证机制亟待完善。

3.学术传播

(1)AIGC可能造成新的传播造假。ChatGPT虽然功能强大,但它只是一个训练有素的依靠数据驱动的人工智能模型,对于数据背后真实世界的状态、原理和规则等缺乏足够的认知,因此并不具备甄别信息的能力。现实操作中,如果输入错误的信息就会“一本正经地胡说八道”,很容易传播误导性信息。包括ChatGPT在内的AIGC技术可以利用深度学习能力和丰富的语料库,自动生成前所未有的单词、短语和句子的新组合,常人很难对其真伪做出判断。于是,有些投机取巧的人借助这些技术炮制出大量虚假的学术论文和研究报告等,欺骗出版机构、学界和愚弄读者,极大地损害了学术公平,扰乱了学术出版市场秩序。这将使学术界丧失公信力,而且这些缺乏科学创新价值的学术垃圾将产生学术泡沫,造成时间、金钱和出版资源的大量浪费,剥夺了真正有价值的原创性高质量研究成果发表和传播的机会[14](P30)。

(2)隐私保护和数据安全问题。ChatGPT会全方位收集用户、社交、使用数据等个人信息,并进行分析和跟踪,能通过分析用户历史记录、行为模式和当前情况等日常数据,提高决策效率和降低风险,但这也隐藏着巨大的隐患。OpenAI公司不公开使用数据的来源和相关训练数据库的授权情况,也不会对ChatGPT输入的信息进行监控和保护,一旦发生数据泄露,用户相关信息将存在被恶意利用或恶意攻击的可能[15](P257)。此外,科研人员使用ChatGPT可以辅助学术生产,但也很容易使输入ChatGPT的个人科研数据泄漏。AIGC是一种基于多层复杂神经网络搭建的深度学习模型,目前还不能解释其算法逻辑,经常出现事实性错误,产出的结果不具有安全性保障。在安全防范措施缺位的情况下,AI对恶意诱导没有任何分辨或判断能力,只会按照算法模型,根据学习到的信息自动生成大量“有说服力”的不实信息。一旦被人恶意利用造谣生事或者伪造评论等,除了损害他人名誉和形象,更会导致许多严重的安全隐患。

(3)AIGC可能挑战公众对学术界的信任。ChatGPT具备强大的内容生成能力,可以深度参与学术生产过程,知识生产方式转向“自动化”和“智能化”。AIGC依靠海量数据与生成算法输出生成结果,而训练数据库和算法是技术人员人为设计的结果。从根源上讲,技术人员理所当然是学术生态中不可或缺的创作主体。而技术人员如何筛选数据与提供底层算法逻辑,以及如何界定权威知识与专业知识,都将会冲击原有的学术生态体系,甚至从某种意义上说,知识归根结底是由技术人员创造的。显然,技术人员是不具备特定领域的专业知识或造诣的。

三、生成式人工智能浪潮下学术生态优化提升的路径

AIGC技术给学术生态提供了良好的发展机遇,但同时也带来了著作权归属、科技伦理、数据安全、隐私保护、错误性信息传播等方面的风险。因此,必须采取有效措施进行防范和治理,赋能学术研究与推动社会进步。

(一)社会:积极面对、审慎使用

以ChatGPT为代表的生成式AI横空出世,其卓越的能力惊艳了世人。人们在兴奋于ChatGPT技术突破的同时,也产生了对人工智能进化是否可以超越人类并对人类构成威胁的担忧。面对AIGC技术,首先,要在思想上高度重视,提高认知水平,以一种开放乐观的态度积极拥抱它。在某种程度上可以说,一切技术进步发展的方向和归宿都是“人工智能”,使机器具备和人类近似甚至超越人类的思考能力,并能处理多种类型的任务。同时,AIGC可以成为个体的外脑,并与内脑构成复合脑[16](P8-15),通过延伸和拓展人的智能,从而最终实现“人是万物的尺度”。AIGC将深刻地改变学术生态的走向,但这并不意味着它会取代人类,终究它提供的是选项,最终做出选择和决定的还是人类[17](P56)。其次,任何技术都是一把双刃剑,ChatGPT在为人类提供便利性和高收益的同时,也可能会带来潜在的负面影响,甚至有可能影响人类的思考能力。对此,在使用AIGC时,既要有包容的心胸,又要时刻保持冷静和谨慎的态度,扬长避短,充分发挥其促进学术生产、评价和传播的作用,推动学术生态的健康发展。

(二)政府:加大监管力度,防范可能风险

以ChatGPT为代表的AIGC功能强大,仅靠技术上限制和社会公众监督力量有限,为保证其被合理使用必须有国家强制力干预,因此建立一个专门的监管机构很有必要,以加大监管力度,防范可能风险。首先,坚持ChatGPT为非法律主体。目前法律界普遍认为人工智能生成的内容不受法律保护。ChatGPT虽然具备强大的自动生成内容能力,但它的生成物是向人类已有的作品学习的结果,底层逻辑始终是算法,缺乏成为理性主体所必须的独立的思考能力和自由意志,不符合以人为主体的法律规范的设定前提。而且,ChatGPT并不能像人类那样承担相应的民事、行政或刑事责任,赋予它法律主体地位意义不大,反而弱化人的主体地位。毕竟它只是一种高级智能工具,对论文的贡献在论文非主体部分做出说明即可。

其次,完善法律法规体系。目前针对人工智能风险的立法,主要有《个人信息保护法》《网络安全法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等。近期,国家网信办联合国家有关部门公布了《生成式人工智能服务管理暂行办法》(以下简称《办法》),这是全球范围内针对生成式人工智能的首部专门立法。《办法》与现有规范一脉相承,延续了此前的监管手段,明确了分类分级监管的原则,健全了我国人工智能治理体系。一是明确了安全评估与算法备案要求。二是明确了信息披露要求。《办法》积极回应生成式人工智能带来的社会问题,明确提供和使用生成式人工智能服务的法律底线:不得生成违法内容;在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止歧视;尊重知识产权和他人合法权益;提高生成内容准确性和可靠性。

再次,加强对生成式AI研发企业的监管。其一,为规范生成式AI研发企业行为,监管部门应敦促和引导AI行业制定行业标准,加强行业自律。其二,监管部门全程监督人工智能运行。在审批阶段,提高行业准入门槛。监管部门应对研发企业和服务方提供的各种方案认真审查和筛选,提供者应配合主管部门的监督检查,按要求对训练数据的来源、规模、类型、标注规则、算法机制机理等予以说明。在运行阶段,为避免用户进行恶意训练导致整个系统偏离正确轨道,监管机构要加大对权力、金钱、势力等敏感信息的审查管控力度,同时定期进行数据安全评估。

(三)研发企业:完善AIGC技术

针对上述ChatGPT存在的科技伦理、虚假信息、泄露隐私和数据安全等问题,研发企业可以运用一些技术手段避免类似事件的发生。首先,决策者应与技术部门保持密切联系,并分配预算以支持研究人员调查、缓解潜在的恶意行为。AI技术的研究者应该将负面影响作为优先和研究重点来考虑,与更多行业的专家进行交流,从而更全面地预防AI的恶意使用。如数字安全领域,研究者应多去参与防御性工作,让技术达到更高的成熟度。其次,提高信息过滤的能力。ChatGPT在训练过程中高薪聘请了大量的“提示工程师”,通过“标注”、巨量语料来模拟合成真实世界。ChatGPT可能会出现创造不存在的知识,或者主观猜测提问者的意图等问题,这就需要人工智能和软件工程师持续进行模型的优化。因此,

AIGC大模型在大规模推广应用之前,应通过积极改进算法、不断优化语言模型以及介入人为监督的方式,严控信息输入端,加强识别数据来源、审查内容和人工标记。一旦发现虚假性、危险性或非理性价值观等内容,AI可以迅速做出警示或拒绝反馈,从而保证了语言模型的准确性和安全可靠性。再次,在深度学习和数据处理过程中,要不断开放专业学术网站,通过优化训练数据集、微调模型或者增加限制性条件,让AI更少地接触不良信息,从而不断提高生成内容的可信度和合法性。最后,注重保护隐私信息的安全。一是做好算法设计,重点对训练学习和内容生成过程中是否使用了库内所含的涉及隐私的重要数据进行审查;二是做好系统维护,例如,通过完全模拟黑客可能使用的漏洞发现技术和攻击技术,对目标系统的安全做深入的探测,发现系统最脆弱的环节,从中找出急需解决的安全问题,并及时提高系统的防护能力。

(四)学界:推进研究透明

研究人员使用AIGC虽然有助于提高科研效率和质量,但使用不当也会产生学术不端的风险。首先,学术界要不断提高算法素养,深入学习和了解ChatGPT等AIGC大模型,加强危机防范意识,熟练地将AIGC技术运用到知识的生产与传播活动中。其次,加强学术界行业自律自查。可以就如何合理使用AIGC展开讨论和研究,并要求科研人员在论文中就AIGC使用情况做出书面说明。同时,学术期刊对要发表的论文也应承担起审查责任,应持续推进对作者使用AIGC情况的公开审查。可以引进人工智能检测技术,弥补人工审查的不足,提高对AIGC的识别和检测能力,避免基于AI的剽窃行为发生,引导AIGC在学术生产中合理使用,维护学术期刊的学术品质。此外,可以考虑建立AIGC专家委员会,负责审查学术成果中AIGC的使用情况、公布AIGC审查标准并提供查询服务、监督审稿过程中AIGC的使用情况。再次,不断强化研究人员与技术人员之间的沟通与信任。ChatGPT生成过程中存在算法“黑箱”,为此,建议建立学界与开发机构之间的沟通机制,推动ChatGPT技术实行“开源”,公开其算法逻辑,强化数据安全,从而增强AIGC技术的可信度,提高社会认可度。

(五)人机协作、共同治理

ChatGPT解决了包括“计算机视觉、自然语言理解,以及处理真实世界中的意外情况”等在内的人工智能完备的关键性问题,接近“人工智能完备”的状态。虽然ChatGPT可以通过丰富的语料库和深度学习能力来模仿人类的思维过程,但AI生成内容的算法和模型是由人类编写和训练的,它并没有自主思考和创造的能力。尽管ChatGPT可以通过大量数据分析来撰写学术文章,但这些信息都是人类灌输进去的,它本身并没有任何创新性和自主性,无法将对某个时刻的思考转化成意识。由于现阶段ChatGPT缺少人的理性思考,尚未达到“强智能”水平,只能对人类“创造性劳动”起到辅助作用,绝对不可能完全代替人类。尽管AIGC技术可以优化学术评价决策,提高出版效率、质量和传播力,但学术论文的价值判断,应该由具有专业知识且拥有独立判断能力的学术编辑来完成,而不是交给仅仅使用概率计算解决复杂推荐问题的ChatGPT。为此,建议在学术生产、学术评价和学术传播环节都应该安排人工介入,“人工”与“智能”相互取长补短,层层把关,既要充分利用智能技术在数据处理方面的优势,又要发挥人的逻辑推理和创造性思维的优势,高度重视学术创新价值和风险防范。

参考文献:

[1]White R, Cheung M. Communication of Fantasy Sports:A Comparative Study of User-Generated Content by Professional and Amateur Writers[J].IEEE Transactions on Professional Communication,2015(2).

[2]刘智锋,吴亚平,王继民.人工智能生成内容技术对知识生产与传播的影响[J].情报杂志,2023(5).

[3]完善评价制度 营造良好学术生态[EB/OL].(2021-01-19).https://www.thepaper.cn/newsDetail_forward_10849481.

[4]蒋华林.人工智能聊天机器人对科研成果与人才评价的影响研究:基于ChatGPT、Microsoft Bing视角分析[J].重庆大学学报(社会科学版),2023(3).

[5]令小雄,王鼎民,袁健.ChatGPT爆火后关于科技伦理及学术伦理的冷思考[J].新疆师范大学学报(哲学社会科学版),2023(7).

[6]杜秀杰,赵大良.学术论文语言表达范式分析[J].编辑学报,2018(6).

[7]张保生.学术评价的性质和作用[J].学术研究,2006(2).

[8]ChatGPT用于论文创新性评价的效果及可行性分析[J].情报资料工作,2023(5).

[9]科学家更喜欢ChatGPT的反馈,而不是同行[EB/OL].[2023-10-19].https://www.fromgeek.com/ai/607382.html.

[10]H Holden Thorp.ChatGPT is Fun, but not an Author[J].Science,2023(6630).

[11]Tools Such as ChatGPT Threaten Transparent Science: Here are Our Ground Rules for Their Use[J]. Nature,2023(613).

[12]王琪.技术赋能与问题衍生:ChatGPT对学术期刊出版的影响[J].河南大学学报(社会科学版),2023(5).

[13]陈超.学术歧视与学术权利的平等保护:基于学术生态环境的视角[J].清华大学教育研究,2021(5).

[14]沈锡宾,王立磊,刘红霞.人工智能生成内容时代学术期刊出版的机遇与挑战[J].数字出版研究,2023(5).

[15]张学博,王涵睿.生成式人工智能的法律规制:以ChatGPT为例[J].上海法学研究,2023(6).

[16]沈书生,祝智庭.ChatGPT类产品:内在机制及其对学习评价的影响[J].中国远程教育,2023(4).

[17]王学男.ChatGPT类生成式人工智能:颠覆教育的可能与不可能[J].天津师范大学学报(社会科学版),2023(3).

收稿日期:20231125

基金项目:河南省高等学校重点科研项目计划(21A790016)

作者简介:

姜涛(1977-),男,河南洛阳人,洛阳师范学院新闻与传播学院讲师,博士,主要从事传媒经济与文化产业研究;叶思雨(1993-),女,河南洛阳人,洛阳师范学院历史文化学院讲师。

猜你喜欢

生成式人工智能
生成式人工智能的教育启示:让每个人成为他自己
挑战·融合·变革:“ChatGPT与未来教育”会议综述
生成式人工智能时代的政治传播走向
生成式人工智能重塑教育及教师应对之道
人机共生时代国际传播的理念升维与自主叙事体系构建
生成式人工智能的教育应用与展望