人工智能视域下学术伦理治理问题的挑战及对策建议
—— 以生成式人工智能为例
2024-04-05葛慧林
葛慧林
(江苏科技大学,江苏镇江 212100)
人工智能(Artificial Intelligence,AI)已经成为推动新一轮科技革命和产业变革的重要驱动力,同时也给现有科技管理体制带来了新的挑战。通过大规模语言模型(Large Language Model,LLM)的训练,生成式人工智能(Generative Artificial Intelligence,GAI)具备了严密的逻辑推理能力和强大的文本生成能力,使得开放式理解和生成连贯文本成为可能。这种技术的实际应用开始对学术研究产生巨大助力[1]。例如,Conroy 等人利用ChatGPT 在一个小时内完成了一篇流畅、富有洞察力的研究论文。随着GAI 在学术研究中的实际应用迅速普及,并赢得广泛舆论赞誉,学者们的担忧也随之而来。研究表明,以ChatGPT 代表的生成式人工智能语言模型在学术研究中存在着信效度不足、权责不清、伦理失位等学术伦理问题[2-4]。在科学技术更加开放的同时,也面临着颠覆性但尚未成熟的阶段。在面对潜在的技术失控和学术伦理失序时,需要深刻审视GAI 引起的学术伦理问题,并正确处理它与学术发展之间的辩证关系。基于此,本文系统分析人工智能视域下学术研究面临的新学术伦理问题,剖析GAI 在学术研究中所能提供的价值与风险,并进一步提出对策建议,以促进学术研究的健康发展。
1 人工智能视域下的学术研究新形势
1.1 人工智能的发展
AI 有多种定义,虽然各有不同,但都与“如何创造一些计算机程序或机器,使其具备被视为智能行为”的概念相关。德勤有限公司给出的实用定义是:“AI 是关于计算机系统如何执行只有依靠人类智慧才能完成的任务的理论研究”[5]。得益于2004 年后相关领域技术例如深度学习、云计算等的突破革新,AI得以在安防、教育和机器人等多个领域广泛应用[6]。当前,自然语言处理(Natural Language Processing,NLP)技术的进步使得大型语言模型(Large Language Model,LLM)能够实现开放式理解和生成连贯的文本,理论算法开始得到实际应用,以ChatGPT 代表的GAI 在学术研究中的应用迅速普及。
1.1.1 生成式人工智能的实质
GAI 是运用大语言模型与生成式预训练转换模(Generative Pretrained Transformer,GPT)结合,通过海量数据存储和高效设计架构理解和解读用户请求,进而以近乎人类自然语言的方式生成具有“较高复杂度的回应文本”[7]。具体而言,GAI 通过大规模语料训练,将不同语言中的字、词表征映射到更高维语义空间中,然后基于生成式预训练转换模型,采用“强化学习与人类反馈”(RLHF)的训练方式,通过不断迭代来提升生成答案的评判能力,从而往往能够产生符合人类常规认知和需求的回答[8]。
1.1.2 ChatGPT 类生成式人工智能的比较
2022 年11 月,美国人工智能研究实验室发布了大型语言对话模型ChatGPT,上线不到一周用户数就突破了100 万,两个月时间吸引了超过1 亿活跃用户,成为历史上增长速度最快的应用程序。ChatGPT 是一种具有思考能力的人工智能聊天机器人程序,基于GPT-3.5 架构的大型语言模型通过强化学习得到训练后几乎可以处理任何基于文本的请求。ChatGPT 被专门设计为以对话风格生成类似人类的文本,能够回答连续提出的问题、生成文本摘要、翻译文档、对信息进行分类和编写代码等任务,同时也能够承认错误、对不正确的前提进行质疑,并拒绝不合适的请求。此外,麻省理工学院借助深度学习模型识别分子结构之间的相关关系成功研发新型抗生素Halicin 的案例说明了以ChatGPT为代表的生成式人工智能可以通过明确相关关系,提升科研质量[9]。
在ChatGPT 发布之前,谷歌曾在2021 年推出大语言模型LaMDA,并在此基础上开发了Bard,其可以将信息知识和大语言模型的智能相结合,提供新鲜且高质量的回复。而在2022 年8 月,基于自主研发的产业级大模型ERNIE,百度推出AI艺术创意辅助平台——文心一格,其通过文心大模型准确的语义理解和生成图片,为用户提供丰富多样的创意,帮助创作者打破创作瓶颈。2022年11 月,Meta 的人工智能实验室Meta AI 发布了AI 系统“Make-AVideo”,它能够根据自然语言文本生成一段大约5 秒钟的短视频,同时还可以从图像和视频中生成视频。在ChatGPT 4 发布的第二天,百度揭开了其最新产品“文心一言”的面纱。作为国内首个类ChatGPT 产品,百度文心一言定位于人工智能基座型的赋能平台,致力于推动金融、能源、媒体和政务等领域的智能化变革[10]。
与LaMDA、ERNIE 和XLNet等其他语言模型及其产出相比,ChatGPT 和其基于的GPT-3 语言模型具有明显的优势。ChatGPT 拥有数十亿个参数,并且可以访问大量数据,能够高精度地执行各种语言相关任务。其次,GPT-3 的语言模型具有很高的通用性,可以适应各种任务,例如翻译、摘要和问题回答。此外,ChatGPT 能够高效利用数据,用较少的训练数据就能取得良好的结果。
1.2 生成式人工智能在学术研究中的价值
当代世界科学技术正处于前所未有的突破性发展阶段,科技社会一体化、科学文化和人文文化逐渐从对立走向融合。为解决社会复杂需求问题而诞生的跨学科研究,以往需要积累多学科知识,聚集多学科人才,并构建跨学科研究组织来解决的问题,现如今借助ChatGPT 却有望实现更具突破性的学术成果[11]。
降低获取知识的难度。ChatGPT 等AI 通过模拟人类学习过程,阅读理解不同语言和文献资料库,在快速总结文献异同的同时,实现对不同学科知识成果的同构,进而协助研究者完成跨学科深度对话和知识融合创新。与此同时,其还能将其他学科专业知识转述为简单语言,降低获取知识的难度,在为研究者提供更多学术研究方向的同时,保证了研究力度和深度,在一定程度上也推动了学科进步和知识创新,提升了学术研究的效率。
便于研究内容的梳理。AI 可以自动解析文献、高效提取关键知识,按需总结比较不同研究成果的异同,为研究者节省检索整理时间。此外,它还能在此基础上构建引文推理网络,清晰展示知识的产生、流传与演变,为研究者提供有依据的客观观点和学科间知识交叉与融合的趋势。而当研究者对写作内容不确定时,其还能提供相关理论、数据、案例与文献支持,为研究者的观点提供第三方验证与学术支撑。
促进研究内容的完善。当科研人员向AI 提交研究成果后, AI 能够根据使用者的输入的相关要求,对研究成果进行检测,就拼写、语法等方面提供反馈意见及根据不同领域和功能调整写作重点。它在快速翻译中文研究成果为其他语言时,还可以学习各领域权威期刊的征稿要求为研究者提供帮助。此外,其能够解析和提取各领域学术论文的关键知识,并根据不同应用场景及学科领域调整内容、篇幅和侧重点。在大语言模型的支持下,研究者可以优化研究成果的传播机制,增进学术合作并促进研究成果转化,进一步提升学术研究效用[12]。
(3)利于研究数据的分析。以ChatGPT 为代表的AI 拥有强大的算法和算力,往往能够较好的完成数据收集、数据分析、数据可视化等复杂数据处理工作,把握受实验条件或计算能力等限制所遮蔽的相关关系,获得有助于取得研究新发现,新成果的启示。
2 人工智能视域下的学术伦理新问题
2.1 智能剽窃,隐蔽难以检测
研究发现,将大量由GAI 创建的论文摘要提交给学术审稿人,被发现的比例不超过63%[13]。因GAI可以在较短时间内整合和产生大量知识与信息,并根据需要生成个性化结果。从某种程度上来说,GAI产出的科研论文仍然只能算是高度集成产品,其内容和观点通常来自他人作品,虽然在整合中模糊了模仿和抄袭边界,但其非原创的本质未变。此外,由于GAI 是基于自然语言产出的结果,这与学者自行思考并收获启发的基本逻辑相似,而当GAI 在转码过程中隐藏了抄袭的事实,学者通常也难以分辨哪些内容是需要进一步甄别是否存在抄袭,这导致剽窃呈现出无意识特征。此外,GAI 利用反馈学习获得学者思想内容后,再面向其他学者进行二次创作,是否也涉嫌剽窃先前使用者的思想?
事实上,学者用GAI 辅助学术研究的过程,是学者与GAI 协同完成研究任务的过程。但人类语言亦具有复杂性,语种语义、表达方式、词性特征、用语习惯等均会影响交流。实践证明,GAI 会受到提问者所提供信息的影响,在回答问题过程中,极易形成迎合偏好的回答。更值得注意的是,在与学者进行深度对话时,GAI 会固化提问者所自带的认知与偏见,强化偏离本意的意识[14]。最后,在评价由GAI 辅助的研究成果时,是否应当将GAI 的辅助效果考虑其中。由于GAI 的辅助效果因其资本密集导向而具有不公平性,而现有学术评价标准缺乏对GAI 在协作过程中贡献价值的度量,阻碍了评价的准确性与公平性。
2.2 智能夺权,批判创造失去主导
美国在线课程网站Study.com开展的一项调查显示,超过89%的学生使用ChatGPT 来完成家庭作业,48%的学生用ChatGPT 完成小测验,53%的学生用ChatGPT 写论文,22%的学生用ChatGPT 生成论文大纲[15]。过去,学者需要大量阅读,进行深度思考,并提出创新性的观点和解决方案才能完成撰写论文的工作。现如今GAI 的出现彻底颠覆了这一传统方式,学者不再需要花费时间梳理相关文献,整合关键知识,只需把问题提交给GAI 便能解决。
ChatGPT 等GAI 能应是协助人类在多领域知识唾手可得的情况下,仍保持敏锐洞察力、灵活适应性和创新思维方式的工具,而非剥夺取代学者独立思考和解决问题能力的思维替代者。在现如今这种信息爆炸的时代,人类面临的问题和挑战日益复杂多变,具备批判性思维和创造性思维就显得尤为重要。批判性思维能够对信息、论据和观点进行深入评估,从而形成明确、准确和有根据的判断,更为有效地应对复杂问题、降低误判风险,并在日常生活和工作中作出明智的决策。创造性思维则鼓励人们跳出传统思维模式的限制,尝试以新的方法和角度来解决问题,从而生成新的、独特的和有价值的想法、解决方案或观点。批判性思维评估已有的知识和策略;创造性思维创造出不存在的知识和策略。两者相辅相成,才会有新知识的产出[16]。但随着学者对ChatGPT 等GAI 的不断依赖,其自身正在不自觉地让渡思维的主导权,思维模式逐渐由人类向AI 转移,由机器思维取代人类思维。在这种情况下,机器意志将可能取代人的意志,出现主导权丧失的问题[17]。
2.3 智能迭代,信效度难以认定
由于GAI 的实质是将语言向语义空间进行转换,并根据需求运用多个算法迭代重组重构,但其在深度学习中还存在过程算法不透明、数据不完整、训练不完善等问题[12],导致最终生成结果的信效度难以认定。其一,在深度学习过程中,大量参数会随着训练自动迭代调优,其变化机制难以用逻辑解释。因此,导致GAI 无法清晰解释其生成结果的理由,学者也无法根据逻辑判断生成结果的正确性。其二,GAI 生成的结果却决于训练数据的深度和广度。然而,当前的训练数据难以覆盖所有学科所有领域,使得生成结果存在数据偏差。
3 对策及建议
学术伦理是开展科研等活动需要遵循的价值理念和行为规范,是促进学术研究健康发展的重要保障。现如今,ChatGPT 类生成式人工智能领域的“领头羊”发展态势已然良好,伴随着科技的不断进步,更尖端复杂的人工智能技术预期只会更加频繁地渗透并运用在研究领域,但当前的学术伦理制度已无法满足飞速发展的技术应用需求。亟需进一步完善学术伦理制度,防控学术伦理风险,实现高效、道德及健康地人工智能技术应用。
(1)建立检测识别机制。为了实现高水平的学术诚信和提高学术创新能力,防止剽窃的发生,相关学术机构应建立或更新审查机制,以检测研究者提交的论文是否是基于GAI 的模拟学术论文,并对其进行评估或分级。学者和人工智能生成的内容存在着显著语言差异的。另外,生成式人工智能生成的语言指纹具有反直觉的特性,它是通过将不同的论点分成段落来提供清晰的逻辑结构,从而减少了对话语标记的需求,这与人类的写作逻辑背道而驰[18]。通过建立检测识别机制,将有助于维护学术机构的权威性,促进产出更多的原创性学术成果[19]。
(2)建立学术伦理制度。对于目前“人机共研”现状下所涉及的学术伦理建设,应对技术与伦理双方进行理性地审视,建立行之有效的学术伦理制度。首先,应加强AI技术应用领域的学术伦理研究,立足人机融合新图景,判定阻碍学术研究高质量发展的“被调适方”,并基于此构建学术伦理的建设思路。其次应成立科研技术伦理委员会,在技术专家、伦理学者的共同努力下,修订现有的科技伦理与学术伦理审查制度,使技术符合学术伦理的规约,并及时更正技术中不适应学术伦理的行为,为新应用场景提供结构性制度保障。此外,研究者本身应始终保持能动性,以主体姿态,将以ChatGPT 为代表的人工智能视为认知工具,坚定研究立场,并承担起数字素养所对应的社会文化修养、道德规范和行为自律等责任,使其真正为学术研究所用[12]。
(3)加强学术伦理引导。为了实现更高质量可持续发展的人工智能技术,还应该加强学术伦理引导。AI 逐渐改变了当前的学术研究模式,而作为学术研究的主体,科研人员的学术伦理引导一直都是学术伦理治理的起点。因此,可以鼓励学会、协会、学校等组织加强对科研人员针对性的对当前AI 冲击下的学术伦理进行引导,科研人员共同监督并抵制学术伦理违规行为。
(文责自负)