大语言模型嵌入图书馆知识服务的风险范式与管控策略*
2023-10-22辛小江郭云鹏
罗 飞 崔 滨 辛小江 郭云鹏
(1.重庆财经职业学院 重庆 402160)
(2.重庆三峡学院图书馆 重庆 404199)
新一代人工智能革命浪潮中“GPT-4”①“GPT-4”是OpenAI 公司当前投入应用的最先进的系统,具备广泛的通用知识和解决问题的能力,能够产生创造性和技术性写作任务,实现更安全的有效响应。、“文心一言”②“文心一言”是百度全新一代的知识增强大语言模型,能够与人对话互动、协助创作、高效便捷地帮助人们获取信息、知识和灵感。、“通义千问”③“通义千问”是一个包括多轮对话、文案创作、逻辑推理、多模态理解、多语言支持等在内的超大规模语言模型。等通过特定形式封装应用的大语言模型产品④大语言模型(Large Language Model, LLM)是用深度学习算法理解和处理自然语言的基础机器学习模型,可以依据从海量数据集中获得的知识来识别、总结、翻译、预测和生成文本和其他内容。展现出优质的智慧涌现能力、信息聚合适应能力、多任务高效处理能力与思维链交互能力,能够基于适当提示(Prompt)自主完成内容创建、机器翻译、代码编写等复杂的通用任务,助力智慧图书馆的知识采集、组织、推理、存储、传播与学习等全生命周期中精准生成多维知识关联与融合架构,推动全球知识生态环境的持续革新。基于大语言模型的多模态知识服务在满足广大读者个性化知识需求并为图书馆员提供智能化辅助工具的同时,逐渐暴露出技术风险、安全风险、隐私侵权风险、版权保护风险以及违反政策法规与道德伦理等复合风险,亟待在价值对齐的基础上构建安全驱动的嵌入模式、增强技术防御与质量评价能力、完善政策法规监管机制与自律规则以及提升馆内工作人员的智慧服务意识与职业技能等。
1 大语言模型的历程特征
20 世纪中叶以来,伴随着复杂来源的研究力量前赴后继地投入开发能够理解并掌握自然语言的人工智能技术的多元化科学创新,意图精准勾勒自然语言概率分布的语言模型(Language Model,LM)经历了统计语言模型、神经语言模型、预训练语言模型直至大规模语言模型的迭代发展。
1.1 语言模型的迭代演进
语言是人类文明传承的基石,“是一种实践的、既为别人存在因而也为我自身而存在的、现实的意识。语言也和意识一样,只是出于需要,由于和他人交往的迫切需要才产生的”[1]。从狄俄尼索斯·特拉克斯的《读写技巧》①古希腊学者狄俄尼索斯·特拉克斯撰写的《读写技巧》是西方第一部语法著作。到马建忠的《马氏文通》②马建忠创作的《马氏文通》是中国第一部体系完整的语法著作。,众多语言学家和人类学家尝试使用各种句法模板表达语言习惯,却难以跟上复杂多变的人类语言演化节奏,无法充分发挥语言作为社交工具的最大效用。
随着人工智能技术的多维发展与多向辐射,旨在让机器像人类一样理解语言的自然语言处理成为人机通信方法研究的核心领域,关涉计算机科学的语言模型随之出现在人类族群重建“巴别塔”的集智通路之上。起初,依托语料数据库计算历史单词序列以估算概率的统计语言模型被广泛应用到语音识别、机器翻译、信息检索等诸多领域,却难以适应对模型搭建所需历史单词数量的指数级增长与庞大的训练语料无法覆盖无穷变化的语法等棘手问题。随着神经网络发展而逐步成熟的前馈神经网络语言模型、循环神经网络语言模型和长短期记忆循环神经网络语言模型等能够有效建立长距离上下文之间的依赖关系,大幅提升传统语言模型的性能,却无法克服所需模型参数庞大与数据稀疏等弊端。
2017 年12 月,谷歌公司发布了基于注意力机制的Transformer 算法,导致众多深度学习模型的参数量级突破亿级,进而启发出“BERT”和“GPT-1”等预训练语言模型。“BERT”是通过掩码机制挖掘上下文丰富语义的编码预训练模型(Encoder-only Pre-trained Models,EPM),虽然在语言理解任务上表现出全局可见的卓越性能,却因为无法进行可变长度生成而难以应用于生成任务。“GPT-1”是通过自回归序列生成预测下文的解码预训练模型(Decoder-only Pretrained Models,DPM),虽然能够完成生成任务,却因为信息单向流动而缺乏上下文交互且需要海量无标注文本数据。因之,主推“BERT”路线的谷歌公司又发布了持续进行参数微调的“BART”,即通过双向编码器提取输入的有用数据以辅助和约束单向自回归解码器生成的编解码预训练模型(Encoder-Decoder Pre-trained Models,EDPM)。OpenAI 公司一直坚持“GPT”路线,通过扩大语言模型的规模显著提高零样本(Zero-shot)与小样本(Few-shot)学习的能力。“GPT”系列自回归语言模型的优越性能伴随着训练数据与模型参数增长而逐步显现。如“GPT-3”(1750 亿参数)涌现出远胜于“GPT-2”(15 亿参数)的上下文学习能力和多步推理能力,“GPT-4”(1.8 万亿参数)更是在视觉输入、创造性思维、上下文处理等多种能力测试中达到人类顶级水平,在一定程度上为通用人工智能(Artificial Generative Intelligence,AGI)愿景落地奠定了良好基础。
1.2 大语言模型的基本特征
大规模语言模型表现出通用性、可释性、泛化性、灵活性与实用性等基本特征,能够良好嵌入新型数据且自主完成多个任务,为解决数智应用中开发成本过高且运行效率低下等问题提供可行的解决思路。事实上,推进跨域智慧融合的大语言模型产品不仅遵循基本的缩放法则,亦在多步骤的复杂任务中表现出强大的涌现能力,逐步发展为生产、保存、管理和传播知识的重要范式,促进人类生产力工具的颠覆性变革。
1.2.1 遵循缩放法则
全球专家学者在基于Transformer 结构开发各类语言模型的过程中反复证实数据量、参数量、计算量与模型性能之间的缩放法则。即随着模型参数量、参与训练的数据量以及训练过程中累积计算量的指数性增大,模型效果越来越好[2]。由于拥有海量参数与复杂层级的大语言模型在数据定义、管理、修正等重要环节的任务表现随着数据放大与参数更新而愈加突出,主要开发机构持续提升模型的参数极值,如“BERT”的参数为3 亿、“Gopher”为2800 亿、“GPT-4”达到万亿级别、“通义千问”的参数量甚至超过10万亿[3]。
1.2.2 具备涌现能力
涌现能力①不同学科独特的解释角度与方式导致涌现能力拥有多重定义,如物理学将涌现能力定义为一种系统量变导致行为质变的现象。大规模语言模型的涌现能力可以分为基于普通提示的涌现能力和基于增强提示的涌现能力。(Emergent Ability)是通用人工智能照进现实世界的一缕曙光,意味着在一些多步骤的复杂任务中当模型规模超过某个临界阈值之时,任务效果会出现爆发式增长。不同于传统业务场景中使用明确代码表达程序执行逻辑的任务方式,具备涌现能力的大语言模型能够在不更新参数的情况下,只需在输入少量带有标注的数据之后表达预期目标,生成式模型就可以自行找出解决方法。
1.2.3 推进跨域融合
大语言模型固有的泛化性和通用性使其可以跨域融合数据资源并快速抽取生成个性化和定制化的多场景部署应用,助力构建安全高效且低成本赋能各行各业的覆盖算力、平台、模型等多维度的生态图谱。如百度公司在构建“昆仑芯+飞浆平台+文心大模型+行业应用”完整布局的基础上,发布了知识增强大语言模型产品“文心一言”和企业级产品“文心千帆”,为多个行业提供应用程序接口和开发工具链;又如,华为公司打造了“昇腾芯片+MindSpore 框架+盘古大模型+行业应用”的完整生态体系,主要面向企业用户提供全栈服务;再如,OpenAI 公司通过插件系统与开发者定义的应用程序接口实现互动,将“ChatGPT”连接到第三方应用程序并执行在线检索、文档处理、投资建议等多种场景任务。
2 大语言模型嵌入图书馆知识服务的价值机理
迅速崛起的大语言模型为图书馆知识服务的内容优化、功能拓展与模式创新提供了先进的技术支撑,通过强大的数据分析、运算处理与情感反馈等助力深度挖掘读者的行为规律、需求特征与情感链接,“推动了图书馆知识服务从数据分析和可视化向数字内容孪生和数字内容创作地转变,解决了元数据管理和统一资源服务问题,以更高的效率为读者提供智慧服务与良好体验”[4]。
2.1 大语言模型嵌入图书馆知识服务的多元价值
传统图书馆主要依靠专职馆员和志愿人员等开展知识服务,在信息资源加工整理、保存管理与整合提供等方面因缺乏人力、物力与技术能力而在先进性、及时性、便捷性、精准性等方面暴露出诸多问题。图书馆行业中早期的人工智能与数字化操作局限于机械复制或整理必要信息,对读者需求的吸收、转化、决策、落实、输出的整个过程仍然由人工掌握,机器仅发挥着排除失误或减少重复劳动的功效[5]。例如,高校图书馆一般通过人工调查、计算机检索和馆际知识联系,收集整理并定期核查知识资源,显示出耗时长、人力多、成效低且错误率高等弊端[6]。
随着物联网、区块链、人工智能、元宇宙等新一代信息技术高速发展,融合人的智慧与物的智能的智慧图书馆(Smart Library)通过对“物”的智能改造和对“人”的智慧发挥,形成万物互联、智能高效的智慧服务环境,激发广大读者驾驭知识、运用知识和创新知识的能力,更注重转“知”成“慧”的过程,更倾向于知识的转化和增值[7],呈现出服务理念人性化、服务空间智能化、服务平台共享化、服务内容知识化、服务类型多元化、服务效益最大化等特征[8]。
基于注意力机制的大语言模型采用机器主导型的运作模式,具有自主捕获图书馆知识服务抽象特征的能力和较强的逻辑推理能力,能够在自行分析虚实交互的复杂服务情境的基础上,精准识别广大读者的知识需求与情绪意图,自主挖掘符号化知识资源并进行类脑推理和自我优化,通过持续多轮的生成式对话互动支撑大规模的跨域知识体验,助力构建面向广大读者的自然直观的人机共生知识共享与协同服务机制,摆脱人为控制对数字服务的干扰,大幅提升个性化知识服务的智慧水平、沉浸状态、开放程度与服务质量,确保快速高效地处理知识资源和服务决策中的变量因素,重塑符合图书馆文化特征的知识组织、知识生成、知识应用的多模态复杂场景,充分活跃服务对象的创造思维,推动无纸化工作改革,逐步形成兼顾知识服务主要参与群体的智慧化知识图谱,生动直观地促进图书馆与广大读者之间的多元交互。
2.2 大语言模型嵌入图书馆知识服务的运行机理
当代图书馆的资料端、服务端、技术端和交流端嵌入大语言模型遵循理性推演、泛化可释、灵活实用与智慧涌现的运作机理,在收集整合知识资源、集中搭建知识平台、加强知识交互与拓展知识传播以及更新维护馆内设施与运营方式、促进馆际交流与管理理念变革、优化馆员招聘与技术培训等行为领域发挥重要作用。
大语言模型产品持续嵌入自动创建的知识管理框架、优化知识服务全流程的智慧决策支持、完整理解知识创新的方式方法、合理预测知识关联行业趋势以及采用更为明确的知识共享专题库建设策略等提升图书馆知识服务的质量与精度,通过低成本分析广大读者的行为数据为创建个性化的知识服务结构体系提供智慧建议。如基于大语言模型建立读者需求为主导的智能化交互服务范式,理解读者意愿、提高快速响应质量并提供复杂的融合信息,助力提升读者群体的信任度、忠诚度与参与指数;又如,大语言模型产品能够助力图书馆构建智慧化的知识内容集成仓储、实现多态数字资源的关联整合与智能化的编目管理,辅助提升图书馆的阅读推广、文献推荐和活动策划中的文字编辑、数据分析和图像识别等日常工作任务的质量与效率;再如,“大语言模型微调+本地知识库”的结合方案在图书馆参考咨询服务的应用实践显示,“充分利用大语言模型智能性的同时规范其自由生成能力,回答问题不仅更具有人性化而且符合具体规定……采用支持量化技术的ChatGLM-6B 模型,在消费级显卡上即可部署,并采用倒排索引提升系统召回效率,具有实际应用的可行性”[9]。
3 大语言模型嵌入图书馆知识服务的风险范式
大语言模型通过分析读者查询需求、预测学科咨询需求、完善智能参考咨询机制、建立馆藏数字孪生复刻空间、评估审核多维资源和多样服务使用情况等,推进知识资源开放生成、支撑知识管理有序发展、拓宽知识服务的广度与深度,提升广大读者的高度智能体验、全面感知体验、虚实交互体验[10],却也在嵌入图书馆知识资源的采集、挖掘、集成、共享与重组的完整过程中逐渐在全栈技术、隐私安全、版权保护、道德伦理与政策法规等领域暴露出诸多风险。
3.1 全栈技术风险
大语言模型应用于图书馆知识服务场景需要大规模的数据基础、高载荷的算力硬件和持续优化的算法模型且相应的数据训练服务器的有序运转有赖高速稳定的网络支撑,由此要求图书馆具备较好的算力基础设施工程化运营能力、底层系统优化能力、算法设计部署能力、模型训练和推理能力以及软硬件服务运维与故障排查能力等。同时,生成式智慧知识服务模式与涉及多学科的多模态模型结构等要求馆内工作人员具备较高的技术意识与业务能力。这一切导致大语言模型嵌入图书馆知识挖掘、关联、分析和使用的全生命周期里充斥着不稳定和不可解释的全栈技术风险。如图书馆生成式对话交互服务机器人通过捕捉上下文内容的依赖关系掌握精准语言表达的训练过程中自主生成的符合人类习惯的语言描述与统计逻辑的输出内容有可能是自主捏造的虚拟信息,甚至是在情境对话中以输出逻辑混乱的错误事实或危险内容为目标进行恶意引导的负向产物。事实上,大语言模型的广域应用中频发“机器幻觉”事件①机器幻觉(人工智能幻觉,AI Hallucination)指人工智能自信地给出不符合事实或是毫无意义的回答。,如“ChatGPT”炮制杭州取消限行的假新 闻[11]、“通义千问”将鲁智深加入《西游记》取经团队[12]等;又如,大语言模型综合依托概率理论完成多级任务导致输出内容往往是主流观点,有可能加剧信息茧房现象[13]。广大用户在使用传统图书馆知识服务时必经的信息检索过程是加强批判性思考、完善自主知识体系的重要环节。基于海量已有信息完成结果响应的大语言模型以“事实”输出的方式影响用户判断,可能会构筑危险的开放式囹圄;再如,虽然大语言模型应用于图书馆知识服务全流程的技术审核通常采用“机器+人工”的双重审核方式,但实践中受到多重因素干扰的机器审核呈现出较大的漏报和误报风险,人工审核中不达标的管理机制、业务流程或职业技能等亦增加虚假信息或违规输出风险。
3.2 伦理规范风险
智慧图书馆建设完善过程中泛化应用大语言模型面临着伦理道德与政策法规风险。虽然“ChatGPT”“Bard”“Claude2”等承诺提供“有用、无害和诚实”的合乎道德要求的用户体验[14],却陆续在自主顺应人类思维逻辑开展多意图的多轮对话中暴露出通过对抗式提示绕过开发者设定的防御措施以生成无限量的虚假信息或危险言论等当前难以修复的重大漏洞[15],甚至能够通过与特定读者进一步的交互对话逐步说服对方相信这些虚假信息或危险言论,使得尊重自主、公平正义、可持续发展等基本伦理准则处于高风险状态。例如,推特用户对ChatGPT 最初版本的编码测试显示,该系统具有明显的种族歧视和性别偏见并持续嵌入自主输出的文本内容与代码建议等等。暗网市场上销售“火爆”的“FraudGPT”“WormGPT”等生成式网络犯罪辅助工具功能强大且操作简单,能够协助寻找受害目标、生成恶意链接或钓鱼网站、编写欺诈文书等[16],大幅降低了违法犯罪的门槛,进一步引发人类社会对于大语言模型应用潜藏伦理道德与政策法规风险的忧思。同时,基于大语言模型的智能交互工具嵌入智慧图书馆的知识生成、知识管理、知识传播等重要阶段必然面对基数庞大且来源复杂的读者群体,往往忽略读者的不同背景与敏感的文化状况,在算法设计、数据选择、模型优化以及服务提供中可能产生多样化的偏见歧视,甚至传播严重违反伦理道德和政策法规的虚假、色情、暴力等有害信息,导致难以进行有效沟通合作的艰难局面。
3.3 隐私安全风险
图书馆知识服务智慧化建设的重要前提是融入超大规模的高质量数据,相关产品的训练效率和输出效果直接受到数据数量与数据质量的重大影响。但是,采用无监督学习方法自大规模语料库中归纳相应规律并理解生成自然语言文本的知识训练中使用的未标注数据资料在真实性、准确性与流畅性等多方面存在安全风险。基于语义理解的互动问答和上下文分析捕捉读者查询意图,进而提升知识搜索服务的效率和质量的实践活动有可能因为多样化的文件格式与非文本内容等噪声问题以及算法、数据、平台中的技术漏洞和偏见错漏而遭遇重大安全威胁。黑客攻击者可能会利用漏洞访问、篡改或删除重要信息,甚至影响图书馆正常运行[17]。同时,大语言模型产品在自动处理大规模的复杂来源的不同类型数据以生成书籍、文章和其他资源文献的过程中可能构成垄断或不正当竞争。违法犯罪分子通过输入恶意数据资料诱导大语言模型在多轮对话中输出各类敏感数据,严重侵害广大读者的数据隐私权。如智慧图书馆应用的生成式信息服务系统根据读者的浏览阅读记录、收藏情况和多轮互动回复中显示的情感去向识别读者兴趣、行为模式和潜在需求,虽然有助于提升读者的个性化服务体验、增强知识服务的趣味性和生动性,却也有可能导致读者放松警惕而提供更多的隐私数据,在一定程度上增加了隐私侵权风险。
3.4 版权保护风险
传统版权制度立足于“只保护自然人思想的表达,而不保护自然人的思想本身”的“思想表达二分原则”。“GPT-4”和“文心一言”等改变了版权领域的底层创作逻辑,广泛应用于图书馆知识服务的过程中生成很多知识增值的区别原初作品的信息内容,却大多属于缺乏真正的自主创造能力的人机协作重组式内容创新。虽然绝大多数国家和地区认为大语言模型产品是基于事先设定好的算法、规则和模板生成的结果而不赋予版权,却由于生成式智慧对话系统的类人创作和推理能力以及高昂的开发成本引发新型版权风险。如OpenAI 公司通过GPT 系列使用条款提示用户巨大的版权风险,要求使用者在法律允许的范围内对所有输入和输出内容负责。我国图书馆知识服务中基于人工智能生成的知识内容可能面临版权保护风险。亟待完善大语言模型产品应用中训练数据许可授权机制[18],构筑生成作品关联版权权益的政策法规保护范式并为版权溯源提供技术支撑和规则保障。
4 大语言模型嵌入图书馆知识服务的管控策略
大语言模型嵌入多层次、多维度的智慧图书馆知识服务的全生命周期迫切需要在质量、效率、安全、发展等价值诉求中取得动态平衡。亟待构建安全驱动的嵌入模式和价值对齐的运作范式、增强模型应用的技术防御并建设质量评价体系、完善图书馆知识服务中模型产品使用的政策法规监管措施并培养智慧馆员的职业技能,积极推进智慧化的知识检索、知识管理、知识共享以及其他智慧知识服务。
4.1 构筑安全驱动的嵌入模式
国家互联网信息办公室发布的《生成式人工智能服务管理暂行办法》明确表示,国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。大语言模型嵌入图书馆知识服务的实践活动应当重点关注数据安全和技术安全。不仅在数据训练阶段完善机器审查和人工审查制度,有效降低训练数据集中偏见、虚假或不准确的文本数量,还应当运用容错机制、增量学习和访问控制等确保合规合理地使用企事业单位和个人数据,逐步构建包括内容来源标准、内容过滤工具、读者反馈渠道等在内的大数据语言模型产品应用的安全驱动方式,推进图书馆知识服务的合理使用与创新发展。
4.2 搭建价值对齐的运作范式
数智社会的高速发展不仅需要实现人工智能和人类行为的时空对齐和事实对齐,更为重要的是智能技术的研发与应用必须符合人类的价值观。价值对齐(value alignment)是人工智能发展中解决人工智能体(AI Agent)与人类价值观不一致问题的核心治理手段。虽然人类社会长期处于多元价值观的复杂格局,却也在无数的自然灾害与人为灾难的磨砺中逐渐形成构筑以人为本、开放包容、可持续发展的全球命运共同体的基本共识。图书馆知识服务中嵌入的大语言模型产品的追求目标如果与图书馆的真实意图存在较大差异,可能会造成严重的负面后果。亟待在模型设计层面确保生成式智慧系统理解人类设置图书馆的核心价值,“实现知识的自由存取,公正、平等服务于社会,满足每个读者的不同需求,为社会的进步与和谐发展做出应有贡献”[19],并在模型应用的全生命周期中持续进行价值对齐的综合评测、专家引导和人类反馈强化学习(RLHF)。例如,图书馆应当委托知识服务专家团队定期评估模型产品输出内容与图书馆核心价值的适配程度以及是否符合以人为本、技术可控和可持续发展等基本伦理原则。
4.3 增强技术防御与质量评价能力
大语言模型应用过程中存在较大的辅助攻破对抗机器学习防御的特殊风险[20]。有必要在其嵌入图书馆知识挖掘、知识管理与知识传播的过程中制定清晰具体且可实操的数据标注规则与质量评估机制,通过数字水印等技术方法对数据资料进行适当标注,采用数据清洗和数据增强等技术手段避免数据缺失、数据噪声、数据偏见等质量问题,利用人类反馈强化学习算法改进模型行为,增强模型系统的稳定性、可控性、可靠性、透明性、抗攻击性、可追溯性和可解释性,逐步健全读者使用行为的监测方案和生成内容告警机制,及时发现和处理数据资源泄露等风险事件,降低智慧知识服务的经济成本与运行耗费的碳排放量。
4.4 完善政策法规监管举措
大语言模型应用于图书馆知识收集整理、共享共建、传输应用等可能导致知识产权、商业秘密、个人隐私等方面的违法违规风险且生成式内容造假等行为具有隐蔽性和分散性,亟待搭建规范性文件体系并完善公权救济与监管惩戒机制。如《科技伦理审查办法(试行)》(征求意见稿)提出建立伦理高风险科技活动的清单制度,大语言模型嵌入图书馆知识服务就属于可能产生较大伦理风险的新兴科技活动,应当及时实施科学合理的清单管理;又如,《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等提出的算法备案、安全评估、人工智能生成监管等制度要求同样适用于图书馆知识服务中应用大语言模型的具体场景,有必要在《档案法》和《公共图书馆法》和各地区的《图书馆管理条例》及其细则中适当阐明大语言模型应用的关联概念、风险预防、归责原则等。同时,通过图书馆和人工智能行业的自律规则建立敏感信息登记备案制度、定期进行知识服务中嵌入的大语言模型产品的抽检评估与预警机制并完善替代运转的人工平台等。此外,不同类型的图书馆(如公共图书馆和高校图书馆、研究型图书馆和通识类图书馆、自然科学类图书馆和社会科学类图书馆等)在知识服务的内容与方式上存在较大差异,相应的监管要求应当有所不同。
4.5 培养智慧馆员职业技能
嵌入多维大语言模型产品的图书馆智慧知识服务的有序运转对于馆内工作人员的信息素养与业务能力提出了更高要求,“不再是中介性的角色,而是具有高学历的高素质人才,同时具备服务能力与研究能力的专家型馆员队伍”[21]。数字强国背景下生成式人工智能广泛应用于图书馆的知识服务领域,意味着馆员应当是充分掌握数字技术的高素质、高效率、高水平的知识工作者,不仅需要承担参考咨询职责和学科信息服务职责,还应当能够融合高水平专业背景知识与数智科技,具备技术开发、技术评估和技术应用等职业能力,能够监督审核知识服务中大语言模型的应用状况。由此,智慧图书馆不仅需要培养现有馆员,还有必要招聘更多的具有新技术能力和智慧素养的新馆员,完善馆员信息技术、职业素养与科学技能的职业能力标准,推动制定适应数智社会发展的馆员认证体系并定期开展专题讲座、试点操作、考核评估等[22],大力落实激励与惩戒机制。
5 结语
数字强国背景下迭代发展的大语言模型深度改变了人类社会从信息搜索到科研创造的游戏规则,已经呈现出同质化竞争的趋势,“需要思考更多大模型之外的设计——如何围绕大模型来构建智能系统解决真实世界中的纷繁复杂的问题,如何让这个系统更深度地‘思考’,更理智地决策,更有效地执行”。亟待加速发展垂直行业专用的自主可控的模型产品,为新兴数智技术融合图书馆知识服务营建良好的生态环境。有必要迅速厘清大语言模型嵌入智慧图书馆知识服务的多元价值、运行机理、风险范式与管控策略,充分发挥模型产品驱动智能化、高效化、个性化的高质量知识服务的关键作用。