生成式AI驱动下的知识封装与知识传播新形态研究*
2024-05-29易龙
摘 要:知识封装技术的发展推动了出版形态的更新,从数据库技术、搜索引擎再到大语言模型技术,知识表示、提取、生成和传播的方式不断演化。生成式AI可对各类数据文本进行学习并推理预测,进而生成知识性内容输出。一方面,生成式AI技术因其知识生成的潜在效果而被普遍用于知识封装产品之中;另一方面,也必须关注生成式AI可能带来的一些问题,如数据可耗尽性、输入依赖性、不平等性、解释性不足及稳健性不足等。生成式AI通过对话式知识提取、多模态知识表达和知识智能体等方式,正在深层重塑知识传播形态,理解其演进特征将有助于更好地驾驭这一新型知识系统。
关键词:生成式AI;知识封装;出版形态;知识传播;大语言模型
DOI:10.3969/j.issn.2097-1869.2024.02.011 文献标识码:A
著录格式:易龙.生成式AI驱动下的知识封装与知识传播新形态研究[J].数字出版研究,2024,3(2):84-93.
*基金项目:2023年度湖南省教育厅科学研究优秀青年项目“生成式人工智能背景下的知识封装与传播形态研究”(项目编号:23B0019)。
出版活动包含了知识封装(Packaging)和知识传播(Dissemination)这两个重要并置功能。知识封装贯穿纸质出版到AI出版的各个发展阶段。纸质出版和电子出版阶段,更多地将封装视为出版物固态化的过程或状态。张志强等[1]区分了网络型出版物和封装型出版物,强调了两者之间存在的差异。徐丽芳[2]通过辨析数字出版与电子出版、网络出版,指出了封装型载体变化导致的概念趋同。随着出版形态的进一步演化,封装被赋予了更多内涵。张新雯等[3]探讨了将资源封装成不同产品形态结构的可能性。冯宏声等[4]认为在数字出版语境里,“容器”并非物理形态的介质,而是“以数字形态封装内容的符号”。周葆华[5]认为,人类传统的知识媒介由专家系统生产和把关,知识生产遵循特定的专业法则和审核标准,凝结成确定的知识产品形态,保存于固定的“本质性资料库”中。常江等[6]提到,在数字媒介逻辑的支配下,整个出版业的“操作系统”完全被打开了,各种类型的出版物与其说是某一知识产品的最终形态,不如说是流行性、网络化的知识生产过程中的某一个“凝固的瞬间”,是用户生活经验与知识获取实践的一个语境化的交叉点。综合以上观点,不难发现,学者大多认同封装是将知识凝结固定的技术实现和形态结构的塑造过程。
进入智能出版阶段,知识的封装与传播实现了功能同步。生成式AI技术展现了其在大规模知识挖掘、組织、表示与传播方面的能力,推动了出版新形态和新业态的不断涌现。生成式AI作为一种AI技术,能够通过学习已有数据集生成新的文本、声音、图形、视频、虚拟现实等多模态内容。方卿等[7]从出版作为一个以知识内容选择、传播、传承为内在追求的内容产业出发,指出“类人”的智能和出版的系统化封装与传播,使得人工智能生成内容(Artificial Intelligence Generated Content,AIGC)产生巨大的影响力和破坏力。刘珍等[8]指出AI的内容生成功能和出版行业的深度融合将实现知识封装过程中的全流程互动性和个性化,并更好地整合多模态的出版内容,实现更完整、优质的内容出版。考虑到出版业知识组织的核心功能与生成式AI封装知识的内在勾连,可以将知识封装视为基于用户信息使用行为习惯,利用不同的媒介技术系统对知识内容进行产品化组织并为用户提供知识服务的实现形式[9]。出版是知识密集型、智力密集型的行业,也是对媒介技术敏感的行业。出版业围绕知识的组织不断地革新媒介应用方式和出版物封装形态,以求更好地进行知识传播。生成式AI表现出的知识生成和处理能力,对出版业的核心能力带来了直接的冲击。为了应对,部分出版机构积极拥抱生成式AI以提升竞争力。考虑到生成式AI应用所需要的开发能力、算力成本和数据资源,出版行业鲜少能够直接开发通用大语言模型,故将生成式AI技术与出版业态相结合成为主流路径,应用场景选择和产品形态设计成为出版智能化过程中需优先考虑的因素。出版业拥有优质内容和数据供给,生成式AI则是数据和知识挖掘的先进技术,两者能有效结合的关键在于能够产生符合新技术条件下用户使用行为习惯的出版产品形态。因此,考虑着眼于产品化的知识封装和着眼于用户接受的知识传播是需要重点讨论的问题。
1 封装技术对出版形态的形塑
媒介技术固有的物质结构及与生俱来的对信息符号的重构力量,使其对传播形态发挥着重要的限定性作用,一旦与内容结合便可固化为特定的出版物形态。封装不总是意味着出版内容物的凝固和编辑开放性的终结,相反,通过梳理封装技术与出版形态的关系可以发现,与以完成态为目标的出版物封装技术不同,生成式AI技术对知识的封装是在与用户共生的知识交互中完成的,是一种更关注个性化知识获取的封装方式。
1.1 封装技术与内容物的组合共同塑造了出版形态
出版是文化传承、知识传播和信息传递的重要方式,而这些目标的实现离不开出版物这一重要载体,因此文化、知识、信息的封装方式在一定程度上决定了出版价值的实现。对文化、知识和信息的封装方式,是根据不同的出版目标选择特定内容组织方式形成不同出版物形态的过程。数据库和大数据技术的发展,加上数据作为重要生产要素发挥的经济社会价值,使得数据这一知识来源的初始形态成为相对独立的一种内容物,发展为数据出版形态。组织理论家罗素·艾可夫(Russell L. Ackoff)最早提出了“数据—信息—知识—智慧”层次结构,揭示了知识的本质,成为知识组织理论的重要基础[10]。数据库技术(包括大数据技术)、搜索引擎技术、大模型技术三类知识封装技术与知识的层次结构模型相结合,产生了数据出版、信息检索、知识服务等各类出版形态的发展。
1.1.1 数据库技术与数据封装
数据封装的目标是提供一定规模数据集的存储、查询和分析,追求存储记录和检索利用价值,并不直接提供知识挖掘和深入见解,涉及数据库及大数据技术。早期的知识以高度结构化的方式进行存储,通过关系型数据的方式来表示人类知识,通过数据库语言来检索、访问、调用知识,具备较高的使用门槛。后来则出现了专门存储非结构化数据的数据库技术,通过数据挖掘和机器学习等技术可用于处理使用非结构化数据。
1.1.2 搜索引擎技术与信息封装
以满足资讯获取等浅阅读需求为目标的封装形态,是知识封装的初级加工形态,往往知识密度低、技术复杂度低、折旧速度快。随着因特网的诞生,大量的碎片化知识分布在不同的网站中,搜索引擎成为获取知识的关键技术。关键词输入作为提取知识的基本使用方式,基本为单向操作。通用搜索引擎以满足信息需求为主要目标,知识结构化程度较低。搜索引擎通过互联网页面信息的抓取、索引及排序算法等技术对信息进行封装,并以关键词匹配响应信息需求。信息封装的主要目标是消除不确定性,因此以事实性内容提供为主要方式,早期搜索引擎索引的信息来源类型包括在线新闻、社交媒体文章、电子书籍等,本身通常不被视为一种数字出版形态。但是,搜索引擎作为一种信息封装方式,为互联网用户提供了一种统一的信息或知识获取的交互界面和访问入口,其作为信息提取与表示的主要方式,具备强大的控制信息流动的权力,信息索引和页面排序算法等则是这种信息分配权力的具体实现。
1.1.3 大语言模型与知识封装
大语言模型(Large Language Model,LLM)是生成式AI的重要类型,主要用于自然语言的理解和生成任务。大语言模型以从信息和数据中提炼结构化认知为目标,可提供有组织和可解释的信息,需要AI、深度学习等技术辅助实现知识挖掘的功能,通常具备良好的稳定性和较长期的价值。大模型时代首次以最自然的方式使用人类知识,通过对话即可提取知识,知识的组织围绕人类提示词而进行预测式生成,知识传递在对话协同中完成。
考虑到三种封装方式各有其优缺点(见表1),未来封装技术的发展有可能融合数据库技术、搜索引擎技术、大语言模型技术三者的优势,以保证知识封装在知识时效性、密度、精确度、准确度等方面的可靠性,并减少机器幻觉和信息偏见所带来的危害。
1.2 基于生成式AI技术的知识封装产品
生成式AI技术的出现,推动出版行业应用AI从传统的知识挖掘升级为知识生成。知识模型基于大模型的训练机制,可以在某种意义上认为大模型学到了人类知识,并通过生成模式实现知识的重新表达和传播。因此,可以说大模型即出版,大模型是集成性的、新形态的出版物[11]。从公开数据来看(见表2),开发相应产品、工具或平台是出版机构应用生成式AI的主要方式。通过对现有部分出版机构的生成式AI产品的定位、功能和发展目标等方面的梳理,发现现阶段出版相关企业的生成式AI产品部署主要用于增强传统优势业务板块,进一步服务核心客户,最终提升企业的市场竞争力。在金融、法律、科研等知识密集型行业及新闻等信息密集型行业,生成式AI得到了廣泛应用。
2 生成式AI知识封装及知识处理方式
传统数字出版一般采用元数据封装模式,通过统一的制作规格保证出版物的交付质量,产品具备很高的标准化程度和结构稳定性,给知识的组织、检索、存储和利用带来了很大的便利。生成式AI封装模式则依赖于提示词,通过单次或多轮对话提取知识,知识的组织围绕人类提示词而进行预测式提供。因此其相对元数据封装模式而言是非标准化封装,其形态因提示词而异,具备知识供给的灵活性,是一种个性化的知识供给模式,需要人机协同才能共同完成知识的生产与获取。元数据封装模式和生成式封装模式,在知识交付方式、封装形态等方面都存在差异(见表3)。
2.1 生成式AI知识封装特性
2.1.1 数据可耗尽性:大语言模型数据需求增长快而高质量语料有限
大语言模型对人类所有可获得的、可数据化的知识进行封装,使其具有知识存储方面的完备性,并且几乎不存在知识上的盲区和短板。按照计算机专家陆奇博士的观点,它几乎封装了全世界所有的知识,内嵌了足够的学习能力和推理能力[12]。ChatGPT在不同版本中接入了GPT-3.5和GPT-4两个模型:前者的参数数量达1 750亿,训练集的token数量达4 990亿,其数据源来自Common Crawl数据库、WebText数据集、英文维基百科、书籍期刊,其中仅蕴含在书刊内的知识就已超出一般个人的知识水平[13]。按照目前大模型的发展速度,很有可能在不远的将来耗尽现有可获得的高质量文本。由于知识生成的效果依赖于训练所使用的数据集,一旦包含了人类存量知识的高质量语料被学习完毕,大模型的知识边界便会暴露出来。
2.1.2 输入依赖性:提示词和知识输出之间的联动
应用生成式AI产品进行知识输出和提取,严重依赖于提示词的质量及其使用方式。可以通过一个提示词实验来观察提示词与知识输出的关联。通过让ChatGPT就一个主题进行提问并作答,建立问题与输出之间的问题序列。例如,给出的提示词如下:“请就‘数字出版这一主题给出5个问题,要求这5个问题是同一个问题按抽象程度分为具体、稍微抽象、一般抽象、高度抽象、最高抽象5个层级逐级递增的不同表达;给出参考答案;并请对你自己回答的每道题依次进行评价。”ChatGPT输出的结果整理后见表4,当提示词的抽象层级不断提升时,答案的抽象程度也随之提升,知识密度相应增加。
2.1.3 不平等性:算法的放大器效应强化了提示词输入者之间的既有“知沟”
一方面,生成式AI是新“知沟”产生的主要推动力量。由于知识的易获得性,尽管目前还不可靠,生成式AI仍然一度被认为是知识普惠的代表性技术。但事实可能正好相反,受限于用户认知水平、经济状况、地区分布、大模型存在的偏好迎合倾向等诸多因素,使得生成式AI并不能带来信息和知识平权,甚至在一定程度上会放大两者之间的差异,造成知识获取的“剪刀差”。现以“剪刀模型”(见图1)假设来描述生成式AI应用过程中所存在的个体间知识获取差异:由于并非每个人都能平等地接入和使用大语言模型,造成了大模型采纳过程的进度差异,最先使用大模型技术的用户更有可能获得技术带来的知识获取便利,因而可以更早积累知识,并受惠于此。对大模型技术的理解差异、语言表达水平、认知水平差异等也造成了输入提示词水平的差异,这导致了知识生成结果的差异。对输出结果的使用评价能力则进一步导致了后续影响,例如在知识验证、偏见防范等方面进一步造成了不平衡。大模型技术有时并不是解决知识平权问题的良方,相反它会放大原本存在的个体间知识获取方面的不平等问题,即个体间固有条件差异越大,经过大模型的放大后,其导致的知识获取效果差异也越大。人类的提示词输入细微差异经过Transformer模型放大后,机器会给出不同水平的输出。
另一方面,英语知识生产的中心地位被强化。当前大模型数据集主要为英文,其他语料则相对偏少。中国工程院院士高文曾公开表示,全球通用50亿大模型数据训练集里,中文语料占比仅为1.3%[14]。这种源自语料层面的不平等,对文化安全等层面也将带来深刻影响。哈尔滨工业大学长聘教授刘挺认为,语言成为舆论战武器,而今的大模型能够自动回答问题、发表评论、撰写文章,使语言武器自动化了,其带来的风险难以估量[15]。另外,牛津大学的一项研究表明,由于开放AI(OpenAI)等服务所采用的服务器成本衡量和计费的方式,英语输入和输出的费用要比其他语言低得多,其中简体中文的费用大约是英语的2倍,西班牙语是英语的1.5倍,而缅甸的掸语(Shan)则是英语的15倍[16]。
2.1.4 弱可解释性:智能涌现决定AI可预见性较弱
“涌现”(Emergence)一词的概念是由刘易斯(George Henry Lewes)于1875年在《生命与心灵问题》(Problems of Life and Mind)著作中首次提出的。心理学家劳埃德·摩根(C. Lloyd Morgan)指出,类似的概念在逻辑学家密尔(J. S. Mill)和心理学家文特(W. Wundt)的理论中也能找到,他们普遍认同涌现是对无法从构成先前状态的元素中预测出来的新现象的描述。“涌现”不同于“结果”,它通常无法根据现有元素进行预测,是一种突现,这些对涌现的定义与现代的定义和讨论非常接近[17]。
ChatGPT之类的大语言模型被认为具备一定的涌现特征,也是机器智能的重要标志。但也有研究认为,大模型所谓的涌现能力是由于研究者选择的度量标准而产生的,而不是模型行为在规模扩展中发生了根本变化。所谓的涌现能力会随着不同的度量或更好的统计学而消失,并且可能不是缩放AI模型的基本属性[18]。智能涌现一方面导致了AI生成知识的可解释性弱,进而降低了机器生成内容的可信度;但另一方面也可能是知识发现与知识创新的源泉。
考虑到机器输出知识的精确性和稳定性直接关乎出版行业对其生成内容的采纳程度,因此必须解决机器生成知识的可验证、可预见及可靠性。出版行业是具有高质量标准要求的知识处理行业,只有经过严格编校程序的知识才能最终面向公众进行发布。
2.1.5 弱稳健性:知识输出结果的可靠性受制于模型幻觉程度
大模型输出的幻觉(Hallucination)问题和稳健性(又称鲁棒性)是影响AI生成知识可靠性中的重要影响因素,也是目前阻碍其在出版领域广泛应用的原因之一,尚未找到彻底解决机器幻觉以提升知识系统稳健性的方法。因此,大模型应用于知识生成,需要经过人工环节进行验证才可用于发布。大模型幻觉可分为事实性幻觉(Factuality Hallucination)和忠实性幻觉(Faithfulness Hallucination)两类,前者指模型生成内容与可验证的现实世界事实之间的不一致,后者指生成内容与用户指令或输入提供的上下文的偏离,以及生成内容本身的自洽性。大模型幻觉来自预训练数据中的错误信息和偏见,本身的知识边界也导致存在领域知识缺陷和过时的事实知识[19]。
大模型的幻觉问题与其模拟大脑的学习模式也有关系。心理学的研究揭示了大脑具备两类思考系统,即系统1和系统2。“双过程理论(Dual Process Theory)”也指出了大脑存在两个思考系统,最早由心理学家基思·斯坦诺维奇(Keith Stanovich)和理查德·韦斯特(Richard F. West)率先提出[20],后来诺贝尔经济学奖得主丹尼尔·卡内曼在其著作《思考,快与慢》(Thinking, Fast and Slow)对其进一步阐发。系统1的运行是无意识且快速的,不怎么费脑力,没有感觉,完全处于自主控制状态。系统2将注意力转移到需要费脑力的大脑活动上来,例如复杂的运算[21]。系统1依赖情感、记忆和经验对外界做出迅速判断,但也容易“上当”并产生错觉。大模型的幻觉问题的产生与其所采取的自监督学习进行预训练的技术路径有关,后者接近大脑系统1的学习模式。麻省理工学院综合计算神经科学(ICoN)中心的研究人员发现,当他们使用特定类型的自我监督学习来训练神经网络模型时,所得模型生成的活动模式与执行相同任务的动物大脑中看到的活动模式非常相似[22]。解决大模型幻觉问题的厚望被寄予在大模型和知识图谱技术的协同发展上,知识图谱技术被认为是建立可解释的AI的重要路径,与大模型技术具有很好的互补性,正如大脑的两个系統相互补充一样。
2.2 大模型知识处理方式
人脑通过从环境中习得、加工和生成信息,最终将其作为适应环境的一种方式。在这个过程中,人作为目标,而知识则成为实现这一目标的手段。大脑的生物神经网络自带编解码能力,大脑既是知识的生产者也是知识的获取者。大模型则借助机器神经网络将知识输出作为目标,以人类反馈作为增强机器知识能力的手段。知识生产就是模型应用和结果调取的过程。大模型基于自注意力机制的深度神经网络模型处理人类发布的存量文本并进行知识发现与生成,其对齐能力、泛化能力和更新能力仍然存在一定局限性(见表5)。
3 生成式AI赋能的知识传播新形态
知识封装更多是从媒介技术对出版产品带来的影响出发考虑生成式AI出版产品的新形态和新业态,而知识传播更多从用户知识获取的视角来考虑在生成式AI技术中介下所形成的用户获取知识和媒介知识供给的新变化。考虑到OpenAI在产品化方面的丰富经验及其带来的示范效应将波及各行各业,其中也包括出版业。其已开发的ChatGPT、Sora及正在开发的智能体(AI Agents)等产品类型将预示着未来生成式AI应用于知识传播场景的三个重要方向,分别是对话式知识服务产品、多模态知识大模型及知识智能体。
3.1 信息交互方式:基于对话的知识提取
像ChatGPT之类的生成式AI产品是以对话形式封装的信息和知识系统,自然语言成为人机知识互动的基础,人机交流始于提示词(Prompt),终于答案输出(Output)。类人对话能力的背后是大模型对海量文本语料的学习,包括语言学知识和世界性知识。将大模型视为知识库,人类通过设计提示词,可以很好地提取其中蕴含的丰富知识。有学者认为,AI产品ChatGPT作为数字智能界面,绝不仅是提供了一个“类人性”对话主体,而是实现了超大语言模型系统与人类感官系统史无前例的交互,这是一个崭新的交互界面,也是一种新型主体样态,ChatGPT“类人性”形式表面所隐藏的,是超越人类的新型认知系统[23]。
在AI对话式生成系统诞生前,传统的人机交互界面大多是图形用户界面(Graphical User Interface,GUI),虽然图形界面设计一直强调用户体验优化,但依然不如自然语言使用来得直接和普遍。生成式AI采取自然用户界面(Natural User Interface,NUI),不需要借助图形交互工具和行为便能够应对广泛的知识交互场景。考虑到自然语言本身可能存在的表达局限性,目前并不能完全替代图形交互。“交流的无奈”“一图胜千言”现象的存在更是提醒人们不要把通过自然用户界面进行信息交互看成万能的交流方式。通过自然用户界面能够从大模型中提取知识,意味着大模型被封装为一种动态供给的知识库,知识主要以文本形式加以存储。
3.2 多模态知识传播:知识虚拟可视化与多模态表示
比斯克(Yonatan Bisk)等[24]曾构建了一个“世界范围(World Scope)”五层次模型来表示自然语言处理所需要的不同文本来源,分别是小规模语料库(世界1)、互联网文本(世界2)、多模态文本(世界3)、具身(世界4)、社交互动(世界5),我们正处在世界2向世界3转换的进程中,未来将进一步发展到世界4和世界5。在世界3中,知识以多模态的形式生成、传播和获取。多模态生成式AI将加速虚拟出版时代的到来,知识的空间可视化表达、知识的演化仿真设计和知识的多模态获取将成为知识传播形态创新的方向。虚拟化技术赋能的知识空间化存储、空间化计算和空间化表达,成为多模态知识传播未来发展的重要方向。数字博物馆、多模态计算[25]及新形态出版物成为未来知识多模态组织和多模态传播的重要形态。生成式AI技术与虚拟现实技术将进一步融合推动虚拟内容智能生成。
3.3 知识智能体:从被动应答到自主行动
如果说对话式生成还停留在人机知识交流的层面,那么基于大模型的AI智能体(Agents)则超越对话,目标进一步指向机器决策乃至自主行动,即具身智能(Embodied Artificial Intelligence)。AI智能体将大模型作为大脑,通过信息交互来感知外界变化,最终作出自主行动,实现特定的任务。智能体这一概念起源于哲学,其根源可追溯到亚里士多德和休谟等思想家,它描述了拥有欲望、信仰、意图和采取行动能力的实体。在AI研究领域,智能体是用来描述展示智能行为并具有自主性、反应性、主动性和社会能力等特质的实体,AI智能体通常被认为是实现通用AI(Artificial General Intelligence,AGI)的重要步骤[26]。OpenAI公司AI应用研究主管翁丽莲(Lilian Weng)在一篇关于AI智能体的网络文章中提出了基于大模型构建自主智能体的应用框架:智能体包括LLM、记忆(Memory)、规划技能(Planning)和工具使用(Tool Use)等要素,其中大模型是智能体的大脑,其他是关键的组成部分[27]。大模型未來将逐渐向大脑功能逼近,在虚拟环境中成长并与现实环境交互,成为自主适应复杂环境甚至自主行动的智能体。未来的知识智能体将可能以自主方式开展知识传播活动,进而改变人类的知识交流方式。
4 结语
生成式AI是一种知识封装技术,它以全面性的知识占有、自然的人机交流模式和强大的知识推理能力改变着人类知识传播的形态,将人类带进了生成式传播的时代。以知识传递为重要使命的出版业,将不可避免地遭受生成式AI技术带来的冲击。积极探索生成式AI背景下的新出版方式和新传播形态,不断改进知识生产与传播效果,将为出版业转型升级带来历史性重要机遇。
作者简介
易龙,男,博士,中南大学人文学院传媒系主任,副教授。研究方向:数字出版、智能传播。
参考文献
[1]张志强,唐舸.网络出版研究综述[J].出版科学,2002(S1):66-73.
[2]徐丽芳.数字出版:概念与形态[J].出版发行研究,2005(7):5-12.
[3]张新雯,陈丹.微版权概念生成的语境分析及其商业模式探究[J].出版发行研究,2016(3):30-32.
[4]冯宏声,王枢.变革与重塑:出版业与AI共创未来[J].数字出版研究,2023,2(4):1-7.
[5]周葆华.或然率资料库:作为知识新媒介的生成智能ChatGPT[J].现代出版,2023(2):21-32.
[6]常江,朱思垒.作为知识生产的数字出版:媒介逻辑与文化生态[J].现代出版,2021(5):19-24.
[7]方卿,丁靖佳.AI生成内容(AIGC)的三个出版学议题[J].出版科学,2023,31(2):5-10.
[8]刘珍,赵云泽.技术逻辑、实现方式与现实边界:生成式AI对出版业的深层影响[J].中国出版,2023(15):11-16.
[9]易龙.从数字出版到智能出版:知识封装方式的演进[J].出版科学,2023,31(1):81-90.
[10]ACKOFF R L. From data to wisdom[J]. Journal of Applied Systems Analysis,1989,16(1):3-9.
[11]毛文濤.出版的当下与未来[J].出版与印刷,2023(6):26-31.
[12]邵文,方晓.陆奇最新演讲审定版:大模型带来的新范式和新机会[EB/OL].(2023-05-13)[2024-01-20].https://www.thepaper.cn/newsDetail_forward_23057456.
[13]陈昌凤,黄阳坤.ChatGPT的知识功能与人类的知识危机[J].现代出版,2023(6):10-18.
[14]罗云鹏.大模型发展亟需高质量“教材”相伴[N].科技日报,2024-01-15(06).
[15]刘挺.从ChatGPT谈大语言模型及其应用[J].语言战略研究,2023,8(5):14-18.
[16]PETROV A, LA MALFA E, TORR P, et al. Language model tokenizers introduce unfairness between languages[EB/OL]. (2023-10-20)[2024-04-09]. https://arxiv.org/ftp/arxiv/papers/2305/2305.15425.pdf.
[17]EMMECHE C, K?PPE S, STJERNFELT F.Explaining emergence: Towards an ontology of levels[J].Journal for General Philosophy of Science,1997(28):83-117.
[18]SCHAEFFER R, MIRANDA B, KOYEJO S. Are emergent abilities of large language models a mirage?[EB/OL].(2023-05-22)[2024-04-09]. https://arxiv.org/pdf/2304.15004.pdf.
[19]HUANG L, YU W, MA W, et al. A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions[EB/OL].(2023-11-09)[2024-04-09]. https://arxiv.org/pdf/2311.05232.pdf.
[20]STANOVICH K E, WEST R F. Advancing the rationality debate[J]. Behavioral and brain sciences,2000,23(5):701-717.
[21]丹尼尔·卡尼曼.思考,快与慢[M].胡晓姣,李爱民,何梦莹,译.北京:中信出版社,2012:5.
[22]TRAFTON A. The brain may learn about the world the same way some computational models do[EB/OL]. (2023-10-30) [2024-01-28]. https://news.mit.edu/2023/brain-self-supervised-computational-models-1030.
[23]孙玮,程陶然.AI界面:系统交互的革新[J].新闻记者,2023(8):3-12,61.
[24]BISK Y, HOLTZMAN A, THOMASON J, et al. Experience grounds language[EB/OL].(2020-11-01)[2024-04-09].https://arxiv.org/pdf/2004.10151.pdf.
[25]周葆华,吴雨晴.超越单一模态:多模态计算传播研究的进展与前瞻[J].传媒观察,2024(1):16-27.
[26]XI Z, CHEN W, GUO X, et al. The rise and potential of large language model based agents: A survey[EB/OL].(2023-09-19)[2024-04-09]. https://arxiv.org/pdf/2309.07864.pdf.
[27]WENG L. LLM powered autonomous agents[EB/OL].(2023-06-23)[2024-01-26].https://lilianweng.github.io/posts/2023-06-23-agent.
Research on New Forms of Knowledge Packaging and Dissemination Driven by Generative Artificial Intelligence
YI Long
School of Humanities, Central South University, 410012, Changsha, China
Abstract: Development of knowledge packaging technology has driven the renewal of publishing forms. Ways in which knowledge is represented, extracted, generated and disseminated continue to evolve from database and search engine technologies to large language model technology. Generative artificial intelligence (GAI) can learn from various data texts and make inferential predictions, thereby outputting knowledge-based content. On the one hand, GAI is widely used in knowledge-packaging products due to its potential for knowledge generation; on the other hand, issues such as data exhaustibility, input dependency, inequality, weak interpretability, and weak robustness highlight the need to pay attention to the potential consequences of GAI. It is profoundly reshaping knowledge dissemination form through dialogical knowledge extraction, multimodal knowledge expression and knowledge agents. Understanding its evolutionary characteristics may lend a hand to better navigate this new type of knowledge system.
Keywords: Generative artificial intelligence; Knowledge packaging; Publishing form; Knowledge dissemination; Large language model