APP下载

智能生成内容如何影响人的认知与创造?

2023-11-19彭兰

编辑之友 2023年11期
关键词:创造性

【摘要】在技术推动下,智能机器参与甚至主导的内容生产扩展到多个内容领域,这些内容以及内容生成的机制与模式,将影响人们对公共信息环境的认知、人的思维方式与认知行为。定制化内容生产目标聚焦个人需要,可能会带来公共议程的弱化风险。智能机器虚构的内容,既可能是机器能力有限所致,也可能是由人指示机器生成,两者都可能对人们的认知产生误导。智能机器完成的整合式内容加工,既可以集成群体智慧,扩展人们的认知空间,也可能带来混乱,干扰认知,削弱内容生产的丰富性,或催化人们的速食化内容消费,将人们的认知限制在平庸水平。即使智能生成内容会在一定程度上带来人的被动性,但机器生产的内容本身仍有一定的创造性,人如果能利用好机器,也会形成内容生产中的创造性。

【关键词】AIGC 生成式大模型 ChatGPT 知识生产 环境认知 创造性

【中图分类号】G206 【文献标识码】A 【文章编号】1003-6687(2023)11-021-08

【DOI】10.13786/j.cnki.cn14-1066/g2.2023.11.003

随着技术的发展,智能机器参与甚至主导的内容生产,已扩展到新闻资讯、知识、文学及其他艺术作品创作等各个领域。智能机器在定制化内容生产、虚构性内容生产、整合式内容加工等方面具有优势,但智能生成的内容,以及这些内容生成的机制与模式等,会影响人们对公共信息环境的认知、人的思维方式与认知行为等,甚至会强化人的被动性。这是否意味着智能生成的内容没有创造性?或者人在利用智能机器时是否会失去创造性?本文深入智能内容生成的具体模式与机制,探究其对认知、创造性产生的影响。

一、定制化内容生产对公共议程的弱化风险

算法推荐已成为智能时代内容分发的重要机制,特别是个性化算法推荐。一方面,从用户需求角度看,个性化推荐是节省信息获取成本的有效方式;另一方面,人的本性(选择性心理、惰性等)不会拒绝个性化推荐,没有算法的过滤,人们难以承受信息超载之重。同时,算法模型的改进,也有助于实现个性化与共性化内容的平衡。

今天的个性化推荐,仍然是在已有的内容中挑选适合不同用户的内容进行推荐,如果人们需要的某些内容没有生产出来,需求就无法得到满足。ChatGPT等生成式大模型则可由用户提出需求,再进行内容的生产,是由用户的个性化需求驱动的定制化生产。

智能机器的定制化生产不仅使用户的需求成为内容生产的目标,也可完成内容的多重加工,包括提炼摘要、标题,将碎片化的信息整合成有条理的答案,完成文字翻译,按用户需求将内容生成相应的表现形式等。以往人们需要在获得各种信息的基础上,根据自己的理解与需求进行信息的整合、再加工,但很多时候人们获得的信息不完整,对信息的理解有偏差,加工也不一定成功,机器在这方面则具有明显优势。正因如此,定制化内容生产是人们对智能机器最主要的需求之一。

目前ChatGPT提供的定制化内容,较多集中在知識或生活领域,但随着大模型应用的进一步发展,新闻类的定制化内容也将逐步增多。定制化内容带给人们的满足感不断增强,人们对机器的依赖也会加深,由此带来一种可能:社交平台中人与人的互动,日益让位于智能平台中人与智能机器的互动,这种人机互动将构建一种封闭的个人门户。人们对外界的感知与认知,会越来越多地受制于机器提供的内容。人与人互动的减少,意味着公共性内容在人际网络中的流动减少,由内容引发的交流、对话也在减少。这带来的一个潜在挑战是,公共话题与议程难以形成。

公共议程是社会整合的重要纽带。传统媒体有自己的议程设置方式,也具有显著的议程设置效果。社交媒体虽将议程设置的机制变成了自下而上,但议程设置的能力并未减弱、议程的影响范围并没缩小,反而是在加强和扩大。目前的个性化推荐平台,虽然针对每个人的推荐内容不同,但由于用户在某些方面的相通性,一些公共内容仍会被更多推荐,这些内容平台的社交机制,如跟帖、转发等,也有助于公共议题的形成。

如果未来人们只关注自己的定制化内容,且人机互动的平台缺少人与人的连接链条,平台中公共议程恐怕难以形成。公共议程的淡化或消失,使人对外界环境认知模糊,甚至会使很多人完全不在意外界环境。或许我们会寄希望于专业媒体提供的公共性内容能继续引导公共议程,但智能生产与分发机制下,内容的原始生产者(包括媒体)与用户之间的直接连接被弱化,经机器的中介与再加工,媒体的独立存在感被削弱。媒体自己的传播渠道,也会受到智能平台的进一步冲击。这不仅会影响专业媒体的公共议程引导效果,还会对媒体的生存发展带来威胁。

在人们越来越趋向定制化内容生产的未来,智能技术的开发者、智能平台需意识到公共议程弱化的风险,也需建立相应的公共信息流通与公共对话机制,为人与人的交流对话提供多种形式的通道,而不是将人封闭在与机器孤独相伴的狭小空间里。

二、虚构性内容带来的幻觉与幻象

智能机器的应用,带来了大量的虚构性内容,包括虚构的资讯与知识、虚假的新闻以及虚构的视觉化内容等。这些虚构内容,既可能是由机器生产的失误造成的,也可能是由人指挥机器有意制造的。

1. 机器的胡说八道与人的幻觉

当人们希望得到真实的内容,但机器提供的却是虚构、编造的内容时,人们常会调侃机器在“一本正经胡说八道”,并称之为机器的幻觉。与其说这是机器的幻觉,还不如说是人的幻觉。机器本身没有意识,幻觉也就无从谈起,它只是在按照模型进行生产。如果人不能意识到机器在胡说八道,甚至把这些内容当作真实、可靠、权威的内容,这才是幻觉。机器带来的认知偏差,也会造成人的认知幻觉。

人们对内容的真假往往缺乏主动查证意识,会依据对信源的信任程度来判断其生产内容的质量,或根据自己既有态度、立场、情绪等进行内容的选择与判断。在只有专业媒体提供公共性内容的时代,普通受众对媒体的膜拜,使得他们几乎不会对媒体内容提出质疑,尽管那个年代媒体在内容生产中的偏差并不罕见。对媒体生产内容不假思索地信任,实际上也是一些人的幻觉。进入新媒体时代后,社交媒体平台带来了内容生产主体的极大扩张,也带来了内容生态的复杂化,人们开始普遍意识到在新媒体中并非所有信息都是可信的,但社交平台的互动机制在某些时候也有助于内容的筛选与辨识,例如,高水平用户的引导、群体互动带来的群体智慧、自组织式的进化等。当然,更多时候人们会受到虚假信息的误导,不得不感叹“新媒体太乱了”,普通人对媒体内容的信任幻觉被打破。

在智能时代,人们常常需要独自面对机器,难以借助他人的力量。人们也很难通过内容原创者这一指標进行质量判断,因为智能机器生产的内容常常是对多种主体生产内容的打散与重组,淡化了内容来源。虽然,一些大模型应用也提供了相应链接以供用户查证,但一方面,一些用户没有查证的习惯;另一方面,技术目前也存在提供虚假链接的情况,给用户带来很多干扰。即使很多时候人们对机器提供的内容产生了怀疑,但如果缺乏独立的查证能力,或缺乏查证资源,他们可能仍然会将错就错。面对高效、超出了个体自身能力的机器,一些人也会逐渐对机器产生信任与依赖,全面接受机器带来的各种内容。

由于内容生产的定制化,人们从智能机器那里获得的内容因人而异,每个人面对的虚假信息也各不相同,这些信息进行大范围传播的概率比社交平台要小,虚假内容对人们的误导往往也是个性化的。但社交平台的虚假信息在大面积传播后往往会引发质疑,最终多数问题会得到纠偏,而智能机器带来的个性化误导如果不被个体察觉,就会一直延续。

机器带来的认知幻觉,会停留在人们的印象里,甚至不断蔓延,因此,第一时间切断机器带给人的幻觉尤为重要。对于人来说,更大的幻觉风险是,认为机器必然生产准确的内容,机器将成为知识权威。这种幻觉会随着机器能力的不断提升而与日俱增。未来人们不仅需要与机器斗争,还需要时时与自己的幻觉斗争。

2. 用户制造的虚构内容与虚实难辨的世界

智能时代另一种虚构内容也将大行其道,那就是用户利用AIGC(人工智能生成内容)等智能技术有意制造的虚构内容,特别是虚构的视觉内容。一些机构或个体用户,会基于营利、干扰信息环境或其他意图,通过机器来制造虚假信息。今天,这些虚假信息制造的成本更低,速度更快,也更难识别。但更多的时候,用户利用智能技术进行虚构性内容创作,是为了个人表达。手机的普及,使照片、视频的生产成为人们自我表达、社交互动的重要手段,但这些照片、视频都是纪实性的,人们只能基于现实中存在的对象进行创作,无法表达他们头脑中想象的画面。绘画、电影等虚构性创作的门槛很高,智能技术的普及是一次新的技术赋权,它使普通人也可以参与到虚构性创作中,即使大多数作品都难以称为艺术作品,但至少人们可以借助这些创作来进行自我表达,增加生活乐趣。

如果用户只是在私人空间里为了自娱自乐而生产虚构性内容,影响自然有限,但很多人不满足于此,而是希望其作品在公共空间里传播,提升自己的存在感,其中一些虚构性内容不免产生公共性影响。这不仅会对新闻的真实性产生干扰,也会让人们对社会环境的各个层面产生认识与判断偏差,正如今天图片的普遍美化、滤镜化增加了人们认识真实世界的障碍一样。

AIGC等技术也会与元宇宙构想中的一些应用交织在一起,帮助用户进行数字化形象或虚拟空间中交往的构建。这也会加剧虚构性内容的蔓延。

从技术走向来看,未来的数字空间里,真实与虚构的视觉内容的界限将不断模糊,有些虚构的内容甚至会以假乱真。当虚假的信息以高度可信的方式呈现给社会公众时,会对人际信任和系统信任造成破坏,引发社会广泛的不信任。[1]传统媒体和当下的新媒体,是一种在某些维度投射着现实世界的拟态环境,而未来的数字空间与现实世界的关系会更为复杂。其虽对现实世界产生拟态效果,但制造出很多现实世界没有的幻象,有些幻象能被人识别,有些则让人信以为真,而幻象的制造者,多是掌握了智能技术的普通人。从技术角度看,将人们利用智能应用创造的虚构性内容打上明确的标识,或许是帮助人们辨别幻象的一种方式,但这未必能解决一切问题。在元宇宙等新应用中,人们可以生存在幻象化的空间里,数字化的幻象空间也会成为生存环境的一部分,就像今天拟态环境的环境化一样。在幻象空间中的生活,也会成为现实生活的另一种形态。到那时,幻象会成为另一种真实,人们的认知会面临新的挑战。

三、整合式内容加工带来的多元影响

ChatGPT等技术可以超越单一内容生产者的局限,收集广泛来源的语料,对多源内容进行深度整合加工。这种整合加工是智能机器内容生产的突出特点,其影响较为多元。

1. 多源内容整合集成的群体智慧与扩展的认知空间

从用户角度看,机器对多源内容的收集与再加工,可使他们突破个人视野与知识的局限,快速获得某个话题下的信息,甚至包括信息的逻辑化整合。ChatGPT为人们提供的答案,正是这样一种逻辑化的信息整合。

目前的智能技术的整合水平未必已达到了足够高的水平。一些研究者将同主题下AIGC与UGC内容进行比较发现,AIGC在内容发散性上与UGC仍存在一定差距,其内容虽集中于核心主题,但同质性较高。[2]而发散性本应是人工智能技术的优势,因此,提高智能技术的信息搜集广度、内容的异质性,应该是技术发展的方向。如果机器依赖的基础素材与语料来源足够广泛,机器的整合也是对人类群体智慧的集成。如吴飞等指出,机器算法的介入强化了社会中个体思维之间的关系,打破了传统知识生产中时间和空间的限制,提供了非在场知识传播,同时使得更大规模、更多元化的知识生产成为可能,使知识生产向“全球脑”推进。[3]

多源的信息整合加工,很多时候也是跨界信息的整合与碰撞,这会带来原来单一领域不具备的视野与思维,一些行业或专门领域的发展空间也会因此扩展。以往在某些领域,如医疗领域,不同学科、专业之间具有较高的壁垒,一个医生甚至医学专家拥有的跨专业、跨学科的信息都是有限的,因而在一些疾病诊断或治疗方面难以突破自己的专业思维。而ChatGPT等大模型则会改变这一情况,它们不仅会成为人们的健康顾问与助手,还会推动医疗水平的提升。类似这样的变革还会在更多领域发生。

2. 加工素材或语料的混乱、结构缺陷等对认知的干扰

尽管机器的多源信息收集与整合有助于人们的认知拓展,但机器加工所依赖的素材或语料,直接影响其所生成内容的质量。机器最先依赖的素材来自人,但人类生产的内容也是鱼龙混杂,包括事实性差错、观念或价值观的偏差等,目前机器在进行加工时,并没有对内容进行查证或审核,因此,整合加工后的内容难免存在很多问题。这些问题,一方面,会对用户的认知产生干扰、误导;另一方面,当用户将机器给出的答案进行再传播时,这些有错误或杂质的内容会再次进入语料库,一些错误会被不断放大。

今天算法中存在的歧视、偏见问题已经引起人们广泛关注,ChatGPT等技术也存在这些问题,甚至由于它们所采用的语料来自各种人群,存在的问题更多样。而且,经过机器的再传播,一些问题会形成正反馈效应,并被不断放大。今天的大模型所依赖的语料库在结构上也并非是合理、均衡的,语料的庞大规模并不能保证多样性,因为它们往往是从网站上抓取来的,这些网站由于互联网接入不足、代表性不足,及过滤或骚扰等问题,排除了边缘化人群的声音。[4]

我们也能预见一种可能,一些个体或组织为了某些目的,有意给机器投喂带有某些倾向的语料,语料库中的内容被人为扭曲、污染。如果智能机器对这些问题不能察觉,其生成的内容就会造成更大的误导。

3. 机器加工思维对内容生产丰富性的削弱

无论机器的内容整合能力多强,它都是基于数字化的信息,因此有研究者担心,AI技术遮蔽掉了语言表达中无法被数字化的部分,而这一部分恰恰是知识生产中不可或缺的。如果我们过度依赖AIGC的知识生产,无疑将人类对自身知识掌控的权力也让渡给了AI。当AIGC的知识生产追求对确定性和唯一性的认识时,人类知识的无限可能性被扼杀了。[5]

除知识生产外,在其他类型的内容生产中,机器思维也会限制内容生产的丰富性。机器的内容生产总是基于一定的模型,模型意味着对丰富的枝节、细节的削弱,如复杂适应系统理论的提出者约翰·霍兰德指出,忽略细节是建模的本质,数字同样删去了几乎所有我们能想到的细节。[6]建立在模型基础之上的计算,也会产生德国哲学家韩炳哲所指出的问题:计算看不见事件的存在,而真正的思考却是事件性的。[7]对内容生产来说,细节、事件是构成内容多样性的前提。当所有的内容生产都变成模型与计算时,鲜活、丰富的现实会映射为某些类型化的模式。当然,如果人能对机器进行不断训练与调教,帮助它丰富与完善对事件与细节的理解与呈现,机器生成的内容也会不断丰富。

模型化也意味着套路化。要克服这一问题,同样需要人的参与,在人的个性化引导下,机器生成的内容也可能形成一定的风格、个性。如果将所有工作都交给机器,内容生产结果的模型化、套路化难以避免,但加入人的干预与引导后,这些问题可在一定程度上减少。

人类创作的内容蕴含着丰富的感情,情感不仅体现在艺术作品中,有时也体现在新闻、知识等内容中,很多时候,情感表达甚至是人们进行内容创作的动力。多样的情感是内容生产丰富性的另一表现。当下,虽然“情感计算”也成为智能技术开发的一个重要方向,但机器模拟的情感与人们在自身经历中形成的情感,仍然有着质的差别。就算机器整合生成的内容中包含了各种情感元素,但ChatGPT本身没有情感,这种缺乏现实基础的情感元素的机械表达,在很大程度上带来疏离感,难以引起人们的感同身受、情感共鸣。人们如果长期生活在人造的情感环境中,受到的真实情感滋养也会越来越少。

4. 精加工内容催化的速食化、捷径化内容消费

机器的整合加工,很多时候也是一种精加工,推动各种内容消费趋向速食化,人们自身对信息、知识的理解与消化能力则被弱化。

在知识领域,过度依赖机器而导致的认知能力的退化风险尤其值得警觉。虽然机器在某些类型的知识生产方面确有优势,但人未必能享受到这些知识成果,将机器生产的知识养料转化为自身的能量。在人的自主知识学习中,往往需要理解知识的背景,寻找知识碎片间的关联,辨析知识碎片的价值,梳理、拼贴纷繁的知识图谱,在获得知识的过程中提高认知能力,这是一个缓慢的营养吸收过程。当机器可以快速给人们提供各种答案或提供了不需要人们自己消化的知识时,一些人的知识获取会越来越多地变成“填食”,他们获得的是表面的而非深层的理解,即使产生了知识“增肥”的效果,也只是“虛胖”。机器给予的答案,会限制人们的视野与认知框架。

整合式加工为人们提供了获得信息与知识的捷径,当人们都急于通过机器走捷径快速到达目的地时,会错过很多“路上的风景”,而这些“风景”本来可以帮助人们延展视野与能力。进一步来说,如果将答案作为目的地并停留在此,而不是在获得答案后有更多开放的思考,提出新的问题,思维能力可能会不断衰退。当然,这种衰退不会发生在所有人身上,如果善于提问、善于质疑,在吸收的同时主动消化,将机器提供的答案作为新起点,不断拓展新的知识疆域,那么人也可能会成为站在机器上的巨人。有学者指出,ChatGPT问世之后,个体知识增长的“马太效应”会更加显著。越是知识丰富的人,对ChatGPT所提的问题可能越深刻与广泛,由此知识增长速度更快、效率更高,反之亦然。[8]当然,向机器提问的能力并不仅仅取决于知识的丰富程度,还取决于人的主动性与思考能力。

5. 中庸、平庸的机器整合对人的认知水平的制约可能

ChatGPT的内容生成思路是对语料库中的内容进行选择与重组,主要是基于概率进行文字“接龙”生成句子,目前的模型思路下,虽然“接龙”有一定的随机性,但总体来看,出现概率更高的词更有可能被选中并加入“接龙”,因此,很多时候它反映的是多数人的选择或平均性选择,给人带来中规中矩的感受。

当然,大模型是否一定要选择概率更高的词进行“接龙”?显然并非如此。未来的大模型或许也会不断优化“接龙”文字的选择方案,针对不同的任务、不同的对象、不同的模型,可能会有不同的抽样与概率选择方式。但即使如此,机器生成的“接龙”方案仍然是基于人类已有经验,难以如一些人类创作者那样,在灵感驱使下产生超出经验的“神来之笔”。如果人们过多依赖机器模型,就会越来越多地受制于机器的认知水平。

大模型的机制,也引发学者的另一种担忧,学者和专家在整个知识生成秩序中的作用会不断被稀释,会出现一种“量化的平庸”现象。[9]刘海龙指出,智能技术在整体上构建了一种“新常人”:一方面,为了追求生成内容的稳妥和尽可能正确,AI的回答一般会像常人那样四平八稳,这是海德格尔所说的常人的那种没有锋芒、缺乏个性和本真性的特征;另一方面,这个常人超出了海德格尔那个平庸的常人,它的渊博程度和推理能力又超过了常人的平均值。因此,这样一个存在物可以被称为“新常人”。[10]赵汀阳也担忧,长期学习下去,GPT会不会变成一个平庸的迎合者?那时,人工智能这个响亮的名字或可能导致GPT被识别为“思想权威”或“人民代言人”,[11]由此带来的误导更深。当越来越多的人通过这样的“新常人”或“思想权威”获取信息与知识,看上去他们的能力提高了,实际上他们的认知视野、认知方式仍难以突破“新常人”或“思想权威”的限制。

目前的智能技术生成内容,有着明显的对正确性的追求取向,这不仅包含语法正确性,也包含政治正确性,尽管机器未必总能做到后者。对内容正确性的追求,往往会抹杀内容内在的锋芒、个性。对人如此,对机器也是如此。如果人们习惯于被正确的内容包围,而不敢、不愿试错,也不能接受机器出错,最终会进一步陷入庸常状态。哪怕人们获得了越来越多的个性化内容,那也只是话题的个性,而非思想的个性。这种思维方式也会进一步扩散到社会生活的其他方面。

有研究者指出,知识创造在于异质性与多元性的生成,ChatGPT与生成智能是带来人类知识的高度同质化还是激发新的异质化,亦需持续关注。[12]目前ChatGPT的表现,可能会带来更多的同质化,但未来的技术或许会激发异质性知识的生产。即使机器的整合水平平庸,也并非所有人都会停留在机器的水平上,关键仍在于人们如何面对机器:是站在机器的肩膀上,还是活在它的阴影中?

四、智能化内容生产是否与创造性绝缘?

前文的分析更多地关注了智能化内容生产在某些方面对人的认知惰性与被动性的强化可能,但这是否意味着人一定会陷入被动,人是否可能利用智能技术来体现自己的主动性与创造性?与此相关的一个更基本的问题是,智能化的内容生产本身是否具有创造性?

1. 机器生产的内容是否具有创造性?

人工智能哲学家博登认为创造力有三种,即组合型、探索型、变革型,这三种创造力都可以发生在人工智能中,机器尤其擅长探索型创造。[13]大多数学者认同人工智能具备这三种创造力,至少组合型和探索型创造力是智能机器具备的。事实上,人类自身很多时候也并非从无到有地进行创造,而是对现有的观念或对象进行重组,甚至这种重组能力也并非人人皆有,多数人是在不断地模仿、重复他人的工作。如果机器能够通过重新组合带给人们新方式、新想法,也可以体现其创造性。

在技术开发领域,计算机科学家约翰·科扎曾提出“Koza图灵测试”,其思路是:如果机器人的创造能够达到已有专利的水准,或能够改进现有专利,或创造出有资格获得专利的结果,则应判定机器人具有与人类竞争的能力。为此,1999年,约翰·科扎与同事设计了一个遗传程序,包含14个可以与人类设计一比高下的电路。其中十个结果与现有专利相同,一些结果超过了现有专利,还有一些电路创造了此前被经验丰富的电器师认为不可能实现的结果。[14]虽然这不是内容生产领域的实践,但它所展现的智能机器的创造力,对于某些类型的内容生产也是相似的。

可以预见的是,AIGC应用不仅是复制和重组其训练数据,还能通过深度学习机制,理解并学习这些数据的模式、结构和关联,然后创造出新的、原始的输出,其能力超越了简单地复制训练数据。[15]这种新的输出,也是创造性的表现,随着机器学习能力的提高,人类经验、模型基础上的创造性还会不断提升。在知识生产的内容生产领域,这样的创造性也会带来一些新知识。尽管有学者认为这只是一种知识组合能力的提升,而非知识创造意义上的提升,[16]但也有学者乐观地认为,人类将能以ChatGPT训练合作伙伴,不断掀起基于和超越人工智能生产内容的新的“浪漫主义运动”,最终变得越来越具有创造性。[17]

在具有高度创造性的艺术领域,机器生产的内容是否具有创造性,研究者争议较大。有研究者指出,AI可以帮助创造更加个性化的艺术体验。一方面,通过分析观众的喜好和行为,AI可以为观众提供定制化的艺术作品;另一方面,基于情感的算法有助于将情感意识引入人工智能应用程序,提供指导和灵感,按照要求引导艺术家的作品。人工智能可以更加个性化,改善人类的体验。[18]还有研究者认为,目前在音乐、美术、诗歌等领域的一些智能创作工具,大都满足创造力的能动者的判准之一(即可以有能力未经外部干预而产生新的变异)、判准之二(即自动地使变异大概率地位于规范空间之内),这些创作甚至可以通过图灵测试,但这仍然只是弱创造力。[19]如果最终将人工智能的创作纳入真正艺术的范围,打开艺术创造的藩篱,也将为创造性开拓出新疆域。人工智能的艺术实践与艺术概念的变通调整实际上是同步进行的,它们往往结合在一起,最终达成新的艺术形态。[20]

但也有人认为,人工智能所谓的艺术评价标准还是来自之前的艺术风格,并没有能力根据艺术整体的发展规律去突破标准、重新调整标准,而这种主动性却是艺术家所追求的。人工智能至少在目前是不可能从经验上升到这种整体的艺术思维和意识的。[21]艺术创作中的深度学习算法本质上是经验回溯式的,既没有脱离既有经验的取向,也没有脱离既有经验的可能,而艺术家会在借鉴之外谋求对经验的否定和差异化。[22]

赵汀阳也指出,真正的创造性一定有智力难度,主要是创造概念和理论、发现规律或提出定理。创造性有着逻辑或数学无法表达的品质,这一点似乎说明了人工智能难以发生创造性,因为人工智能的本质是数学和逻辑。[11]虽然目前多數研究者仍坚信,人类在某些方面的创造力始终是机器无法企及的,但即使机器的创造力有限,人也有可能利用这些创造力来激发自身的能力。

2. 人如何利用机器激发内容生产的创造性?

曾被人工智能“阿尔法狗”打败的顶级围棋棋手柯洁认为:“自从AI进入围棋界后,大部分棋手的能力得到了非常大的提高,从技术上大家变得无比接近,这个行业已经没有秘密和壁垒了,就是看谁更用功,谁对AI的理解更深。”[23]机器提升了人类对围棋的认识能力,打破了人类的思维套路,从而创造了新的可能。在内容生产方面,人们也需要像围棋选手一样去理解智能技术,利用智能技术激发创造力,具体需在以下几方面做出努力。

一是利用机器来拓展认知空间与边界,在突围、跨界、脱轨的思维中获得新灵感。通过机器获得超出人原有能力的信息、知识,人们有可能进入过去不曾涉足的领域,特别是跨界的、融合的领域。即使未来的智能机器仍有其自身的套路,但它在一定程度上脱离人类思维的旧有轨道,寻找新的行进路径,也可能带来人的创造力的提升。俄罗斯学者列夫·马诺维奇认为,在人工智能艺术创造中,使用计算机来打破人类文化中的元模式才是更彻底的做法。要教计算机去做一些人类不能做到的事情。人工智能艺术应是一种人类受身体、大脑以及其他因素限制而无法创造的艺术类型。计算机可能生成不具有人类艺术通常所具有的系统性和可预测性的对象、媒介、情境和经验。[24]在其他领域的内容生产中,也可以有同样的期待。

二是为机器设置有创意的生产目标。机器虽然具有一定的创造力,但至少到目前为止,它自身没有创造的目标,如果没有人的驱动,它不会自己主动进行内容的生产,创造性就无从谈起,因此,对机器创造力的发挥来说,人为其设置的目标至关重要。如果人们只是为了减少自己的机械劳动而利用机器,机器也就只会在机械的劳动中重复,创造性自然无法体现。因此,重要的是,人本身需要有创造性的,并且能把这种想法变成机器可以理解与达到的目标,当机器偏离了目标时,人还需及时判断并做出调整。

三是向机器提出可理解的、创造性的行动指示。目前很多AIGC的生成需要人的提示,人们能否从机器那里获得足够满意的结果,取决于提示的质量。人们的提示,需要在机器的理解范围之内,迎合机器的思维与运作模式,一些行业甚至需要专门的提示词工程师充当人与机器之间的桥梁。更多的人通过对他人提示词的模仿进行自己的内容生产,提示词成为学习的模板。虽然提示词会对一部分人形成创作上的限制,但有创意的人也可以通过各种新颖的提示词组合,带来传统经验之外的新创造。如绘画领域中,将维多利亚时期的服饰、“太空歌剧”科幻元素等进行跨时空组合的AI绘画《太空歌剧院》。提示能力也是一种创意能力,考验着人们的想象力、对现有生活与创作经验的突破能力。目前提示词带来的创造力,更多是经验的重组,可能会沦为简单的组合游戏,对创造力的进一步发展形成障碍。如何在这种模式下获得可持续的创造性,仍然需要继续探索。

此外,那些无法被提示词表达的创意,可能无法得到实现。有时为了迎合机器,人们不得不将原本灵活流动的创造映射、固化成机械的命令。人们希望智能技术的发展,会使得机器对自然语言的理解更为准确,对人的思维方式的模仿更为自然,未来的人机交互未必需要通过提示词来实现。那时,或许人的创意能力会得到更好的发挥。

四是持续保持人类自身的好奇心与想象力。钱颖一曾提出一个关于创造性思维的简单的假说:“创造性思维=知识×好奇心和想象力”,[25]虽然影响创造性思维的或许还有其他因素,但知识与好奇心和想象力无疑是构成创造性思维的基本元素。智能技术生产的内容可以在很大程度上扩大人们的知识面,它也可能由此激发人们的好奇心,某些时候甚至会推动人们的想象力,但好奇心与想象力很多时候仍然来自人自身,不能把它们完全寄托于机器。当然,即使智能技术可以推动人的创造力的提升,这样的创造力也不会出现在每个人身上,就像没有人工智能的时代也并非人人具有创造性一样。

结语

本文討论智能生成内容带来的影响,并非要简单地批判智能技术,更不是要将人类认知出现的问题或创造力的下降都归罪于机器。智能机器可能是某些问题的推波助澜者,但大多数时候,它们并非问题产生的根本原因。因而我们不能将机器当作人类已经出现的所有问题的替罪羊,也不能把机器的强大当作人的惰性与无能辩解的新借口。

本文分析主要建立在现有技术水平基础上,关于未来的预测也会受到当下技术思路的限制。或许未来的智能机器会进一步摆脱人类认知模式的限制,显现出超出人类的创造力。那时,人类对自身的认知也会进一步发生改变,如列夫·马诺维奇指出,每当机器“获得”了一项人类才有的技能时,这项技能马上就不再是真正的智能了,它就会更多地显露出机械化的一面,这或许会影响对人类智能本身的理解,[24]也是智能机器对人的认知最深层的影响。

参考文献:

[1] 张涛. 后真相时代深度伪造的法律风险及其规制[J]. 电子政务,2020(4):91-101.

[2] 王浩伟,汪璠,王秉琰. 主题视角下生成式人工智能生成内容与用户生成内容的比较[J]. 情报理论与实践,2023,46(10):200-207,199.

[3] 吴飞,段竺辰. 从独思到人机协作——知识创新模式进阶论[J]. 浙江学刊,2020(5):94-104.

[4] 胡泳. 超越ChatGPT:大型语言模型的力量与人类交流的困境[J]. 新闻记者,2023(8):13-29.

[5] 吴静,邓玉龙. 生成式人工智能前景下的公共性反思[J]. 南京社会科学,2023(7):19-26,36.

[6] 约翰·霍兰德. 涌现:从混沌到有序[M]. 陈禹,方美琪,译. 杭州:浙江教育出版社,2022:35.

[7] 韩炳哲. 倦怠社会[M]. 王一力,译. 北京:中信出版集团,2019:6.

[8] 易宪容. ChatGPT对人类社会运行机制的四种影响[J]. 探索与争鸣,2023(3):21-25.

[9] 高奇琦. GPT技术下的深度媒介化、知识秩序与政治秩序[J]. 现代出版,2023(3):28-38.

[10] 刘海龙,连晓东. 新常人统治的来临:ChatGPT与传播研究[J]. 新闻记者,2023(6):11-20.

[11] 赵汀阳. GPT推进哲学问题了吗[J]. 探索与争鸣,2023(3):66-74,178.

[12] 周葆华. 或然率资料库:作为知识新媒介的生成智能ChatGPT[J]. 现代出版,2023(2):21-32.

[13] 玛格丽特·博登. AI:人工智能的本质与未来[M]. 孙诗惠,译. 北京:中国人民大学出版社,2017:81-84.

[14] N. 凯瑟琳·海勒,黄斐. 计算人类[J]. 全球传媒学刊,2019(1):28-46.

[15] 赵宜. 人机共创、数据融合与多模态模型:生成式AI的电影艺术与文化工业批判[J]. 当代电影,2023(8):15-21.

[16] 姜华. 从辛弃疾到GPT:人工智能对人类知识生产格局的重塑及其效应[J]. 南京社会科学,2023(4):135-145.

[17] 邓建国. 概率与反馈:ChatGPT的智能原理与人机内容共创[J]. 南京社会科学,2023(3):86-94,142.

[18] 张家榕,洪贇,叶鹰. GPT类AI技术支持下的艺术创新[J]. 图书馆杂志,2023,42(5):14-19.

[19] 李建会,夏永红. 人工智能会获得创造力吗?[J]. 国外社会科学,2020(5):52-60.

[20] 王峰. 挑战“创造性”:人工智能与艺术的算法[J]. 学术月刊,2020,52(8):27-36.

[21] 陶锋. 人工智能视觉艺术研究[J]. 文艺争鸣,2019(7):73-81.

[22] 李丰. 人工智能与艺术创作——人工智能能够取代艺术家吗?[J]. 现代哲学,2018(6):95-100.

[23] 人类是否终将败于AI?——专访“最懂AI的体育人”柯洁[EB/OL].[2023-03-31].http://www.news.cn/sports/2023-03/31/c_1129484410.htm.

[24] 列夫·马诺维奇,埃马努埃莱·阿列利,陈卓轩. 列夫·马诺维奇:人工智能(AI)艺术与美学[J]. 世界电影,2023(3):4-24.

[25] 钱颖一. 人工智能将使中国教育优势荡然无存[J]. 商业观察,2017(8):88-90.

基金项目:中国人民大学2022年度中央高校建设世界一流大学(学科)和特色发展引导专项资金、中央高校基本科研业务费支持项目(2022XWTD001)

作者信息:彭兰(1966— ),女,湖南长沙人,中国人民大学新闻与社会发展研究中心研究员,中国人民大学新闻学院教授、博士生导师,主要研究方向:新媒体传播。

猜你喜欢

创造性
公民作为专利申请人的创造性自我初评
创造性结合启示的判断与公知常识的认定说理
《文心雕龙》中的作家创造性考辨
关于传统文化创造性转化的几点思考
儿童文学翻译中的创造性叛逆
保持创造性的29个方法,每天看一遍