数字空间意识形态安全的风险防范与治理回应
2024-12-07赵燕萍陈叙龙
[摘要] 意识形态作为借助媒介进行传播的社会精神产物,在传播过程中难以避免风险,元宇宙与ChatGPT技术的发展造就了虚拟社群,使得意识形态安全在数字空间内同样面临新的风险与挑战。通过对元宇宙与ChatGPT的技术考察,我们发现数字技术发展带来的风险与挑战具体表现为:信息产生方式变化、算法支配信息加大信息茧房、价值前见破坏技术中立、削弱自主思考能力等。面对以上风险,国家需要作为主要推进力量,健全法律法规、推进技术中立,建立算法准入制度,聚焦技术的社会公益与公共服务属性,在保护数据资产的同时鼓励数据创新,从而维护意识形态在数字空间中的安全。
[关键词] 数字空间 意识形态安全 技术中立 算法准入
[基金项目] 本文系四川省高校思想政治理论教师培训中心项目“新时代大中小学思政课课程内容一体化构建研究”(项目编号:SZQ2021051)、2023年河南省哲学社会科学规划项目“数智赋能推进国家安全体系和能力现代化研究”的阶段性成果。
[作者简介] 赵燕萍,河南警察学院公安专业基础教学部讲师,研究方向为警察法、行政法;陈叙龙,辽宁师范大学马克思主义学院副教授,研究方向为思想政治教育、大学生就业创业。
[中图分类号] D64
[文献标识码] A
[文章编号] 1008-7672(2024)05-0016-14
“元宇宙”一词出自作家尼尔·斯蒂芬森(Neal Stephenson)的科幻小说《雪崩》。在该小说中,人类通过“数字替身”(avatar),在一个虚拟三维空间中生活,作者将那个人造空间称为元宇宙。互联网界目前对于元宇宙的共识是:它是从互联网进化而来的一个实时在线的世界,是由线上、线下多个平台打通所组成的一种新的经济、社会和文明系统。①而于2022年11月上线的ChatGPT则是由美国人工智能实验室OpenAI开发的人工智能聊天机器人应用。ChatGPT以大型语言模型和机器深度学习为基础,以人工智能算法为逻辑底色,是由智能系统组网、大数据支撑、算法提供动能、人类参与指导并建构的虚拟“国度”。②
元宇宙与ChatGPT的共性在于,一是两者都跨越了物理世界和虚拟世界,二是在两者内部的空间中,人的主体意识介入数字空间之中并存在大规模的交流。因此,意识形态在数字空间中具有产生与发展的机会,随之而来的衍生风险则成为影响未来社会稳定发展的潜在危机。
本文通过对元宇宙与ChatGPT的技术考察,探讨了数字技术发展过程中,意识形态在数字空间中的演变以及由此产生的风险,在此基础上对风险的治理做出了进一步回应。本文考察的核心问题是:意识形态在数字空间中是如何运行的?在从元宇宙到ChatGPT等生成式人工智能的发展过程中,数字空间中意识形态安全的风险是如何变迁的?又该通过何种方式有效应对数字空间意识形态安全的风险?
一、 主体与技术:数字空间意识形态安全的风险逻辑
意识形态是一定社会的阶级、集团基于自身利益对现存社会关系自觉反映而形成的认知体系,由一定的政治、法律、哲学、道德、艺术、宗教等社会学说及观点所构成。③它反映了一个人或一个团体对于社会问题的认识和态度,包括对权力、经济制度、社会关系、文化传统等问题的观点和立场。意识形态是人类的观念和信念的组合,是对世界的看法和评价体系,其产生和发展受到历史、文化、社会等多种因素的影响,是人类集体意识的结晶,并影响人们的价值观、行为准则和社会角色的选择。数字空间是从元宇宙和ChatGPT等人工智能技术中提炼出来的共性特征,数字空间意识形态安全风险的产生,有着较为清晰的基本逻辑。
(一) 风险起点:意识形态的本质是一种精神产物
意识形态本身具有精神产物特质,是阐释数字空间意识形态安全风险的起点。作为一种精神产物,意识形态的形成与塑造深受语言表达模式的影响。社会性精神产物的形塑是借助权威性的语言系统为特定理念赋予正当性与合法性,从而夯实其表达基石的过程。在当今这个数字化传媒异军突起、话语权力布局经历重塑的时代背景下,意识形态话语之间的互动已由原先的个人行为转变为大众的共同参与。数字化技术为众多参与者构建了一个紧密相连的交流空间,使得他们能够团结起来,共同表达心声、追求共同愿景,并在此过程中寻找共鸣与欢乐。对于精神产物创造而言,数字技术所倡导的集体创作逻辑与实践社群理念,无疑在提升集体认知、激发集体智慧方面发挥了积极作用,为创造丰富多彩的社会精神产品提供了更加广阔的平台,也进一步推动了创新力的释放。然而,这种以多元主体与多样生产方式为特征的“集体式”精神产物生产模式,同样孕育着潜在的风险。它在某种程度上打破了原创与复制之间的清晰界限,削弱了核心叙事的主导地位,从而对主流意识形态的权威性构成了潜在的挑战。
一方面,随着精神产物创作主体的日趋多元化,意识形态话语主体正面临着发声空间被挤压的困境。个体赋权的广泛实现,推动了精神创造物生态向多样化和狂欢化的方向发展,用户生成内容的井喷式增长不仅带来了精神产物数量的激增,也导致了精神产物质量的参差不齐。这种局面的出现,部分归因于创作门槛的降低和资本逻辑的影响。它们共同作用,使得精神产物的知识性和价值性逐渐被娱乐性所侵蚀。在“流量至上”的创作动机驱使下,用户往往倾向于对原始文本进行改编、挪用甚至颠覆性地再创作,这导致那些蕴含规范和约束的意识形态产物被边缘化,其话语在数字参与空间中逐渐被自由放纵和“逐利起舞”的声浪所淹没。
另一方面,新式精神产物创作形式催生了戏仿、拼贴等新型叙事方式的兴起,这些方式对意识形态话语内容构成了严峻挑战。衍生影像产物的再生产和影像符号体系的转译,使得作品生产逐渐遵循“盗猎—拼贴—转译”的意义输出模式。在这一模式下,作品内容经历了从不可见之物到可见之物,甚至是广受欢迎之物的转变。这种转变导致宏大而严肃的意识形态话语内容在某些情况下被重新解读和利用,成为“情感共同体”表达情感、构建认同的工具。在这种语境中,用户群体往往通过戏谑狂欢的方式抵制主流话语、解构权威,以实现情感的宣泄和共同体的凝聚。这反映了数字时代精神产物创作的复杂性和多样性,以及其所包含的对于意识形态话语稳固体系的挑战。
(二) 风险过程:意识形态安全在传播中遭遇风险
意识形态安全的风险,以其本身精神产物的特质为起点,而最大的风险则是在意识形态传播过程中产生的。数字技术的发展对于意识形态传播的影响日益凸显。意识形态作为服务于权力的意义体系,不仅是抽象的思维构建,而且是一种具体而微的象征形式的社会运用。它的传播过程涉及媒介选择、机构布局以及对时空距离的精准把握等多个复杂而微妙的层面。在当今认知盈余的时代背景之下,传统的传播逻辑和信息边界逐渐被打破。新型的传播方式不再仅仅满足于信息的简单传递,而是更多地融入了特定场景中的情感与关系元素,从而使得传播内容更加富有情感性和生动性。数字参与空间中的交互式场景传输正是这一新型传播模式的典型代表。它将用户的身份认同、情感体验与社交互动三者紧密地结合在一起,为用户打造了一种前所未有、更深层次的沉浸式体验。这种沉浸式的传播框架,无疑极大地提升了用户的感官享受,使得传播内容更加生动和真实。与此同时,它也成功地消除了传统媒介所带来的疏离感和距离感,使得用户能够更加深入地融入传播情境之中。尽管数字技术所带来的交互式场景传输具有如此多的优点,但我们仍然不能忽视其所带来的挑战和问题。由于过于强调具象和感性,它往往会对抽象和理性产生一定的排斥作用;而其瞬时性和碎片化的特点,也可能会对意识形态信息的持续性和连贯性构成威胁,从而阻碍信息的有效流通和传递。
一方面,新型的交互式场景已经对传统的阅听秩序进行了深刻的解构与重塑。这一变革不仅扰乱了意识形态信息原有的流通空间,还在很大程度上对其进行了压缩。在数字技术的驱动下,信息的生产和接收过程变得异常灵活与自由,这无疑对基于传统信息接收体系的意识形态信息传播模式构成了巨大的冲击。与此同时,公众的角色也发生了显著变化,他们不再是被动地接收信息,而是在参与和交互的过程中被赋予更多维度的信息解读权力。这种权力的下放使得以“议程设置”为代表的意识形态编码方式面临前所未有的挑战。此外,数字场景力的不断强化进一步加剧了感性信息的流行,这类信息能够深入人心,引发强烈的情感共鸣,从而在某种程度上阻碍了意识形态信息的流通。
另一方面,交互式场景传输所具备的快速性与即时性特质,已经深刻地改变了公众在信息消费层面的行为模式。公众如今常常在不同的信息源之间进行迅速切换,这种行为模式导致意识形态信息的流通时间被严重割裂,呈现出一种断续、不连贯的状态。同时,为了迎合公众对于感官刺激的强烈需求,各类传播符号也不得不以碎片化、快速流动的形式来呈现信息,以期在瞬息万变的信息海洋中捕捉公众的注意力。这种碎片化的信息接收方式不仅削弱了公众对同一信息的持续关注能力,使他们难以对某一信息保持长久的兴趣,还阻碍了公众对信息的深入思考和理解。在碎片化的信息海洋中,公众往往只能捕捉到信息的表面,而无法深入其内核,理解其深层含义。因此,具有知识深度和内容连贯性的意识形态信息在这种环境中难以获得公众的持续关注,其有效流通也受到严重的阻碍。
(三) 风险主体:虚拟社群观点交互导致风险增加
所谓虚拟社群,是指在数字中由网络参与主体自发形成的关系松散却联系紧密的非结构化的组织群体。①虚拟社群是数字空间中意识形态安全风险产生的主体,虚拟社群观点交互的过程是导致意识形态安全风险增加的主要环节。
虚拟社群的形成与持续发展,其根本驱动力在于成员间的价值认同。这种认同不仅体现在个体对社群文化的接纳与内化上,还存在于群体间共享的价值观念与社会结构之间的共鸣之中。它遵循着从“个体认同”到“群体凝聚”再到“社会整合”的递进逻辑,构建了一个多层次、动态演化的认同体系。在这个体系中,现实的虚拟社群生态成了一个重要的载体和平台,它承载着价值认同的建构、传播与强化的过程。在数字技术的浸润下,虚拟社群成了信息交流、情感表达和社会参与的重要场所。个体的身份建构在这里得到了前所未有的凸显,而共同的兴趣爱好和圈层归属则成了社群凝聚力的源泉。在虚拟社群的语境中,节点传播模式的盛行不仅赋予了个体更大的自主权和话语权,也使得信息传播更加迅速和广泛。每个节点上的个体都可以自由地创造、分享和消费文本或信息,这使得具有相同兴趣的信息流能够在短时间内汇聚成一股强大的力量,进而形成一个个独具特色、身份独立的圈层。这些以兴趣为纽带的圈层社群不仅为个体提供了情感归属和身份认同的空间,更在无形中塑造着他们的价值观念和行为方式。然而,虚拟社群背后的流动性和疏离性也为意识形态价值认同带来了新的挑战。如何在享受虚拟社群带来的便利与愉悦的同时,应对这些挑战并维护意识形态的稳定与统一,成为亟待解决的问题。
一方面,虚拟社群中身份的多样性在一定程度上削弱了个体对主流价值的关注度。在数字空间中,由于各类社群层出不穷,且主题丰富多样、准入门槛相对较低,个体得以在不同的社群间自由游走,并拥有多重身份标识。这种跨社群的交往方式使得个体在身份定位上呈现出一种游移不定、缺乏稳定性的状态。随着多重身份的叠加与频繁转换,个体的价值认同也趋于碎片化和即时性,难以形成稳定、持久的价值观念。同时,不同价值观念的不断更迭和传输,也进一步加剧了个体对主流价值的忽视和疏离。
另一方面,虚拟社群内成员之间基于身份认同所建立的情感纽带,对群体内部的价值基础起到了巩固作用。这种情感归属使得社群成员形成了共同的价值聚焦点,并对社群内的意见领袖产生了价值权威认同。这种价值权威性在维护社群统一价值基础的同时,也加剧了社群间价值认同的排他性。与此同时,数字交流方式具有传染性和扩散性,它直接在情感或情绪层面上进行传播,使得社群间的封闭性和对立性进一步加剧。这种排他性和封闭性不仅阻碍了不同社群间的交流和理解,也容易导致极端思想和偏见的产生和传播,进而动摇社会意识形态的基础。
从宏观视角来看,整个数字社群的生产逻辑呈现出一种突破常规,甚至是抵抗常规的鲜明倾向。在数字空间的广阔疆域内,社会成员得以暂时脱离现实社会关系的重重枷锁,完成角色的自由转换。这种转换为他们提供了机会,使其更容易摆脱传统价值观念的深层束缚,进而催生出与主流价值观念背道而驰却又具有高度传染性的文本内容。此类内容在数字社群的密集网络中迅速传播,而主流价值观念却难以有效地渗透这一领域并发挥其应有的引导作用,由此不仅可能加剧数字社群与传统社会之间的价值观念断裂,还可能对整个社会的价值观念和意识形态认同产生深刻而长远的冲击。
二、 危机之呈现:数字空间意识形态安全的风险类型
随着元宇宙概念的提出与快速发展,以ChatGPT为代表的生成式人工智能被大规模应用,由线上线下共同组成的数字空间已经逐渐成为社会生活的重要切面。在数字空间中,意识形态也面临着自生自发、算法技术歧视以及创新日渐弱化等一系列风险。
(一) “生成式”风险:从资本操控到自生话语
元宇宙在“成为建构生产方式的本体的同时,也成为服务于资本逻辑的意识形态力量”。①资本把客体化的世界和人类都当作谋利的工具,在资本逻辑的驱动下元宇宙作为数字经济发展的新赛道,成为资本逐利的新市场。元宇宙是资本驱动并由技术集成的融合现实世界和虚拟世界的虚实融通的现实镜像世界。①2022年以来,全球范围内资本不断涌入元宇宙领域。就我国而言,数字化转型已成为国家重点战略发展方向,元宇宙作为产业发展的未来形态,将能够充分打开产业数字化转型发展的新空间。②元宇宙是技术逻辑和资本逻辑的统一体,在规范和引导资本进入元宇宙领域时要特别注意,资本逻辑对技术逻辑的统摄导致的资本野蛮扩张和技术风险加剧都可能会使元宇宙“步入歧途”,使得资本逻辑主导的元宇宙成为意识形态渗透的新工具。③
ChatGPT等生成式人工智能和以往技术生产导致意识形态问题的不同在于意识形态风险问题的滋生从信息传播向信息生成转变,开启了意识形态风险治理的新时代。同时,生成式人工智能利用人工智能技术自动生成内容。基于高算力、大数据、强算法等多方面技术突破,生成式人工智能实现了高质量、高效率、多样化的内容生产。生成式人工智能从底层的基础模型开始即可对终端的服务应用层内容产生直接影响,呈现出技术支持、服务提供与内容生产“三位一体”的技术形态。④但这种内容生产方式彻底改变了内容传播的风险模式,可能会冲击国家主权独立,造成数字技术霸权从而威胁政治安全和意识形态安全。⑤生成式人工智能所生成的内容不仅包括文本、图像、音频、代码等外显性内容,同样包括价值、观点、策略、逻辑等内隐性内容,两种明暗交织的内容生成逻辑在反映一定意识形态的同时,也重构着原有的意识形态。具体而言,生成式人工智能在意识形态价值观念层的嵌入逻辑是以内容生成为基点,经由大数据的收集检索和对算法推送的系统整合,以内容生产者的角色在意识形态领域内实现全方位的价值观念重构。⑥人工智能技术有可能被西方国家所利用,生产诋毁抹黑中国特色社会主义制度的信息,通过引诱青少年获取和观看达到灌输西方意识形态的目的。例如,从独联体国家接连发生的“颜色革命”到“阿拉伯之春”的动荡,西方国家一直将意识形态领域视为其进行政治干预和颠覆他国政权的关键突破口。他们利用精心设计的煽动性政治话语,在精神与现实两个层面不断挑动和放大社会的不满情绪,以此作为实现其政治目的的重要手段。在精神层面,西方国家通过媒体、网络等渠道,大肆宣扬所谓“民主”“自由”等价值观,试图瓦解目标国家的民族认同和国家凝聚力。他们利用话语权的优势,将复杂的政治问题简化为二元对立的选择题,诱导民众在情绪化的状态下做出符合西方国家利益的选择。在现实层面,西方国家则通过支持反对派、操纵选举等手段,直接干预目标国家的内政。他们利用煽动性的政治话语,制造和扩大社会矛盾,煽动民众对现政权的不满和反抗,最终达到颠覆政权的目的。这种以意识形态领域为突破口的政治干预模式,不仅严重破坏了目标国家的政治稳定和社会发展,也损害了国际关系的公平与正义。因此,对于西方国家在意识形态领域的渗透和颠覆活动,我们必须保持高度警惕,并采取有效的措施加以防范和应对。
对此,我国《生成式人工智能服务管理暂行办法》第四条明确规定,“提供和使用生成式人工智能服务……不得生成煽动颠覆国家政权、推翻社会主义制度、危害国家安全和利益、损害国家形象……的内容”。但从目前来看,随着意识形态风险问题从信息传播向信息生成的转变,现有“技术支持者—服务提供者—内容生产者”模式的网络治理框架已不符合监管要求,亟须完善。
(二) “智能性”风险:从空间交往到算法支配
元宇宙是人类社会的深度媒介化,意味着人类社会数字化程度的加深,在客观上为西方国家意识形态“信息茧房”的扩散和蔓延创造了更好的条件。虚拟环境是由人的意识和体验组成的主观世界,这个主观世界的形成是由大众媒介造成的。元宇宙是拟态媒介的超级形态。①媒介必然带来语言和思想的交互传授,“传授一种空洞的语言是不可能的,传授语言的过程本质上就是传授意识形态的过程”。②元宇宙作为超级媒介,时时刻刻把人包裹在“信息茧房”中,这为全面和广泛地灌输意识形态提供了土壤。基于元宇宙强大的传播力,要谨防部分西方国家以元宇宙所制造的“信息茧房”为工具,不断传播与社会主义核心价值观相悖的思想认识。这种封闭的信息空间成为负面舆论的温床,限制了人类的认知。在这样的环境中,人们容易被单一、简化的数字意识形态话语所左右,难以形成多元化的价值共识,从而导致主流意识形态话语权受到严重挤压。若不加以提防,众多网民的思想体系则会在“信息茧房”的不断浸淫下被重新塑造和扭曲,极易引发群体性极端思想灾难。
ChatGPT在从信息传播向信息生成转变的过程中被算法技术操纵,“信息茧房”由此产生并最终强化了某些特定个体或群体的观点,甚至引发更大的群体极化风险。在内容生产变革中,算法推荐实现了从“人找信息”到“信息找人”的转变。生成式人工智能直接跨越了人类对知识的生产过程,实现了从“提供信息”到“呈现答案”。很多既有研究表明,生成式人工智能的大语言模型会从训练数据中复制有害的社会偏见和刻板印象。由于大型语言模型的核心能力来自训练数据,训练数据基本上是人类语言和文本的表达,而且其规模巨大,因此模型不可避免地会捕获和获取训练数据中的偏见和歧视。不仅如此,大语言模型的自主学习和持续迭代可能把训练数据中的偏见和歧视固化在模型中并进行放大,陷入歧视性的反馈循环,从而生成人类无法摆脱的“信息茧房”。③人类被囚禁在“信息茧房”中,不断被定向灌输某种特定的语言、思想和观念。久而久之,在“元宇宙”这一虚拟世界之中,技术带来的沉浸体验可能让人偏安于虚拟的茧房之中而无视现实的劳动生产,也有可能因为资本筹划、文化渗透等因素形成在意识形态方面极端错误的虚在群体,甚至在元宇宙“信息茧房”野蛮生长的情况下,不同的信息茧房可能会形成自身的“意识形态”并且威胁主流意识形态的安全。①
(三) “伦理性”风险:从技术中立到注入前见
技术中立理论认为,技术是不含价值取向的工具。雅克·埃吕尔(Jacques Ellul)主张,技术具备自主性,能够实现自我主宰,并不会被人类设定的目的或价值左右。②元宇宙基于真实的3D体验与情境交互建构起沉浸式虚拟情境,能够通过实时交互的立体空间重构用户的情绪感官体验。而ChatGPT则是将智能体架构、认知架构和包容式架构进行整合,以海量的数据库或语料库为基础,通过构建“有联系的整体”生成新的智能化文本以辅助人类更便捷高效地学习。③相较于ChatGPT而言,元宇宙排除了物理世界的存在,赋予人类以数字身份在数字空间中正常开展生产生活活动的可能。
在元宇宙的空间视域中,虽然资本操控下的工具属性使其在一定程度上存在潜在的意识形态风险,但更多的是用户在使用过程中“实时”注入的个人观点和群体倾向。从工具论的角度看,元宇宙作为数据信息的集合体,能够以其多元化的价值内容和具身化的感官体验提升意识形态的实践效能。④但是,在元宇宙空间中,人类能够以数字身份在现实世界与数字世界自由穿梭,现实世界中的价值理念和意识形态等内容极易根据人类存在场域的变化而延展至虚拟空间,进而导致元宇宙空间在发挥意识形态功能的过程中显现出伦理性风险。在这一过程中,尽管人工智能、虚拟现实、区块链等数字技术在其中起到关键作用,能够帮助意识形态内容实现向虚拟空间的动态化、实时化、全面化介入,但元宇宙作为意识形态传播工具本身,仍然表现出明显的技术中立属性和工具价值。
在ChatGPT的应用过程中,技术资本逻辑主导下的工具属性使其在开发阶段便已经蕴含设计者的价值理念,其自身标榜的绝对“客观中立”难以成立。作为内容生成式的新型传播媒介,ChatGPT以大规模数据库和预训练语言模型为基础,极易通过注入前见操纵用户的价值观导向,进而导致公众陷入意识形态价值认知的混乱状态,甚至出现“国家偏见”“民族偏见”“文化偏见”“个人偏见”等伦理问题。⑤ChatGPT不仅能够把人询唤为服从的主体,还可能有意无意地将非英语话语的人“生产”为他者。⑥在我国,由于中文语料的缺乏以及语言文化的差异,ChatGPT在参与意识形态传播过程中,极易削弱国家意识形态话语权的主导地位,扰乱意识形态传播秩序,为其他国家插手我国主流价值观建构提供可乘之机,甚至威胁国家的政治安全与文化安全等。
(四) “创新性”风险:从固化创新到削弱创新
本质上,元宇宙是一个与现实世界交互的巨大虚拟世界。它通过数字的方式呈现各种业态场景和社会互动,展现出无穷的数字可塑性和符号创造力。①这是一个由数字构建,但又极具现实感的世界。元宇宙的出现,让我们有了一个全新的空间去创新和实现想法。在这个空间里,我们可以通过数字财产、游戏存档等方式将创新能力固化。尽管它可以让我们的创新能力得到固化,但这种固化只存在于虚拟世界中,无法转化为现实世界的具体产物。另外,元宇宙的“娱乐至死”特性可能对用户产生不良影响。在元宇宙的世界中,用户可能会沉浸在无限的资源和空间中,实现他们的任何想法。然而,这种无限可能的虚拟世界可能会引发虚拟与现实的巨大割裂。在现实世界中,资源和空间都是有限的,这种有限性可能会给那些曾在元宇宙中享受过无限可能的用户带来沉重的打击。更为严重的是,人们可能会在这种割裂中更加倾向于选择元宇宙——这个看似“世外桃源”的虚拟世界,以此来逃避现实中物质层面的缺失和精神层面的不满足。这无疑是一种危险的趋势,因为它可能导致人们逐渐失去对现实世界的认知和感知,进而影响他们的生活和工作。
ChatGPT的存在可能会对人类的思维深度和感受力产生影响,这主要是由于它无法生成多元化的观点。过度依赖技术可能会导致思维模式的僵化和行为的异化,从而削弱我们的创新能力,使我们逐渐成为“数据的囚犯”。②这主要体现在以下几个方面:第一,ChatGPT的预设响应有其固有的局限性。它主要依赖于机器学习算法生成的预设响应,虽然这些响应是基于模式和数据分析的,但它们缺乏人类创造力带来的深度和微妙差异。与提供有限和可预测响应的人工智能系统交互可能会抑制我们的想象力,并限制我们对不同观点的探索。第二,过度依赖人工智能生成的内容可能会导致真实性和原创性的丧失。当我们使用自己的独特经历、情感和观点时,创造力就会得到充分发挥。然而,如果过度依赖人工智能生成的内容,就可能会失去这种真实性和原创性。第三,使用ChatGPT作为信息和对话的主要来源可能会削弱我们批判性思维的能力。当我们习惯于接受人工智能生成的答案而不去质疑或审视它们时,我们的批判性思维和独立评估信息的能力可能会逐渐减弱。第四,人们轻易获取大量的信息,会产生一种虚假的专业知识感。ChatGPT可以提供快速的答案和解释,给人一种知识全面的错觉。然而,真正的专业知识需要对概念作深入理解、批判性分析并进行实际应用,而这些都是人工智能无法提供的。第五,过度依赖ChatGPT可能会抑制我们的想象力和解决问题的能力。人工智能生成的建议可能会限制我们对非传统思想和应对挑战的新方法的探索。对ChatGPT的依赖可能会阻碍我们跳出思维框架,人类独立开发创新解决方案的能力发展将受到极大限制。
三、 现代化治理:数字空间意识形态安全的风险防御
在当前数字空间中,意识形态安全问题日益突出,呈现出多样化、复杂化的形态。随着数字技术的快速发展和广泛应用,虚拟空间已经成为人们交流、表达、获取信息的重要平台。然而,正是由于其开放性和无边界性,数字空间也孕育着各种意识形态风险,给社会稳定和个人权益带来了巨大挑战。为了有效防御风险,我们应当从多方位入手,对数字空间进行现代化治理。
(一) 推进技术独立,完善意识形态安全制度架构
当前数字技术作为资本逻辑的产物带来了新型意识形态风险,这些风险包括但不仅限于对信息的操控、意识形态的扭曲以及对个体和社会价值的侵蚀。为了应对这些风险,我们应推进技术独立,完善意识形态安全制度架构。
推进技术独立是保障数字空间意识形态安全的关键。首先,我们应摒弃资本对新技术的完全操控,形成人工智能技术的国家力量。当前,人工智能技术的发展正受到一些大型科技公司的主导,这可能导致技术滥用和意识形态出现偏颇。为了避免这种风险,国家应加强对人工智能技术的关注和引导,投入更多的资源和精力,培养和发展本国的人工智能技术,确保技术的安全性和自主性。人工智能技术的快速发展对国家的意识形态安全带来了新的挑战,虽然一些大型科技公司拥有巨大的资金和技术实力,掌握了人工智能技术的核心资源,但是这些公司往往更关注商业利益,而非国家的意识形态和安全。因此,国家需要加强对人工智能技术的关注和引导,通过政策和资金支持,培养和发展本国的人工智能技术,形成技术的国家力量。①同时,国家还应通过政策、法律和规范的制定,建立起合理的监管机制,以确保人工智能技术的发展符合国家的意识形态和利益。人工智能技术的应用中涉及的数据隐私、信息安全等问题需要得到充分的保护和监管。国家应加强对人工智能技术的监管,制定相关法律法规和规范,明确技术的边界和责任,确保人工智能技术的安全和可控。②
其次,我们需要追踪西方新的生成式人工智能的前沿,有效解决生成式人工智能“卡脖子”问题。生成式人工智能是一种强大的技术,具有自主学习和创造的能力,但也存在潜在的风险。西方国家在这方面的研究和发展领先于中国,他们不断推出新的生成式人工智能技术,拥有更高水平的技术能力和创新能力。为了确保技术的安全和可控,我们应加强对西方新的生成式人工智能技术的跟踪和研究。我们可以通过积极研究和探索,了解生成式人工智能的最新发展动态,发现其中的安全隐患和问题,并探索解决方案;通过自主研发和创新,取得生成式人工智能领域的突破,发展出安全可控的技术,这不仅能够提升国家的技术实力,还能够确保技术的安全和自主,保护国家的意识形态安全。
此外,完善意识形态安全制度架构是数字空间意识形态安全的重要保障。科学准确地进行制度设计,为元宇宙空间中各个行为主体树立行为标尺、明确行为禁区,是维护未来数字空间意识形态安全、保障元宇宙社会良性发展的必由之路。①国家应通过政策、法律和规范的制定,建立起合理的监管机制,以确保人工智能技术的发展符合国家的意识形态和利益。这些政策和法律应该明确规定人工智能技术的边界和限制,防止其被滥用成为扭曲国家价值观和牟取利益的工具。在制定这些政策和法律时,需要考虑到技术发展的动态性和多样性。人工智能技术的发展日新月异,不断涌现出新的应用和潜在风险。因此,监管机制需要具备适应性和灵活性,能够及时跟进和调整,以应对不断变化的意识形态安全风险。同时,监管机制还应该注重平衡创新和安全的关系。人工智能技术的发展需要鼓励创新和实验,但也需要避免对社会和个人权益造成潜在威胁。
(二) 规范算法准入,为算法的应用注入公益底色
为了保障算法的应用安全和公益性,我们需要构建准入机制、发布准入清单,为算法技术的进入和退出架构起安全过滤屏障。同时,要加强算法创造,规范公共性算法的语言训练,从算法学习的起点进行有效规制。
一方面,构建准入机制和发布准入清单是保障算法应用安全的重要手段。准入机制是指通过一系列的审核和评估程序,对算法进行筛选和审查,以确定其是否符合准入标准。准入标准可以包括算法的安全性、可靠性、隐私保护能力等方面的要求。准入机制应该是透明、公正、可行的,确保不同类型的算法都能够接受相应的审核和评估,并且能够及时适应技术的发展和应用的需求。准入清单需明确列出哪些算法是被允许使用的,哪些算法是被禁止使用的,以供社会各界参考。准入清单应该明确列出被准入算法的基本信息、应用领域、使用限制等内容,使公众能够了解和评估这些算法的特点和潜在风险。准入清单的发布应该是及时的,以保证社会各界能够及时获取最新的信息,避免不合规的算法被滥用或误用。②
通过构建准入机制和发布准入清单,可以防止不安全、有害或被滥用的算SwQfF4diMuyrIOSCK7TPT8+qQRBVpjd8bfBiIaovFJE=法进入社会。准入机制和准入清单应由国家或相关机构制定,并定期更新和完善。在制订准入机制和准入清单时,需要考虑到算法的技术特点、应用领域的需求以及社会的公共利益,确保算法的应用符合科学、安全、公正的原则。不同类型的算法具有不同的特点和潜在风险。因此,准入机制和准入清单应该针对不同类型的算法进行细化和分类,确保审核和评估的准确性和全面性。同时,应用领域的需求也应该被纳入考虑,以确保准入的算法能够满足实际应用的要求。在制订准入机制和准入清单时,还需要考虑社会的公共利益。算法的应用可能对个人隐私、社会公正等方面产生影响。也就是说,准入机制和准入清单应该确保算法的应用符合社会公共利益的要求,避免对个人权益和社会稳定造成不利影响。
另一方面,算法创造是算法应用安全的基础,只有具备公共性和安全性的算法,才能为社会带来真正的公益。因此,我们需要加强对算法创造的规范和引导。要规范算法的语言训练,确保算法不会出现偏颇、歧视或有害的问题。语言训练应遵循科学、公正、中立的原则,杜绝算法对个人或特定群体的歧视和侵害;要从算法学习的起点进行有效规制,注重算法的道德教育和公益意识培养。①算法学习不仅是对技术能力的培养,更应该注重对人文素养的培养,使算法从一开始就具备公益底色和社会责任感。此外,还应加强对算法创造者的监督和评估,建立起一套完善的算法伦理评价体系,对算法的创造和应用进行全面的监管和评估。②
(三) 回归工具价值,聚焦人工智能的公共服务性
为了确保人工智能应用的公共服务性,就要使其回归工具价值,并聚焦于技术中立和有效监督两个方面。一方面,我们应确立人工智能应用的“伦理”,即要求人工智能设计者的价值理念应当遵循技术中立的精神。虽然当前的生成式人工智能能够对某些问题产生独到的回应,但这种回应应该基于一种价值中立的“训练”。技术中立意味着人工智能设计者和开发者在设计和训练人工智能系统时,应避免将个人或特定群体的偏见或意识形态引入算法中。人工智能应该以公正、客观和中立的方式对待问题,并根据事实和数据做出回应。为了实现技术中立,我们需要在算法的设计和训练过程中,建立严格的伦理规范和监管机制,确保算法的应用不会对个人或特定群体造成歧视或伤害。
另一方面,我们需要做好监督工作,对可能出现的意识形态安全风险进行有效的预判和防范。③人工智能的应用涉及社会的各个方面,可能会涉及敏感的政治、宗教、种族等问题。因此,我们需要建立起一套有效的监督机制,对人工智能的应用进行全面监测和评估,及时发现和解决可能存在的问题和风险。监督工作应该包括对算法的审查和评估,以及对算法应用的监测和反馈。至于算法本身,需要建立一个独立的专业机构或专家团队,负责对算法进行审查和评估,确保其符合技术中立和伦理要求。至于算法应用,需要建立起一个全面的监测系统,对算法应用的数据来源、算法决策过程和结果进行监测和反馈。同时,还需要建立起反馈机制,让用户和受影响的群体能够及时反馈问题和意见,以便及时进行调整和改进。
总之,回归工具价值,聚焦人工智能的公共服务性是确保人工智能应用安全性和可信度的重要举措。我们应确立人工智能应用的“伦理”,要求技术中立,并建立起有效的监督机制,对意识形态安全风险进行预判和防范。在推进工作时,我们需要强化各方的责任和合作,共同推动人工智能的公共服务性,为社会带来更多的利益和福祉。
(四) 培植创造力,完善数字空间创新管理制度
为了应对“娱乐至死”和“数据囚徒”等虚拟生活状态对意识形态认同的价值基础的消解,我们需要在数字空间内部培植创造力,并同时约束创造力,以实现在数字空间创新的同时防止不良用户滥用权力。
首先,我们应在数字空间内部培植创造力。数字空间作为一个充满无限可能性的创新领域,应鼓励用户发挥创造力,生产更多有价值的内容。可以通过提供相关的教育和培训机会,激发用户的创造潜能,并提供必要的资源和支持。同时,数字空间平台也可以通过举办创新竞赛、设立创新基金等方式,鼓励用户积极参与创新活动,并给予适当的奖励和认可。与培植创新力相对应的是约束创造力。虽然创新是数字空间的重要驱动力,但必须在确保创新的同时不违反法律法规和道德伦理。因此,我们需要建立健全管理制度来约束数字空间中的创新行为,防止不良用户利用创新为非法活动提供便利,及时发现和处理违法违规行为,并对违规用户进行惩罚和追责。
其次,我们应通过保护数字资产、激励创新制度等方式提高用户的自主创造性,破解“数据囚徒”困境。大数据具有极大量、多维度、相关性等特质。①当前,许多用户在数字空间中产生了大量的个人数据,因为用户无法完全掌控和支配自己的数据,这些数据被称为“数据囚徒”。为了解决这一问题,我们需要建立起一套完善的数字资产保护机制,使用户能够拥有对自己数据的所有权和控制权,同时加强对个人数据泄露和滥用的监管,确保用户的数字资产不被非法侵犯。②一方面,数字资产保护机制应确保用户对个人数据的所有权,这意味着用户应有权决定自己的数据如何被收集、存储、使用和分享。数字资产保护机制可以包括个人数据权益声明、数据使用许可协议等制度,确保用户在使用数字服务时能够自主选择数据的使用方式,并有权拒绝不符合自己意愿的数据使用行为。另一方面,数字资产保护机制应提供用户对个人数据的控制权,即用户应能够随时访问、修改和删除自己的数据。数字资产保护机制可以通过建立统一的个人数据管理平台,使用户能够方便地管理自己的数据。同时,用户还应有权将自己的数据共享给其他组织或个人,但前提是要确保共享行为符合用户的意愿和利益,并且得到用户的明确授权。
最后,数字资产保护机制、激励创新制度也是提高用户自主创造性的重要手段。通过对用户使用和分享自身数据的行为进行经济奖励或其他非经济奖励,可以鼓励用户积极参与数字空间的创新活动。例如,用户可以选择将自己的数据提供给研究机构或企业,用于科学研究、产品开发等领域,并从中获得一定的回报。这样的激励机制可以增强用户对自己数据的认同感和参与度,进而促进数字创新的发展。此外,我们还可以通过教育和宣传活动,增强用户对数字资产保护的意识和能力。用户应了解自己的数字资产价值,学会合理利用和保护个人数据。同时,政府和有关机构也应加强对数字资产保护的法律法规的制定和执行,为用户提供更加安全和可信赖的数字环境。
四、 结语
在元宇宙以及ChatGPT两者的共同作用之下,原有的数字虚拟空间变得更为广阔,同时也使得人类意识在数字虚拟空间中的接入、发展成为可能。人类的意识形态是通过物质媒介承载的具有政治性的社会精神生产活动的产物,因为意识形态的传播需要通过不同媒介进行扩散、需要国家对于信息流动的治理、需要结合现代科学技术的最新发展,故在传播过程中极易受到侵蚀。而在数字空间的生成、壮大过程中,数字空间中的虚拟社群以其独特的纽带功能、间接互动方式,增加了意识形态安全的风险。数字空间之中,意识形态安全的风险随着技术的发展也衍生出新的动向,原有的信息生产模式被改变,算法作为主导的信息交互模式难以避免地会出现算法支配、算法歧视等问题,甚至设计者的主观价值倾向也会对其产生影响。过多的数据、对于生成式人工智能的依赖可能削弱人类独立思考判断的能力。针对以上数字空间内的意识形态安全风险,需要以国家作为人工智能技术的主导力量,在追踪西方前沿技术的同时,保证技术的中立。在算法的使用上,以社会价值为判断标准,建立算法准入机制和清单。通过保护数字资产、激励创新制度,培育可以合理利用数字资产的新型模式。
数字技术正在以前所未有的速度和广度重塑我们的生活空间和思维方式,它被赋予了更加多元、复杂且生动的社会角色。数字技术不仅作为一种工具或媒介存在,更在深层次上与社会结构、文化形态以及个体认知紧密交织,从而成为我们社会生活中不可或缺的一部分。在技术的无意识渗透中,数字技术逐渐展现出强大的价值塑造力,对个体的行为模式、价值观念乃至社会整体的发展方向产生深远影响。如何平衡数字技术与主流意识形态之间的关系,确保两者在相互作用中保持和谐与共进,成了一个重要而紧迫的时代课题。实际上,数字技术与主流意识形态之间并非截然对立的关系。相反,它们在某些方面存在着共同的基础和互动的可能性。主流意识形态作为社会价值的引领者和守护者,应当以主动的姿态直面数字技术的挑战,不断创新和完善自身的传播方式、表达形式以及价值内核,以适应数字技术时代的发展需求。
(责任编辑:肖舟)
微信公众号
① 喻国明:《未来媒介的进化逻辑:“人的连接”的迭代、重组与升维——从“场景时代”到“元宇宙”再到“心世界”的未来》,《新闻界》2021年第10期。
② 曹克亮:《ChatGPT:意识形态家的机器学转向及后果》,《统一战线学研究》2023年第4期。
③ 张雷声:《论社会主义社会主流意识形态》,《马克思主义研究》2008年第4期。
① 杨嵘均:《论网络虚拟空间的意识形态安全治理策略》,《马克思主义研究》2015年第1期。
① 邓伯军:《数字资本主义的意识形态逻辑批判》,《社会科学》2020年第8期。
① ③ 何茂昌:《元宇宙资本逻辑的批判及其矫治》,《学术探索》2023年第6期。
② 张弛:《资本争相涌入 元宇宙探索仍在路上》,《金融时报》2022年9月1日,第6版。
④ 张凌寒:《生成式人工智能的法律定位与分层治理》,《现代法学》2023年第4期。
⑤ 谢梅、王世龙:《ChatGPT出圈后人工智能生成内容的风险类型及其治理》,《新闻界》2023年第8期。
⑥ 代金平、覃杨杨:《ChatGPT等生成式人工智能的意识形态风险及其应对》,《重庆大学学报》(社会科学版)2023年第5期。
① 王珏、陈雅梅:《理解元宇宙——一种新的超级媒介》,《九江学院学报》(社会科学版)2022年第4期。
② 俞吾金:《意识形态论》,人民出版社,2009年,第2页。
③ 代金平、覃杨杨:《ChatGPT等生成式人工智能的意识形态风险及其应对》,《重庆大学学报》(社会科学版)2023年第5期。
① 魏红艳:《元宇宙行动者如何“破茧成蝶”?——兼论以太“信息茧房”的机理与超越》,《图书馆》2023年第7期。
② Jacques Ellul, The Technological Society. Translated by John Wilkinson, New York: Vintage Books, 1964, pp.140-141.
③ 令小雄、王鼎民、袁健:《ChatGPT爆火后关于科技伦理及学术伦理的冷思考》,《新疆师范大学学报》(哲学社会科学版)2023年第4期。
④ 王暾:《从互联网到元宇宙:数字空间的意识形态安全审视》,《贵州社会科学》2023年第2期。
⑤ 方旭:《从ChatGPT看人工智能时代意识形态领域运作表征与风险防范》,《毛泽东邓小平理论研究》2023年第5期。
⑥ 张生:《ChatGPT:褶子、词典、逻辑与意识形态功能》,《传媒观察》2023年第3期。
① 刘金凤、吴宁:《元宇宙的意识形态功能审思及风险应对》,《社会科学家》2023年第5期。
② 王延川、赵靖:《生成式人工智能诱发意识形态风险的逻辑机理及其应对策略》,《河南师范大学学报》(哲学社会科学版)2023年第4期。
① 刘淑春:《数字政府战略意蕴、技术构架与路径设计——基于浙江改革的实践与探索》,《中国行政管理》2018年第9期。
② 李舟、易华勇:《ChatGPT介入意识形态安全治理的逻辑、风险及应对》,《阅江学刊》2023年第4期。
① 王暾:《从互联网到元宇宙:数字空间的意识形态安全审视》,《贵州社会科学》2023年第2期。
② 程乐:《生成式人工智能的法律规制——以ChatGPT为视角》,《政法论丛》2023年第4期。
① 邹开亮、刘祖兵:《ChatGPT的伦理风险与中国因应制度安排》,《海南大学学报》(人文社会科学版)2023年第4期。
② 崔小燕、张长立:《生成式人工智能诱发的风险样态、生成逻辑与智慧治理策略——基于传播政治经济学的分析》,《宁夏社会科学》2023年第4期。
③ 代金平、覃杨杨:《ChatGPT等生成式人工智能的意识形态风险及其应对》,《重庆大学学报》(社会科学版)2023年第5期。
① 艾伯特-拉斯洛·巴拉巴西:《爆发:大数据时代预见未来的新思维》,马慧译,中国人民大学出版社,2012年,第13页。
② 翁士洪:《数字时代治理理论——西方政府治理的新回应及其启示》,《经济社会体制比较》2019年第4期。