生成式人工智能引发意识形态风险的逻辑原理、内涵表征及防控策略
2024-05-09邢鹏飞
邢鹏飞,李 生
(湖南师范大学 马克思主义学院,长沙 410081)
与传统人工智能不同,美国人工智能研究室OpenAI 发布的人工智能ChatGPT 革新了人机交互模式,实现与用户的直接交流互动。随着ChatGPT 的火爆出圈,诸如“通义千问”“文心一言”“混元助手”等生成式人工智能也陆续发布,掀起研发生成式人工智能的热潮。互联网和人工智能领域已经成为意识形态斗争的主战场,以ChatGPT 为代表的生成式人工智能对人们的生产生活产生了深刻影响,也给意识形态领域带来了新的风险挑战。党的二十大报告强调,要“牢牢掌握党对意识形态工作领导权,全面落实意识形态工作责任制,巩固壮大奋进新时代的主流思想舆论”①习近平.高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告[M].北京:人民出版社,2022:43.。当前,伴随着互联网人工智能的加速发展,意识形态渗透风险加剧,以算法和数据为基础的生成式人工智能成为引发意识形态风险的极佳工具。因此,正确认识生成式人工智能引发的意识形态风险及其原理,并且积极探寻相应的防控策略,有利于生成式人工智能的健康发展,维护我国意识形态安全。
一、生成式人工智能引发意识形态风险的逻辑原理
作为人工智能的高级形式,生成式人工智能最本质的特点就是能够做到人机交流互动,根据用户的需求完成相应的任务。生成式人工智能归根结底是人类劳动的物化产物,由于设计者和使用者的价值偏差、技术和算法蕴含的政治偏差以及应用场景的多元性,使其极易诱发意识形态风险。
(一)价值逻辑:生成式人工智能设计者和使用者的价值偏差
科学技术与意识形态的关系历来是一个热门话题,科学技术是不是一种意识形态,学术界众说纷纭。法兰克福学派马尔库塞认为,科学与技术本身成了意识形态,具有明显的工具性和奴役性,有着统治人和奴役人的社会功能。“政治意图已经渗进处于不断进步中的技术,技术的逻各斯被转变成依然存在的奴役状态的逻各斯。”①[美]赫伯特·马尔库塞.刘继,译.单向度的人——发达工业社会意识形态研究[M].上海:上海译文出版社,1989:143.尤尔根·哈贝马斯则不赞成马尔库塞这一观点。他认为技术与科学作为新的合法性形式已经丧失了意识形态的旧形态,“这种新的意识形态同以往的一切意识形态相比较,已经不再具有多少意识形态的性质”,“已完全没有了传统的意识形态的压抑和奴役人的功能”。②[德]尤尔根·哈贝马斯.李黎,郭官义,译.作为“意识形态”的技术与科学[M].上海:学林出版社,1999:5.也有观点认为科学技术是独立的,与意识形态无关,比如我们所熟悉的人工智能对思想的终结这种言论。马克思主义强调使用科学技术的人是具有意识形态性的,人的本质是一切社会关系的总和。“正像只要提高劳动力的紧张程度就能加强对自然财富的利用一样,科学和技术使执行职能的资本具有一种不以它的一定量为转移的扩张能力。”③中共中央马克思恩格斯列宁斯大林著作编译局.马克思恩格斯选集:第2 卷[M].北京:人民出版社,2012:272.生成式人工智能本身是一种技术工具,不具有意识形态的性质,但是其设计者和使用者是具有意识形态属性的人,并且设计者和使用者主体的价值偏差会导致意识形态的偏差,从而引发意识形态风险。
生成式人工智能的内容生成过程中承载着设计者和使用者的价值偏好,导致意识形态风险的产生。在进行人机对话的内容生成过程中,生成式人工智能不可能做到完全的客观和中正,蕴含着设计者和使用者的偏好选择,并且这种偏好选择充斥内容生成的各个环节。首先,在内容生成的起始环节,从数据材料的选择,到结构的处理,再到关联的建构,都隐含着一种价值的选择和预想。比如,ChatGPT 在内容生成上,它的数据来源于西方国家的语料库,这种语料库以西方国家的价值观为基础,自然体现的是西方民众的价值取向。其次,在内容生成的呈现反馈环节承载着相关使用者的价值偏好。北京理工大学计算机学院相关研究发现,“Chat GPT生成内容中存在对于中国的大量偏见言论”④张华平,李林翰,李春锦.ChatGPT 中文性能测评与风险应对[J].数据分析与知识发现,2023(03).。由此可见,生成式人工智能设计者和使用者的价值偏差导致生成式人工智能在内容生成方面的不同,从而导致价值偏见产生意识形态风险。
(二)技术逻辑:生成式人工智能技术和算法蕴含的政治偏差
科学技术的进步是生成式人工智能得以快速发展的基础,然而科学技术也是一把双刃剑,它在促进人工智能发展的同时也在悄悄带来一些负面影响。随着科技的进步,科学技术的客观中立性被逐渐打破,与社会权力相结合,出现了“社会化技术权力”,本来是技术带来的机遇,却造成了“技术利维坦”风险。
生成式人工智能的技术和智能算法蕴含的政治和价值偏差导致意识形态风险的产生。首先,生成式人工智能的技术霸权影响价值偏差。技术的进步推动了生成式人工智能的发展,而对技术的掌握有严格的限制,又导致了技术霸权。生成式人工智能作为一种新兴产物,其背后的核心技术仍然掌握在西方发达国家手中,体现的是西方发达国家的价值立场。例如,ChatGPT 就是美国科技公司开发的,其中的技术逻辑必然与美国国家的意识形态相契合。其次,生成式人工智能的智能算法蕴含政治偏差。智能算法的实现建立在海量的数据基础上,数据的收集将直接影响到智能算法的预测结果。任何一种算法的数据收集范围都有其自身的限制,无法做到面面俱到。虽然 OpenAI 宣称,对ChatGPT 的训练数据尽量避免了种族、性别、文化等因素的影响,但是由于各种原因,其在中文语言和社会信息收集上都有较大的缺陷,而且固有的西方思维模式使得其难以消除对中国的狭隘看法和偏见设计。ChatGPT 的训练数据主要来自西方资本主义社会,带有明显的西方意识形态倾向,蕴含着严重的政治偏差。对于不符合西方价值观的数据会被清除,从而在数据偏见的基础上进一步加剧意识形态风险。
(三)实践逻辑:生成式人工智能应用场景蕴含的立场偏差
生成式人工智能可以帮助用户完成相关任务,提高工作效率。那么用户会在什么样的场景下使用生成式人工智能?在生成式人工智能兴起之初,许多人带着好奇心注册成为用户,只想体验它的强大功能,并没有很强的目的性。但是,这样的新鲜感不会持续太久,只有应用场景的需求才能推动生成式人工智能的发展。
生成式人工智能的应用场景容易存在立场偏差。其一,应用场景的多元性导致立场偏差。目前,生成式人工智能的应用场景非常广泛,国家鼓励生成式人工智能技术在各行业、各领域的创新应用,探索优化应用场景,同时,广泛多元的应用场景容易导致对价值立场的把握不准,产生立场偏差。此外,在生成式人工智能应用过程中产生的一些伦理和风险问题,也是我们必须重视的。其二,应用场景的文化制度导致立场偏差。生成式人工智能应用场景的立场偏差在本质上受到文化制度的影响,不同国家所产生的偏差是不同的。国外有学者对ChatGPT 15 种不同的政治倾向进行了实验测试,测试结果一致表明,在15 种测试中有14 种显示ChatGPT 对问题的回答表现出“左倾”观点的偏好,而并不是ChatGPT 自身所宣称的秉持中立客观的立场。①David Rozado.The Political Biases of ChatGPT [J].Social Sciences,2023(03).此外,ChatGPT 在政治选举上的应用表明它的政治立场中的亲自由主义,是与我们所倡导的社会主义核心价值观立场相对的。因此,我们必须对生成式人工智能的应用场景加以规范,否则受立场偏差的影响,容易产生意识形态风险。
二、生成式人工智能引发意识形态风险的内涵表征
马克思指出:“在我们这个时代,每一种事物好像都包含有自己的反面。我们看到,机器具有减少人类劳动和使劳动更有成效的神奇力量,然而却引起了饥饿和过度的疲劳。”②中共中央马克思恩格斯列宁斯大林著作编译局.马克思恩格斯选集:第1 卷[M].北京:人民出版社,2012:776.生成式人工智能既是提升劳动成效的神奇力量,也是在意识形态领导权、意识形态话语权和意识形态管理权等方面引发安全风险的温床。
(一)意识形态领导权解构风险
党的十八大以来,党高度重视意识形态工作,强调意识形态领导权的极端重要性,党的二十大报告再次指出,要“建设具有强大凝聚力和引领力的社会主义意识形态,使全体人民在理想信念、价值理念、道德观念上紧紧团结在一起”①习近平著作选读:第2 卷[M].北京:人民出版社,2023:34.。在信息时代,生成式人工智能与意识形态保持着高度相关性,其运行机制中所蕴含的资本和技术逻辑对主流意识形态产生了冲击,使意识形态领导权面临解构风险。
1.资本渗透解构主流意识形态领导权。资本以追求价值增殖为目的,其中的逻辑渗透到社会经济、政治等方方面面,对主流意识形态领导权造成了解构风险。其一,生成式人工智能助力资本主义意识形态传播。资本操控下,ChatGPT 向用户传递的大多数是消费娱乐资讯,用户在这些消费主义信息影响下,不知不觉深陷其中。这些信息所传递的都是西方资本主义价值观、资本主义意识形态,与我国的主流意识形态相违背,存在动摇马克思主义在意识形态领域领导地位的风险。其二,生成式人工智能推动资本主义意识形态向各国政治文化领域渗透。不同于普通的人工智能,生成式人工智能能进行创造性的劳动,完成指定任务,体现着更加智能的发展趋势。ChatGPT 等生成式人工智能,受资本驱动,为了节约成本,必然会被大规模使用,从而将资本主义意识形态不断渗入各个国家的政治文化领域,用资本主义思想来奴役一般劳动者,使他们认同并接受现存的资本主义秩序。资本主义的思想体系和意识形态渗透到我国的政治文化中,对我国主流意识形态造成冲击,影响主流意识形态领导权。
2.技术霸权威胁主流意识形态领导权。技术霸权导致“信息茧房”和“数字鸿沟”,对主流意识形态领导权造成威胁。其一,“信息茧房”掩盖主流意识形态。信息茧房是指人们在自己关注的信息领域会习惯性地被自己的兴趣所引导,从而将自己的生活桎梏于像蚕茧一般的“茧房”中。在智能算法的操纵下,生成式人工智能成为人们获取信息的主要渠道,导致“信息茧房”的出现。而主流意识形态传播领域因为风格普遍单调严肃,用户偏好不高,往往受到忽视,从而造成对主流意识形态的掩盖和淡化。其二,“数字鸿沟”加剧主流意识形态偏差。所谓数字鸿沟是指因技术差异导致的鸿沟。由于科学技术的差距,使得科学技术较为发达的国家通过生成式人工智能所获得的内容质量和时效较高,而科学技术和经济较为落后的国家所获得的内容较为滞后,从而带来意识形态被西方发达国家操控的风险。2023 年 3 月,外交部发布的《美国的霸权霸道霸凌及其危害》白皮书指出:“美国在高科技领域大搞垄断打压、技术封锁,遏阻其他国家科技和经济发展。”②美国的霸权霸道霸凌及其危害[N].人民日报,2023-02-21(017).凭借在人工智能技术方面的优势,为了维护自身的霸权地位,美国借ChatGPT 大搞意识形态渗透,严重威胁我国主流意识形态领导权。
(二)意识形态话语权旁落风险
意识形态话语权是指话语主体引导大众思想,调节话语内容,以及表达立场、观念和价值的权力。主流意识形态的话语权威主要来自大众传媒和官方渠道,并通过议题设置来影响受众的意识形态认知。在信息时代,人们获取信息和表达话语的渠道变得更加多样,在一定程度上用户可以自己发布议题。ChatGPT 等生成式人工智能开辟了人机对话交流新局面,既增加了信息获取的渠道和生产意识形态话语的主体,打破了意识形态的话语垄断,又对意识形态话语权造成冲击,带来主流意识形态话语权旁落风险。
1.多元化话语选择消解主流意识形态话语主导力。话语主导力是主流意识形态实现引导和凝聚社会共识的根本保证。在传统媒体时代,主流媒体具有绝对权威,掌握意识形态话语的产生和传播。生成式人工智能的兴起,扩大了意识形态话语产生和传播的主体,使得意识形态话语有了多元化选择,却消解了主流意识形态话语主导力。原因在于两个方面:其一,把关人身份被生成式人工智能取代,造成把关缺失。把关人承担着维护法律尊严、保障社会秩序和树立公众价值观念的责任。传统媒介时代,“把关人”往往由知识水平和文化素养较高的人担任,但随着生成式人工智能的出现和发展,“把关人”的角色随之发生了改变,拥有智能算法的生成式人工智能取代了以往的“把关人”,决定和掌握着话语信息的生产和传播,从而导致非主流意识形态话语大肆蔓延,生成式人工智能无法像“把关人”一样发挥作用,导致主流意识形态话语主导力减弱。其二,主流媒体平台话语权旁落。报纸、广播等传统媒体平台秉持内容为王的导向,形式相较单调,而ChatGPT 等新媒体平台则形式新颖,信息获取粗暴,再加上“流量为王”之势,导致传播主流意识形态的传统媒体平台出现“人流稀少”的现象,严重阻碍了主流意识形态话语主导力的实现。
2.智能话语生产削弱主流意识形态话语效用力。话语效用力是确保主流意识形态话语发挥积极作用的关键,与话语深度和话语真实度密切相关。ChatGPT 等生成式人工智能的话语生产削弱了主流意识形态话语效用力。原因在于两个方面:其一,ChatGPT 等生成式人工智能的意识形态话语生产缺乏理论深度。ChatGPT 并不完美,存在“一是分辨信源真伪能力不足,二是理解语言内涵能力不足”①王少.ChatGPT 介入思想政治教育的技术线路、安全风险及防范[J].深圳大学学报(人文社会科学版),2023(02).等技术瑕疵和弊端。其意识形态话语生产是以数据为原材料,在智能算法的基础上对众多原始话语数据进行简单排列处理,没有完整的话语逻辑和关系构建。这样经过数据库简单选择、排列处理生产出来的意识形态话语,会导致逻辑结构不清晰、缺乏理论性,因此削弱了主流意识形态话语深度。其二,ChatGPT 等生成式人工智能的意识形态话语生产缺乏真实性。一方面,ChatGPT 等生成式人工智能生产的话语不一定都是真实客观的,甚至还可能是带有意识形态偏见的虚假信息。长时间在这些带有偏见的虚假错误信息影响下,会解构人们对主流意识形态的认知,对主流意识形态话语产生较大冲击,导致主流意识形态话语缺乏真实度。另一方面,ChatGPT 等生成式人工智能克服了目前弱人工智能话语僵化和机器化等弊端,其话语生产更具拟人特征,在进行人机交互时,会让人产生一种和“真实人”交谈的错觉。这种拟人化的风格使虚假信息和话语偏见的传播更加隐蔽。虚假信息和话语偏见与主流意识形态价值观相背离,在ChatGPT 拟人化话语风格的掩盖下不断传播渗透,加剧了主流意识形态的不真实度。
(三)意识形态管理权弱化风险
掌握好意识形态管理权,有利于意识形态话语权和领导权的实现。Chat GPT 等生成式人工智能带来信息传播方式上的变革和对人独立思考能力的稀释,消解意识形态管理的主导权,加剧了意识形态管理难度。
1.社会思潮智能化传播加大意识形态管理难度。生成式人工智能使人类信息的生产和传播模式发生了质变,同时也意味着原有管理模式的变革。ChatGPT 等生成式人工智能的出现和发展改变了人们获取信息的方式,人们由从大众平台获取信息转向通过智能设备获取信息,通过人机交互实现信息的快速获取和快速传播。本课题组通过对全国不同领域的7839 名青年调查的结果显示,青年日常获取思想理论信息主要通过网络、微信平台和书籍渠道;青年对各种社会思潮有一定的知晓度。生成式人工智能引发的传播方式智能化和快速化,使把关人的作用减弱,导致一些非主流意识形态和社会思潮难以辨别,甚至加速了错误社会思潮的传播。这些新情况加大了意识形态管理的难度,冲击我国意识形态的管理主导权,给意识形态管理带来了风险挑战。
2.人的独立思考能力弱化消解意识形态管理主导权。生成式人工智能在一定程度上解放了人的脑力劳动,使人们能够专注于更有创造性的工作,从而让获取信息和创作都变得更加便捷。通过人机对话交流,ChatGPT 等生成式人工智能可以根据用户的需求在短时间内完成语料的收集整合,帮助和代替人们完成内容写作、创意编辑等任务,这些任务本来是建立在人的独立思考基础之上的,现在却被生成式人工智能所替代,使人的独立思考能力被大大弱化。当人们对ChatGPT 等生成式人工智能过度依赖,思考能力、认知能力和创造能力被不断削弱,逐渐成为技术的附庸,而人作为意识形态的主体性被弱化,意识形态管理的主导地位就被降低,从而消解意识形态管理的主导权。
三、生成式人工智能引发意识形态风险的防控策略
意识形态作为解释和改变世界的价值观念系统,不是纯粹的精神现象,必然会随着经济基础、社会结构和时代发展而发生变化。意识形态作为国家上层建筑,历来是敌我争夺的重要战场。毛泽东曾深刻地指出:“凡是要推翻一个政权,总要先造成舆论,总要先搞意识形态方面的工作。”①中共中央文献研究室.毛泽东年谱(一九四九—一九七六):第5 卷[M].北京:中央文献出版社,2013:153.生成式人工智能引发的意识形态风险,成为影响国家意识形态安全和政治安全的新难题,亟需破解之策。
(一)以思想引领保证生成式人工智能领域意识形态方向
生成式人工智能设计者和使用者的价值偏差是引发意识形态风险的因素之一,必须加强对人们的思想引领。其一,坚持用马克思主义引领思想。党的二十大报告强调:“要坚持马克思主义在意识形态领域指导地位的根本制度。”②习近平.高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告[M].北京:人民出版社,2022:43.在生成式人工智能时代,面临错综复杂的意识形态风险挑战,一方面要用中国化时代化的马克思主义武装人的头脑,用习近平新时代中国特色社会主义思想凝心铸魂,提升社会主义意识形态的引领力和凝聚力。另一方面,要用马克思主义增强人民群众抵制错误社会思潮和西方意识形态的能力。习近平强调:“党校要加强对各种社会思潮的辨析和引导,不当旁观者,敢于发声亮剑”①习近平谈治国理政:第2 卷[M].北京:外文出版社,2017:327.,要自觉与“历史虚无主义”“马克思主义过时论”等反动思潮和错误言论做斗争。其二,坚持以社会主义核心价值观来凝聚思想。社会主义核心价值观体现了社会主义意识形态的本质要求,是社会主义制度在思想和精神层面的质的规定,凝结着社会主义先进文化的精髓,是中国特色社会主义道路、理论体系和制度的价值表现。面对资本主义意识形态的渗透,必须用社会主义核心价值观凝聚思想,引领生成式人工智能的开发、应用,推动其更好地服务于人。其三,提升意识形态工作者思想素养,增强其意识形态风险的应对能力。ChatGPT 的强大功能使意识形态风险传播更具隐蔽性,这对意识形态工作者的风险辨别能力提出了更高的要求。要提升意识形态工作者的政治思想素养,增强其识别、研判、防范和化解重大意识形态风险的能力。
(二)以技术创新抵御生成式人工智能领域意识形态渗透
科学技术是生成式人工智能得以发展的重要因素,同时也是生成式人工智能引发意识形态风险的重要基础。要坚持技术领域的创新,加强技术赋能,抵御意识形态渗透。其一,要坚持技术为人服务的理念,防范意识形态风险。生成式人工智能带有意识形态色彩,能够弱化人的独立思考能力,消减意识形态管理主导权。这就需要坚持技术为人服务的理念,坚定人的主导地位,预防技术对人的束缚。其二,要加强数据监测,规制算法推荐。数据是生成式人工智能的基础,加强数据监测,有利于助推主流意识形态的精准化传播和针对性监管。在生成式人工智能研发、设计、运行中要嵌入社会主义意识形态数据,构建符合社会主义主流意识形态的算法推荐,用以防止生成式人工智能在话语传播中的意识形态风险制造。其三,要坚持科技自立自强,打造自己的生成式人工智能系统。在技术霸权影响下,唯有实现科技自立自强才是化解风险的有力举措。我国已在生成式人工智能的研发和应用上取得了不少进展,推出了许多各具特色的生成式人工智能产品,如“360 智脑”“讯飞星火”等,涵盖互动聊天、智能写作、音视频处理、编程设计等多个领域。我们要看到在生成式人工智能领域和西方发达国家的差距,看到背后所隐含的意识形态渗透和话语霸权。面对西方国家在生成式人工智能领域的技术霸权,需要我们站稳自己的意识形态立场,坚持科技创新,充实我们自己的语料库和数据库,防范ChatGPT 等西方生成式人工智能带来的意识形态风险。
(三)以法治规范维护生成式人工智能领域意识形态秩序
法治是维护国家稳定、维持社会秩序的基本手段。要通过法治来纠正生成式人工智能应用场景的立场偏差,防范意识形态风险的产生。其一,要树立生成式人工智能应用场景的法治思维。生成式人工智能应用场景不是法外之地,法治思维有利于生成式人工智能的健康发展,更好地保证生成式人工智能的应用。《生成式人工智能服务管理暂行办法》做出规定,提供和利用生成式人工智能服务,应当遵守法律、行政法规。其二,要构建生成式人工智能应用的伦理规范。生成式人工智能给人类生产生活带来了革命性的影响,也带来了学术造假、隐私安全等问题。针对这些问题,应该组织技术人员、学者专家和意识形态治理者共同商讨生成式人工智能的应用范围和准入制度,建立生成式人工智能应用的伦理准则规范,以应对生成式人工智能可能带来的伦理问题和意识形态安全问题。例如,2022 年国家网信办发布的《互联网信息服务算法推荐管理规定》中就要求对具有舆论属性的算法进行备案。其三,要完善生成式人工智能领域的法律法规和政策。2023 年4 月11 日,为了促进生成式人工智能健康发展和规范应用,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,面向社会公开征求意见,旨在要求生成式人工智能遵守法律法规。2023 年8 月,国家网信办等七部门联合发布的《生成式人工智能服务管理暂行办法》正式施行,对生成式人工智能作出了政策规范。要进一步织密法治网络,完善涉生成式人工智能应用场景方面的法律规范,更好维护生成式人工智能领域的意识形态秩序。
总之,生成式人工智能时代已经到来,势不可挡。其开辟的人机互动新局面拥有光明的前景,同时也带来了一系列问题,特别是给我国的意识形态安全带来了新的挑战。做好意识形态工作事关党的前途命运、国家长治久安和民族凝聚力和向心力。正确认识生成式人工智能引发的意识形态风险,从思想引领、技术创新、法律规范层面寻求应对风险的防控策略,不仅有利于保障我国意识形态安全,更是确保生成式人工智能健康发展的必然选择。