生成式人工智能诱发意识形态风险的逻辑机理及其应对策略
2023-04-29王延川赵靖
王延川 赵靖
摘 要:ChatGPT等生成式人工智能在深刻改变人类交往方式和信息传播范式的同时,也由于“技术利维坦”、智能算法“把关人”、资本技术操控的共同作用,诱发多重意识形态风险的产生。ChatGPT等生成式人工智能产生的意识形态撕裂风险、意识形态操纵风险、意识形态解构风险成为威胁我国意识形态安全的重要因素。为此,为了应对ChatGPT等生成式人工智能诱发的意识形态风险,应当强化“价值理性”以规避意识形态撕裂风险、加强技术赋能以抵御意识形态操纵风险、完善法律法规以化解意识形态解构风险,加强我国意识形态安全建设,有力保障中国式现代化建设。
关键词:ChatGPT;生成式人工智能;意识形态风险;逻辑机理;应对策略
作者简介:王延川(1975-),男,陕西咸阳人,法学博士,西北工业大学马克思主义学院教授、博士生导师,西北工业大学陕西省重点舆情信息研究中心研究员,主要从事马克思主义中国化、数字社会治理研究;赵靖(1990-),女,陕西延安人,西北工业大学马克思主义学院博士研究生,西北工业大学陕西省重点舆情信息研究中心研究员,主要从事马克思主义中国化、意识形态治理研究。
基金项目:国家社会科学基金重大项目(20&ZD177)
中图分类号:D261 文献标识码:A 文章编号:1000-2359(2023)04-0001-07 收稿日期:2023-04-30
2022年11月,美国人工智能研究实验室Open人工智能发布了大型语言模型ChatGPT,因其具有强大的语言理解和文本生成功能被誉为人工智能发展史上的里程碑。传统人工智能只是对数字敏感,而生成式人工智能则对文字更为敏感,它可以和用户直接交互。之所以如此,是因为ChatGPT具有强智能化和强扩展性:强智能化体现在可以与用户连续实时对话、理解上下文,根据用户特征适应新需求;强扩展性体现在通过不断增加大规模预训练数据和模型层数提高性能以解决多种复杂问题。ChatGPT一经问世即获得广泛“追捧”,短短两个月时间内全球注册用户即突破1亿我国虽然还未引入ChatGPT应用,但大量的出国留学人员和赴国外旅游的人都可以使用ChatGPT,而通过备案审查和“翻墙”使用ChatGPT的国人也不在少数。,成为史上用户增长最快的应用技术。2023年3月15日,Open人工智能发布GPT-4,性能得以大大提高,其迭代之快“令人咋舌”。随着ChatGPT的爆火,谷歌、Nvidia、Adobe都发布了自己的生成式人工智能产品。我国的百度公司发布“文心一言”,阿里巴巴发布“通义千问”,腾讯公司的“混元助手”等生成式人工智能产品预计在今年推出。据此,全球开始掀起生成式人工智能研发的新浪潮。
长期以来,来自国外的意识形态渗透从未停止,随着中国式现代化取得的伟大成就,以及我国社会经济的迅猛发展,这种渗透愈加明显。对此,习近平总书记在党的二十大报告中指出,必须“牢牢掌握党对意识形态工作领导权……巩固壮大奋进新时代的主流思想舆论”习近平:《高举中国特色社会主义伟大旗帜为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告》,《人民日报》,2022年10月26日。。在数字时代,意识形态领域的斗争也开始转换形式,人工智能成为意识形态渗透的一种主要工具。生成式人工智能由于具有强大的文本输出能力以及方便用户使用的特点,成为诱发意识形态风险的“绝佳”工具。因此,正确审视新一代生成式人工智能可能诱发的新的意识形态风险,研究风险的生成机理并探寻其应对之策,推动我国意识形态治理由被动走向主动,是维护我国意识形态安全的重要举措,也是开辟中国式现代化建设新境界的题中应有之义王永贵,颜润之:《中国式现代化进程中文化强国的行动逻辑》,《陕西师范大学学报》(哲学社会科学版),2023年第2期。。
一、ChatGPT等生成式人工智能诱发意识形态风险的逻辑机理
(一)“技术利维坦”催生意识形态风险
在算法赋权背景下,“社会化技术权力”开始出现,致使国家和社会行为产生从“技术机遇”滑向“技术利维坦”的风险。在该过程中技术权力与意识形态全方位地互联互渗,意识形态各种力量的博弈随之开始。不但如此,人类社会和自然社会均被“社会化的技术权力”所支配,从而使技术的“物性”和“人性”矛盾凸显。正如马尔库塞所说,“技术控制真正体现了有利于整个社会集团和社会利益的理性”赫伯特·马尔库塞:《单向度的人——發达工业社会意识形态研究》,刘继译,上海译文出版社,2008年,第9页。。随着社会发展与科技的进步,技术的“中立性”逐渐被打破,呈现出技术与权力相结合并嵌入社会治理的典型样态。技术通过对社会的控制和调制,成为支配和影响人类社会政治、经济、文化发展的动态支配力量。当技术从经济领域嵌入社会治理过程之后,便容易被政治权力机构利用而成为宰治意识形态领域的重要工具。
从技术逻辑来讲,在弱人工智能阶段,人工智能只是实现对人的思维的模拟刻画,这种模拟刻画仅是功能上的近似,而远非等同或替代管秀雪:《人工智能时代主流意识形态传播力提升的多维审视》,《理论导刊》,2022年第10期。。以ChatGPT为代表的生成式人工智能处于“强人工智能”的边沿,它通过“语言”模拟人类的思维进行人机对话,其天然的意识形态属性被技术所掩盖。这里,人工智能的思维和价值观不是推理和逻辑分析的结果,而是其数据库被人为标记后强化学习的结果,实质上仍是人类的思维和价值观。在西方技术霸权主义的影响下,ChatGPT等生成式人工智能将影响人类对信息来源的真实性、权威性、准确性的判断,技术异化必将引发人类认知内容、情感输出、思维的异化。以美国为代表的国家通过ChatGPT等生成式人工智能和其他新技术的组合使用,对更多发展中国家进行意识形态领域的渗透、技术霸凌和文化殖民,对这些国家的意识形态安全造成更大的风险。
(二)智能算法“把关人”助推意识形态风险
“把关人”是由美国传播学四大先驱之一的卢因在《群体生活的渠道》一文中提出的概念。他指出,“信息传播网络中布满了把关人”,“信息总是沿着包含有‘门区的某些渠道流动,在那里,或是根据公正无私的规定,或者根据‘守门人的个人意见,就信息或商品是否可被允许进入渠道或继续在渠道里流动作出决定”丹尼斯·麦圭尔,斯文·温德尔:《大众传播模式论》,祝建华、武伟译,上海译文出版社,1987年,第134页。。“由于流通中的信息从来都离不开特定立场、价值或者利益诉求的驱使”,因此把关人“承担着捍卫法律尊严、守护公序良俗和建构公共价值的责任”武豹:《算法推荐时代主流意识形态传播面临的挑战及其应对》,《中国石油大学学报》(社会科学版),2021年第4期。。在传统媒体时代,决定传播内容的“把关人”一般由记者、编辑担任。而在人工智能时代,“把关人”发生了位移,“智能算法”成为信息生产、传播和接收的“把关人”。ChatGPT的训练模型为强化学习近端策略优化,是在“人脑思维”基础上加入的“人类反馈系统”。ChatGPT实现了人机对话的跨越式发展,其中蕴含着设计者的技术价值和情感价值,其生成内容中凸显强烈的意识形态属性。ChatGPT等生成式人工智能和以往人工智能技术产生意识形态问题的关注点的不同,在于意识形态风险问题的滋生从信息传播向信息生成转变,开启了意识形态风险治理的新时代。
在ChatGPT的人机对话生成内容的传播过程中,蕴含着设计者的价值观念,使其标榜的绝对“客观中立”难以成立。由于训练ChatGPT的数据主要来源于英语语料库而非汉语及其他语种语料库,而这种语料库基本上建立在西方价值体系和意识形态之上,具有严重的意识形态导向,当ChatGPT对这些数据加以吸收后,便容易生成包含意识形态偏见的文本蓝江:《生成式人工智能与人文社会科学的历史使命:从ChatGPT智能革命谈起》,《思想理论教育》,2023年第4期。。在“算法黑箱”的掩护下,设计者也可以先入为主地将某种西方的价值观念嵌入编码设计中,使其成为兜售西方政治倾向和价值观念的介质。这些嵌入的价值观念中包含大量的偏见、歧视和虚假信息,扭曲了人工智能产品本身为人类提供客观公共服务的本质。因此,“把关人”的位移降低了信息传播的真实性和客观性,影响了把关决策的实施效果,增加了负面舆论的意识形态风险。
(三)资本技术操纵扩大意识形态风险
在数字时代,数据资源被资本垄断,成为新型资本形态。人工智能的产生与发展主要依靠海量数据,要把如此海量的数据反复投喂给人工智能模型,需要大量的资金据悉,GPT-3单次训练成本预计为500万美元,GPT-3.5单次训练成本就高达460万美元。。资本作为统治权力的代表,只有抢占资源主导权、技术主导权、市场主导权而实现产业主导权,进而对生产力、生产关系、生产方式不断变革,才能最终实现资本有效增殖。假如没有微软和马斯克等“资本大鳄”的支持,Open人工智能也就根本无力承担开发ChatGPT的高额支持。“在资本主义条件下,人工智能实际上是资本谋取剩余价值进而维持整个资本主义制度体系存活的技术工具。”蒋红群:《无产阶级会沦为无用阶级吗》,《马克思主义研究》,2018年第7期。ChatGPT看似是由初创企业Open人工智能研发,背后控制者则是众多资本企业。这就预示着ChatGPT只有一直借助科技巨头的数据、技术、资本等优势,才能不断发展壮大。在数字时代,资本运作的目的转变为通过技术封鎖、数据垄断、算法偏见等手段促进新的剥削形式的形成,散播和传递有利于自身阶层和利益的意识形态内容,企图在全球范围内建立起资本主义意识形态体系。
资本操纵生成式人工智能实现更多的资本增殖,并通过对意识形态的操纵改变现有的生产关系,扩大意识形态风险。ChatGPT等生成式人工智能的快速发展威胁主流意识形态话语权主导地位。以科技巨头为代表的资本往往掌握最新智能技术和数据资源,在政府对科技企业依赖较强的情况下,便会授予科技企业掌握更多的数据权限,政府的权威性被削弱,而科技企业在技术上的巨大优势可能造成资本对意识形态话语权的垄断。科技巨头在资本逻辑的驱使下,放任ChatGPT等生成式人工智能对用户权益的侵犯,利用“算法”将海量数据精准“投喂”给受众,利用平台挖掘和传播虚假信息,加速对错误思潮的“病毒式传播”,潜移默化地影响受众的情感认知、价值体验、行为表现。生成式人工智能的便利性加剧了人对机器的“智能”依赖,使其甘愿沦为数字劳工,陷入资本主义剥削的陷阱。在技术异化下人的思维主体性和社会性逐渐降低,具体表现在人与人的交流逐渐转为人与机器的交流,降低了人的思维主体能力和社会交往能力,被动地接受机器输出的价值观,即技术背后操纵者所想要传递的西方价值体系。这样,资本、权力、技术利用生成式人工智能逐渐输出背后操纵者的政治意图,传递有利于自身发展的价值取向,并利用形成的“信息茧房”加固受众思维模式,达到操控舆论的目的。
二、ChatGPT等生成式人工智能诱发意识形态风险的具体表征
进入数字时代,ChatGPT等生成式人工智能促进人类信息传播方式的根本改变,也悄然改变着人类的生活方式2023年4月12日,微软宣布开源了DeepSpeed Chat,帮助用户轻松训练类ChatGPT等大语言模型,使得人人都能拥有自己的ChatGPT。用户通过Deep Speed Chat提供的“傻瓜式”操作,能以最短的时间、最高效的成本训练类ChatGPT大语言模型,这标志着一个人手中有一个ChatGPT的时代要来了。,其诱发的意识形态风险逐渐成为我国在推进中国式现代化建设进程中的安全隐忧。ChatGPT等生成式人工智能所诱发的意识形态撕裂风险、意识形态操纵风险、意识形态解构风险成为威胁我国意识形态安全的重要因素。
(一)信息真伪难辨诱发意识形态撕裂风险
其一,生成式人工智能使得真相与虚假杂糅同构。“在最近的一项研究中,ChatGPT创建的摘要被提交给学术评审人员,他们只发现了63%的造假。”H Holden Thorp,ChatGPT Is Fun,but Not An Author,Science,2023,379(6630),pp313.ChatGPT因其强大的论证能力会对其输出内容进行合理论证,人们在知识盲区下很容易被迷惑,甚至包括专业的学术评审人员。ChatGPT为了回应用户需求,甚至不惜虚构信息,将互联网数据沉淀的大量包含人类社会歧视与偏见的信息“吸收”,然后以“客观公正”的面目输出,通过广泛传播应用影响公众价值判断,加深社会偏见。公众在人工智能塑造的“信息茧房”影响下,强化了人与机器的交流,弱化了人与人的交流,公众在信息区隔与观念封闭中彼此疏离,而机器输出的特定价值观容易引发“群体极化”现象,造成公众价值分化、思维窄化,引发意识形态领域撕裂风险。其二,真实与虚假信息杂糅影响舆论生态,破坏国家政治格局。ChatGPT利用虚假信息制造混乱,成为干预他国内政、制造动乱的新“利器”。它以微妙而复杂的手段输出信息,涵盖政治格局、社会民生、文化样态的等多个领域,在资本、技术、权力的合谋下虚假信息与真实信息杂糅难辨,尤其是在敏感时间对敏感事件进行虚假解读,使“眼见不一定为实”,这种精心设计使受众产生强烈的情感共鸣,煽动网民非理性情绪,扰乱舆论生态,分化公众价值,达到维护特定政治和经济利益的目的,加剧意识形态领域的撕裂风险。其三,利用虚假信息输出历史虚无主义,影响国家政治安全和公众价值观念。相关资料显示,一组由ChatGPT撰写的代码传达出种族歧视和性别歧视的信息Chatterjee J,Dethlefs N.This new conversational 人工智能 model can be your friend,philosopher,and guide and even your worst enemy,Patterns (New York),2023,4(1).。ChatGPT在价值塑造上表现出鲜明的政治倾向,仍在为受众塑造“西方中心论”的意识形态图景。ChatGPT输出的不良价值取向可能在“人机对话”中得到强化,ChatGPT企图以西方世界倡导的资本主义意识形态的价值体系约束受众,用同质化的虚假信息误导受众思维认知,为达到其背后的政治目的虚构史实、制造谎言,影响我国国际形象、破坏国内和国际舆论格局,扩大意识形态风险,在人工智能技术造就的政治与技术互嵌的媒介景观下,我国意识形态领域的斗争趋向复杂化、隐蔽化、动态化。
(二)算法霸权引发意识形态操纵风险
“从传统媒体时代的媒介霸权、文化霸权,到当今的算法霸权和人工智能霸权,越发精准、智能的媒介技术也在创造出越发隐蔽、遍在的‘数字利维坦。”何天平,蒋贤成:《算法介入国际传播:模式重塑、实践思考与治理启示》,《对外传播》,2022年第10期。ChatGPT等生成式人工智能在技术霸权操纵下的风险点表现在两个维度:其一,ChatGPT的算法歧视推动“信息茧房”的形成。马尔库塞认为,科学技术并非价值中立,“技术的逻各斯被转变成依然存在的奴役状态的逻各斯”赫伯特·马尔库塞:《单向度的人——发达工业社会意识形态研究》,刘继译,上海译文出版社,2008年,第127页。。以智能算法技术为基础的ChatGPT形成了“人机协同”的意识形态话语生产方式,在算法技术操纵下,形成符合操纵者意愿的相应思想和价值观念,并在“输入-输出-输入-输出”的反复训练过程中,发挥“算法偏见”的作用,最终强化某种特定个体或群体观点,促使“信息茧房”的形成樊清丽:《关于算法推荐易形成“信息茧房”的再思考》,《陕西师范大学学报》(哲学社会科学版),2019年第4期。,甚至引发更大的群体极化风险,使受众对主流意识形态产生偏见,影响国家意识形态安全。其二,ChatGPT加剧数字鸿沟的出现。数字鸿沟最早出自20世纪90年代美国媒体报道和政府公告中,被定义为技术接入拥有者和技术接入缺乏者之间的差距陆杰华,韦晓丹:《老年数字鸿沟治理的分析框架、理念及其路径选择:基于数字鸿沟与知沟理论视角》,《人口研究》,2021年第3期。。在人工智能时代,网络信息的革命性变化加速信息传播在意识形态领域的异化,造成不同国家、不同区域和不同地区之间的“数字鸿沟”现象。ChatGPT等生成式人工智能可能操控和改变群体认知,其输出结果的质量根据付费情况而定,即用戶付费越高,获取的信息就更加精准,而在大多数用户依赖免费服务的现实情况下,用户群体的分层化导致底层用户陷入其构造的“信息茧房”中,加剧数字鸿沟出现。就网络政治传播来说,会因此形成两个互不关联的政治传播社会,一个是以底层大众为中心的“弱智型”政治传播社会,另外一个是以精英为核心的“强智型”政治传播社会,两个政治传播社会被ChatGPT隔断,精英与大众互相分离张爱军:《ChatGPT推进网络政治悖论性传播的可能性维度》,《广西师范大学学报》(哲学社会科学版),2023年第2期。。由于技术设备特质和社会认知能力的差异性,使ChatGPT的智能生成内容更优先靠近科学技术发达的国家和地区,而较为落后的国家和地区以及受教育水平较低的群体被排除在先进的“底层”数字化时代之外,智能生成内容这些“底层大众”逐渐沦为“沉默的大多数”,加剧了意识形态领域被西方国家利用操纵的风险。
(三)人工智能“工具化”加剧意识形态解构风险
其一,网络空间的舆论安全。ChatGPT等生成式人工智能在资本和权力的裹挟下呈现“去规则性”的趋势,并与意识形态存在工具性关联,威胁国内外网络舆论空间安全。ChatGPT等生成式人工智能的用户通过恶意编写代码、创建勒索软件和钓鱼邮件破除技术壁垒,致使计算机系统受损、数据泄露和网络瘫痪。再加上网络空间的开放性、自由性,其所带来的系列负面言论、非理性声音都会影响主流意识形态的控制力量。其二,法律意识形态领域安全。在利益驱使下,用户通过避开敏感词汇的方式向ChatGPT输入各种指令,使其按照他的思路生成方案,从而诱发各种违法犯罪问题滋生,其背后衍生出诸多法律风险问题,如数据泄露引发的侵权诈骗行为、利用非法手段造成系统安全防控失灵、法律责任难定等。在这种生态环境下,境内外敌对势力极有可能借机利用互联网上一些敏感舆情案件和涉法事件,恶意抹黑、攻击我国的政治制度和法律制度,消解我国主流意识形态向心力,威胁国家总体安全。其三,社会伦理失范风险。ChatGPT可以快速生成文本,回复时在“对齐”为了让生成式人工智能和人类的“价值观”保持一致,需要教会生成式人工智能“读懂”人类的价值观,研发团队想办法一次次地给生成式人工智能反馈价值,并及时调整,这个过程就是对齐,这也说明研发团队可以塑造生成式人工智能的价值观。作用下产生行为倾向性,即以西方尤其是美国的主观观点最为明显,其他声音被边缘化,难以产生多元观点,从而弱化了人类对事物的思维感受力,因技术依赖而导致思维固化和行为异化,削弱了自主创造性,人们逐渐成为“数据囚徒”。这样一来,“科学技术的工具理性张扬到极致,超越其生产力功能,被广泛应用并深入渗透到人们的日常生活及社会政治、文化等各个领域时,科学技术就具备了作为一种隐性意识形态的良好条件,有可能承载并发挥着意识形态功能”杨爱华:《人工智能中的意识形态风险与应对》,《求索》,2021年第1期。。进入数字时代,人工智能的“工具化”作用愈发凸显,工具理性盛行,而价值理性式微,意识形态面临解构风险。
三、ChatGPT等生成式人工智能诱发意识形态风险的应对策略
在谈到对技术的定位时,哲学家芒福德认为,“它只是人类文化中的一个元素,它起的作用的好坏,取决于社会集团对其利用的好坏”刘易斯·芒福德:《技术与文明》,陈允明译,中国建筑工业出版社,2009年,第9页。。应对生成式人工智能诱发意识形态风险的正确态度,是立足于理论实践,从强化“价值理性”、加强“技术赋能”和完善“法律法规”三个方面出发,规范人工智能技术应用,消除其中的意识形态风险。
(一)强化“价值理性”以规避意识形态撕裂风险
首先,建立以中国共产党为领导、各个力量协同参与的意识形态责任制。一方面,要坚持中国共产党领导,保障生成式人工智能的发展方向。在智能化迅猛发展的大背景下,真实信息与虚假信息杂糅,各种错误思潮纷至沓来,因此必须始终高扬以马克思主义为指导的主旋律,强化社会主义意识形态价值导向,坚持党性和人民性的统一,加强党对我国人工智能领域的领导地位,将人民群众的需求放在首位,彰显人工智能时代我国意识形态的本质属性,有效应对ChatGPT生成式人工智能在政治格局、经济结构、文化领域等方面的风险挑战,保障我国社会主义事业繁荣发展。另一方面,要吸纳多方社会力量协同参与意识形态治理。政府应整合各方资源,建立自上而下深度协作模式应对ChatGPT等生成式人工智能的渗透和冲击。要建立各部门协同合作的意识形态工作共治模式,形成生成式人工智能风险防控的“产、学、研”合作机制,利用智能技术实现数据共享,打破部门之间的技术壁垒,统筹各类资源,实现各方协同整合、优势互补、多频共振的良性局面,研发应对意识形态风险的人工智能防控技术,有效应对意识形态领域的冲突。
其次,构建智能化平台,深化意识形态领域供给侧改革。要加强社会主义核心价值观在智能传播中的价值导向作用,强化主流意识形态的价值引领力。ChatGPT等生成式人工智能的意识形态属性决定了其在资本利益的驱动下会呈现出技术开发者固有的价值导向。因此,主流媒体应加强马克思主义新闻观的价值引领,做好“把关人”在信息生成、信息传播等各个环节的管控。面对ChatGPT中散播的虚假信息、政治谣言、错误价值观,尤其是历史虚无主义、抹黑社会主义意识形态的言论,我国主流媒体应主动出击,利用主流价值观驾驭算法,形成算法向善的智能引导方式,利用智能识别、算法推荐、智能引擎的智能技术充分挖掘主流意识形态的“正能量”,及时更正、积极回应公众最关心的热点和难点问题,做好价值引领和释疑工作。同时,要发挥媒体融合作用,创新传播内容、传播形式、传播载体,推送与主流意识形态相关的正面内容,创新利用数字化、智能化“技术语言”以及培育“意见领袖”的方式对公众进行正向价值引领,统筹线上线下舆论场融合发展。
再次,构建智能化舆情甄别模型,夯实主流意识形态话语权建设。为有效防治ChatGPT等生成式人工智能中虚假信息引发的意识形态问题,应利用人工智能技术建立舆情监控机制、舆情预警机制以及舆情研判和舆情危机处理机制,及时发现和管理舆论场中公众在政治思想、经济文化、社会民生领域可能出现的思想行为倾向,利用议程设置、大数据,精准识别国内外热点舆情、舆情态势,以及可能产生的意识形态风险点,通过建立意识形态领域的风险等级制度,对舆论场出现的错误信息和不良价值导向早干预、早介入、早处理,引导公众建立正确的思维方式和价值观,塑造符合主流意识形态发展的价值体系。
(二)加强技术赋能以抵御意识形态操纵风险
首先,坚持技术向善的理念,促使意识形态防范技术的优化升级。科技自强是加快推进中国式现代化之路的关键之举,也是提高我国综合国力和国际地位的重要内容。因此,加快我国新技术前沿领域的研发,是实现新时代中国式现代化创新发展、跨越式发展、高质量发展的迫切要求。“技术进化也是一个不断被选择、被发展、被强化的过程,起决定作用掌握进化方向的还是人”陈昌凤,霍婕:《权利迁移与人本精神:算法式新闻分发的技术伦理》,《新闻写作》,2018年第1期。。据此,应对意识形态风险的关键在于发挥人的主观能动性并促使核心技术攻关。通过成立国家级人工智能研发专项小组,打破技术对资本的依附。同时应加强信息加密技术、匿名处理技术与源头追溯技术的研发,组织专家研发ChatGPT类生成式人工智能的识别技术和检测技术,有效打击其因恶意使用引发的社会犯罪问题并破解问责难题,实现国家现代化智能系统的优化升级。由于生成式人工智能并非奉行“价值中立”原则,因此,应将社会主义意识形态的价值观贯穿于我国生成式人工智能产品的研发、应用和推广之中,加大对生成式人工智能领域人力、物力和财力的支持,推进国家高新技术领域的突破,以科技赋能突破技术壁垒,实现以中国式现代化全面推进中华民族伟大复兴的目标。
其次,坚持以技术创新实现算法优化,以价值引领算法向善的原则。习近平总书记指出:“努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,确保我国在人工智能这个重要领域的理论研究走在前面、关键核心技术占领制高点。”《习近平在中共中央政治局第九次集体学习时强调 加强领导做好规划明确任务夯实基础 推动我国新一代人工智能健康发展》,《党建》,2018年第11期。生成式人工智能研发生产的相关从业者应提升技术创新应用能力,研究算法关键技术的运行模式,研发应对意识形态风险的相关软件,通过加强算法的可解释性、可溯源化、可追责化张宇晖:《算法决策的结构化问责机制:欧盟经验与中国经验》,《上海政法学院学报(法治论丛)》,2022年第4期。,破解“算法黑箱”,从而实现算法优化的技术升级。要将生成式人工智能嵌入意识形态安全建设的各个环节,建立“AI+政策”“AI+教育”“AI+法律”“AI+文化”的智能化模式,通過建立试点运行监测软件的可行性和适用性,由试点推向全国,实现智能技术领域的守正创新,有效规避意识形态领域相关风险,巩固我国意识形态领域的领导权、管理权和话语权。
再次,发放“政策红利”,跨越“数字鸿沟”。哈贝马斯认为,“科学技术作为生产力实现了对自然的统治,科学技术作为意识形态实现了对人的统治”尤尔根·哈贝马斯:《作为“意识形态”的技术与科学》,李黎、郭官义译,学林出版社,1999年,第110页。。随着生成式人工智能的发展以及数字化转型的不断深入,数字鸿沟在不同信息使用群体中的差距加大,这种差距不仅体现在数字化系统与公众认知之间,也体现在不同国家、地区的阶层之间。国家应实现政策倾斜,通过增加人力、财力、物力的投入,加快构建政府主导下的企业结构优化升级和技术创新,加强数字技术基础教育,加快数字基础设施建设,激发企业的技术自主创新能力,促进企业内部的技术创新和优化升级,推动国家经济和社会的信息化进程,缩小与西方发达国家之间的“数字鸿沟”。要以政府为主导,各部门协同推进,提升公众利用生成式人工智能参与政治、文化、社会各项议题的积极性和主动性。要加强对弱势群体的“数字权利”保护,形成政府、企业、社会共同协力提升弱势群体对生成式人工智能技术的应用能力,提升其利用智能技术的政治参与意识、行为和能力,合力推进社会数字化建设,有效抵御意识形态风险。同时,要加强国际交流与合作,提升生成式人工智能全球治理水平。践行人类命运共同体理念,加强各国在生成式人工智能技术领域的共同参与,着重在加强人工智能技术建设的规范原则、伦理道德、法律制度上的合作交流,防止因技术滥用、误用、恶用而给人类带来损失。各个国家应积极携手努力,在尊重各国生成式人工智能治理原则和现实情况基础上,建立全球统一的国际生成式人工智能治理框架和标准规范,促进生成式人工智能规范化发展,形成造福人类美好生活和推动人类文明的重要保障。
(三)完善法律法规以化解意识形态解构风险
首先,规范生成式人工智能管理保障机制。应组织和联合技术人员、法律界专家、意识形态治理者共同商定应对ChatGPT等生成式人工智能产生的风险问题,明确技术的适用范围及相应的准入制度,通过建立常态化的审核制度和监管机制应对生成式人工智能带来的技术、法律和伦理问题。我国监管机关一直关注生成式人工智能可能带来的意识形态问题。2022年国家网信办发布的《互联网信息服务算法推荐管理规定》要求对具有舆论属性的算法进行备案。未来,应该细化生成式人工智能技术的申报、开发到应用的整个流程中的规范介入,构建技术研发者、生产者和应用者相应法律责任制度,确保生成式人工智能产品合法合规。
其次,建立网络意识形态领域的法治保障体系。在以ChatGPT为代表的人工智能形成的拟态环境中,由于资本与技术合谋,“把关人”发生位移泛化,在提高信息传播效率的同时也加大了法律领域、伦理领域的意识形态风险,威胁网络舆论空间安全。ChatGPT发布不久,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对保障意识形态安全作出明确要求。未来,应该加快构建涉及意识形态人工智能的治理细则,在维护意识形态安全方面做到有法可依,尤其要明确执法主体的权力和责任,增强执法主体在执法过程中的工作力度,夯实网络意识形态的法律保障体系。
再次,构建网络法律教育的长效机制。要以政府相关部门为主导,高校、社会、个人形成合力,发挥媒体融合的智能化优势,打造线上线下的普法精品项目。比如通过抖音、快手等直播平台打造普法“网红”,创新网络普法的话语方式,以广大民众网络喜闻乐见的方式进行趣味传播,潜移默化地对公众的思想认知、内在价值、外在表现进行正确的引导,真正促进法律“落地”见效,形成法律多元治理主体与网民之间的良性友好互动,达到增强公众网络素养、媒介素养、智能素养的目的,促使广大民众自觉营造风清气正的网络舆论空间,形成以生成式人工智能技术为驱动壮大主流意识形态阵地的新态势。
结语
以ChatGPT为代表的生成式人工智能在为人类生活和工作带来重大变革的同时,也会产生诸多意识形态风险点,成为威胁我国意识形态安全的新问题。人工智能时代的到来是不可逆的发展趋势。意识形态安全问题又是党一项极端重要的工作。因此,辩证审视ChatGPT等生成式人工智能诱发意识形态风险的逻辑机理和具体表征,并从价值导向、技术赋能、法律伦理层次寻求化解风险的策略方法,不仅是开辟新时代意识形态治理的新范式的创新之举,也是推进我国国家治理现代化的重要保障,更是确保ChatGPT等人工智能技术良性发展的必然选择。
Abstract:
Generative AI such as ChatGPT, while profoundly changing human communication mode and information transmission paradigm, also induces multiple ideological risks based on the combined action of “technological Leviathan”, intelligent algorithm “gatekeeper” and capital technology manipulation. The ideological tearing risk, ideological manipulation risk and ideological deconstruction risk generated by generativeAI such as ChatGPT have become important factors threatening our ideological security. Therefore, in order to cope with the ideological risks induced by generative AI such as ChatGPT, it is necessary to strengthen the “value rationality” to avoid the risk of ideological tearing, strengthen the technological enablement to resist the risk of ideological manipulation, improve laws and regulations to defuse the risk of ideological deconstruction, strengthen the construction of Chinese ideological security, and effectively guarantee the construction of Chinese modernization.
Key words:ChatGPT;generative AI;ideological risk;logical mechanism;coping strategy [責任编校 张家鹿]