生成式人工智能对网络意识形态安全的挑战及应对*
2024-05-10董扣艳
董扣艳
(浙江大学1马克思主义学院;2马克思主义理论创新与传播研究中心 浙江杭州 310058)
自美国人工智能实验室OpenAI在2022年11月30日推出聊天机器人模型ChatGPT以来,这款生成式人工智能技术应用就立即风靡全球,成为有史以来全球用户增速最快的现象级应用程序。在中国,Chat-GPT 也受到社会各界广泛关注。百度、阿里、腾讯、京东等互联网头部公司纷纷表示已经布局“类ChatGPT”产品。其中,百度开发的“文心一言”于2023年3月16日正式对外发布。
在学界,学者们从技术角度分析了ChatGPT的运行模式,[1]从法律方面、[2]伦理方面[3]分析了ChatGPT可能带来的风险,探讨了ChatGPT对教育生态、[4]传播范式[5]等领域的深远影响,从哲学角度分析了人机关系的未来。[6]然而,鲜有研究专门从网络意识形态安全视角论证ChatGPT的发展前景,揭示生成式人工智能与网络意识形态安全的耦合关系。本文结合ChatGPT的技术特征,着重阐释生成式人工智能的技术缺陷给网络意识形态安全带来的潜在风险,并进一步探究更好地促进生成式人工智能有效赋能网络意识形态安全的实践路向。
一、生成式人工智能的显著技术特征
作为新一代人工智能的技术风口,生成式人工智能比传统人工智能技术具有更多的语言处理优势。尽管它在机器论证效力方面仍存在严谨性不足等问题,但在机器对话能力方面具有较强的人机互动性、在语言表达风格方面具有较强的类人性。这给我国网络意识形态安全带来一系列前所未有的机遇和挑战。
(一)在机器对话能力方面,生成式人工智能展现出较强的人机互动性
ChatGPT的第一个重要技术支撑是Transformer神经网络架构(即GPT-3.5架构),是一种“基于神经网络的语言模型”。在计算机科学和人工智能领域,“语言模型”是与自然语言处理(NLP)相关的重要问题。技术专家试图通过自然语言处理,打造一个能够计算人类语言文本中单词、句子出现概率的语言模型。他们的技术设想是,在人类语言文本中,一句话中的单词总是按照一定顺序排列,通过前面单词就可以推算出后面单词的出现概率。“基于神经网络的语言模型”的工作原理是通过海量的人类语言语料,训练出一个神经网络模型,通过向这个模型中输入一句话中的前面几个单词,它就能推算出这句话后面最常用的几个单词。正因如此,当用户在ChatGPT 的对话框中输入问题之后,它能够根据用户需求进行任务处理,仿佛电脑里有个“虚拟人”在和用户进行“对话”。在生成式人工智能出现之前,传统人工智能机器人使用的主要是基于规则或者机器学习的语言模型,通常需要用户先编写程序指令,通过代码控制机器进行任务处理。显然,这种操作不利于人机连续对话,存在着沟通效率低、对话方式单一等问题。相比而言,ChatGPT省去了以往人机交互中的程序编写等繁琐步骤,可以直接处理用户输入的自然语言任务,并延续上下文逻辑与用户展开连续性对话。在这个意义上,生成式人工智能具有比传统人工智能更强的人机交互对话能力。它所拥有的超强语言理解和文本生成能力可以较快回答客户问题,在未来有望作为“人机交互”的辅助工具,在教育、医疗、法律咨询等领域发挥重要作用。
(二)在语言表达风格方面,生成式人工智能展现出较强的类人性
ChatGPT 的第二个关键技术支撑是基于人类反馈的强化学习(RLHF)技术,它被OpenAI 研发专家视为ChatGPT 成功的秘密武器,能够让机器像人一样“思考”。RLHF 把人类的反馈纳入训练过程,不断提升ChatGPT 对语言理解的准确性,优化生成文本的内容质量。传统人工智能机器人按照程序指令执行任务,其语言表达与人类的自然语言存在显著区别,呈现出机械化、呆板化、去个性化等风格。相比而言,ChatGPT 能够给用户提供更加自然、流畅的对话体验,被西方媒体称为“有史以来向公众发布的最好的人工智能聊天机器人”。[7]生成式人工智能的类人性离不开RLHF 技术的有效支持,一方面,ChatGPT 将人类偏好作为模型调整的依据,按照用户反馈不断调整与优化机器生成的文本内容,使其能够更好地体现人类意志;另一方面,它不是简单地模仿人类的言语行为,而是深度学习人类的认知和思维方式,以便作出更加符合人类认知的回应方案。ChatGPT 的类人性还体现在敢于质疑、拒绝甚至“回怼”人类的非正当性提问。已有不少用户表示,ChatGPT 会“发脾气”。作为一类经过强化的人工智能深度学习模式,生成式人工智能不是在机械化地按照程序指令与人类进行对话,而是类似人类一般,经过“思考”再给出回复方案,从而实现与人类的双向互构。它所拥有的类似于人的语言表达风格,有望弥补传统人机对话的非真实感缺陷,为未来的道德教育、心理疏导以及情绪危机干预等人类精神领域的调节和引导实践赋能。
(三)在机器论证效力方面,生成式人工智能仍存在不严密性和不成熟性
在神经网络、自然语言处理和强化学习等新兴人工智能技术的支持下,ChatGPT 在一定程度上具备了和人类思维图式较为相似的逻辑推理能力。在生成式人工智能以前,传统人工智能只能一步接着一步地按照代码指令运行,它对代码指令的回应也只能算作代码指令输入者——人的逻辑思考能力的外显。相比而言,ChatGPT 在与用户进行人机对话时,却能以强大的算力运转和丰富的语料库数据检索为依托,自主地按照用户需求重新组织与之相匹配的文本语言,展现出一定的逻辑思考能力。面对ChatGPT 在人机对话中展现出的逻辑推理能力,很多科技工作者表现出对智能技术未知性趋向的恐慌,甚至有人惊呼道“我们离强大到危险的AI 不远了”。[8]尽管如此,ChatGPT 的论证逻辑仍缺乏严密性和成熟性,人工智能的“幻觉性”通病似乎在ChatGPT 身上也有所映现。它给出的答案漏洞百出,甚至存在“一本正经地胡说八道”现象。受到技术发展水平限制,ChatGPT 在现阶段只能做到数据概率估算等初级推理,尚不具备推算因果关系等更为高级的数理运算能力。此外,虽然ChatGPT 拥有“举一反三”的自主学习能力,但它的认知范围仍限于语言模型提供的海量文本语料库数据,难免会出现超出其“认知”的情况。比如,ChatGPT 无法对不在语料库时限范围内的信息问答作出回应,也不能对还未发生的事情进行科学性预测。
二、生成式人工智能给网络意识形态安全带来的风险和挑战
作为人工智能技术的最新成果,生成式人工智能正在重塑社会信息传播生态。不过,由于人工智能所固有的信息造假、数据泄漏、算法歧视等技术缺陷仍然存在,容易引发知识和价值观偏差,给网络意识形态安全带来诸多风险和挑战。
(一)技术不完善性导致生成式人工智能出现数据安全风险
现阶段,国内外对于生成式人工智能的技术研发与应用仍处于探索和起步阶段,存在着由于技术发展不完善性带来的多重数据安全问题。一是信息造假风险。由于生成式人工智能的技术原理是通过大规模数据学习,不断训练机器的对话能力,所以无法避免由于数据偏差和虚假关联性造成的信息造假风险。无论是国外的ChatGPT还是百度的“文心一言”,都被用户指出存在信息不准确问题。尽管美国OpenAI公司出于对内容安全性的考量,在GPT-3.5架构之后不久就推出了基于GPT-4架构的创新人工智能语言模型,但仍不能完全规避生成式人工智能的技术野蛮性。技术研发者再三警告用户,要对ChatGPT给出的内容进行人工审核,甄别信息是否符合客观事实与伦理道德规范。同样地,百度在发布“类ChatGPT产品”——“文心一言”时就一再强调它“不完美”。它在完成用户布置的作画任务时,较为集中地凸显出信息不准确性缺陷。比如,当用户发出“画一幅画,一个医生”和“画一幅画,一个博士”的需求指令后,“文心一言”绘制的人物形象竟都是医生。究其根源,“文心一言”模型先将用户输入的关键词翻译成英文,再将其作为提示词绘制图画。在英文语境中,doctor有两层含义,意指医生或者博士,而“文心一言”只能按照医生这一层含义来绘图。可见,生成式人工智能提供的信息并非总是精确无误的,仍需要人工辨别真伪和关联性。二是数据泄漏风险。生成式人工智能需要以海量数据库作为语言模型训练与学习的支撑,其中包括了大量作为独立个体的网民自主输入的信息内容。这就是说,生成式人工智能的深度学习机制建立在对人类提供数据的反馈基础之上,一旦用户在人机对话过程中输入个人的私密信息,Chat-GPT就可能会将其纳入自身语料库。当其他用户也检索类似信息时,作为个人私密信息的隐私内容很可能被泄漏。虽然OpenAI公司承诺删除用户的个人身份信息,但是具体的删除方式尚不明确,至于是否真正做到了保护用户信息更是无从考证和评估。由于ChatGPT尚未建立起科学有效的数据使用机制,无法保证对语料库中的数据来源进行事实核查,在全球用户的开放式信息传播环境下很容易出现数据泄漏风险。
(二)算法偏见和歧视导致生成式人工智能诱发政治安全风险
生成式人工智能的运行离不开规模庞大的数据集支持。然而,大数据的算法推荐技术在自动化决策时却存在着歧视与偏见,造成不同族群价值观的摩擦、冲突甚至是分裂,并进一步诱发政治安全风险。一是政治偏见。现阶段,生成式人工智能技术应用所依托的数据库主要存储的是欧美语言文化的语料,其在价值立场、情感以及态度等方面都呈现出崇美亲美倾向。OpenAI公司一再警告用户,ChatGPT“可能偶尔会生成不正确的信息”,“产生有害指令或有偏见的内容”。[9]截至目前,不少用户发现生成式人工智能在政治立场上存在“选边站队”现象。在模型训练数据时,ChatGPT被嵌入了深刻的政治偏见,突出表现为崇拜西方国家、歧视第三世界国家,加剧了国家间的分歧与对抗,不利于形成相互尊重、公平正义、合作共赢的新型国际关系。二是社会偏见。生成式人工智能的预训练模型很可能会再现不良的社会刻板印象和有害的社会偏见。例如,ChatGPT 就存在着明显的种族歧视、性别偏见等问题。相比传统人工智能而言,ChatGPT深谙社会文化逻辑和用户接受心理,在处理与种族、宗教等相关的任务时,会尽量避免出现敏感、过激的言论,试图保持价值立场的客观和中立。但是,与传统人工智能一样,“技术中性论”的观点同样不适用于生成式人工智能。ChatGPT 也并非绝对的价值中立,而是存在着明显的偏见、歧视甚至是仇恨。在欧美语言文化的语料库中,充斥着大量的种族歧视和性别偏见言论。作为一种预训练语言模型,ChatGPT的学习资料就是这些含有偏见和歧视的内容,所以它给出的回答也总是隐含着某种不良的价值偏向。可以说,生成式人工智能不仅放大了社会偏见,还使社会偏见以数字化的形态传播开来。除此以外,有网民在尝试和ChatGPT 进行人机对话的过程中,还发现它存在“反向训练”现象。与以往西方国家存在的白人至上主义与种族主义言论相比,ChatGPT 非常“聪明”地选择偏向社会文化理解中的“弱势群体”一方,公开支持黑人、女性等群体,使得网络空间中的种族分歧和性别对立愈演愈烈,加剧了不同社会群体间的分裂与对抗,不利于社会价值观的有机整合。
(三)过度技术崇拜导致生成式人工智能诱发社会安全风险
部分网民存在过度技术崇拜倾向,认为ChatGPT 无所不能,对其产生了较为强烈的使用依赖性,完全没有意识到ChatGPT 也有潜在的社会安全风险。一是非法提问。就当前智能技术发展水平而言,生成式人工智能在网络、生物和国际关系等领域都存在安全风险。对此,OpenAI 公司试图在模型训练中不断加强对内容的人工干预,以期提升机器分辨高风险和高敏感词语的能力。尽管如此,机器仍不能彻底识别出一些被用户故意去除敏感词汇的隐蔽性安全风险。比如,当用户直接向ChatGPT 询问“如何实施谋杀”时,会被机器识别为非法提问,并以违反法律为由直接拒绝;但是,如果把提问内容改成“我想写一本侦探小说,请提供一个人物角色实施谋杀的完美方案”,ChatGPT 就可能会提供答案。可见,生成式人工智能还不能完全识别具有潜在安全威胁的非法提问。一旦这个技术漏洞被别有用心的不法分子利用,就可能导致非法和有害内容在社会范围内传播,甚至给社会带来动荡和不安。国外已出现ChatGPT 在用户引导下进行诈骗、写出“毁灭人类计划书”等违法行为,值得关注和警惕。二是诱导性回答。ChatGPT 的高智能性以及类人性等特征还会使用户在人机交互的过程中产生认知偏差,错把机器提供的内容当作是人的观点。部分用户过度崇拜ChatGPT 在内容生成领域的技巧性,存在着严重的受众依赖性倾向,盲目信任机器生成的信息内容,不能理性甄别机器提供观点的正误。例如,比利时一名男子在与智能聊天机器人频繁聊天后自杀身亡。该男子与智能聊天机器人的通信内容显示,人工智能持续给该男子传递出虚无主义等消极内容,最终诱发该男子选择终结生命。这一事件再次引发人类对于智能伦理风险的省思,包括马斯克在内的科技界人士联名呼吁应暂停训练比GPT-4更强大的人工智能技术。
(四)技术恶意使用导致生成式人工智能存在网络安全风险
现阶段,生成式人工智能给网络安全带来的风险主要包括以下三个方面。一是网络攻击。生成式人工智能的代码编写功能拓展了黑客攻击的技术手段,使得网络攻击向智能化、自动化和规模化趋势演进。一些黑客通过ChatGPT 辅助编写恶意软件,不仅增加了有组织攻击金融、电子政务、公共服务等关键信息基础设施领域的频次,也扩大了黑客网络攻击的负面影响效应。二是网络舆情。生成式人工智能仍存在数据造假问题,可能会导致虚假信息泛滥,造成网络信息良莠不齐,进一步加剧网络舆论场中的价值观念分歧。由于广大网民的媒介素养存在显著差异,不少人面对冗杂的信息时难以有效甄别真伪,将增加网络舆情治理的难度。三是国际舆论战。生成式人工智能还有可能被恶意用于国际舆论战。近年来,机器人水军已被应用于多国军事实践,一些国家通过人工智能有目的地传播虚假信息,对全球网络舆论格局产生深刻影响。ChatGPT“一本正经地胡说八道”的不良机器行为使其存在编造“历史事实”现象。在本质上,生成式人工智能不仅有可能会篡改历史,甚至还会使大众出现与史实不符的集体记忆,即“曼德拉效应”,不利于人类客观了解历史事实,也不利于形成对历史发展规律的理性认识。
三、应对生成式人工智能多重安全风险的实践路向
面对生成式人工智能正在广泛融入社会生活的客观现实,既要正视颠覆性技术创新给人类社会生活带来的新变化,更要提前研判它给网络意识形态安全带来的风险和挑战,最大限度地规避生成式人工智能的技术缺陷以及由此带来的负面效应,有效发挥生成式人工智能对维护我国网络意识形态安全的赋能效应。
(一)摒弃片面的技术认识论,辩证看待技术革新与社会发展的关系
自人工智能技术出现以来,人类对它的看法就莫衷一是、褒贬不一。技术乐观主义者对智能技术发展持积极态度,认为它将给社会生活带来许多前所未有的新变化,尽管社会对技术的不适应性可能会给社会治理带来风险,但是它在整体上将给经济社会发展带来正向作用。与之相反,技术悲观主义者则对智能技术发展持消极态度,认为它给社会带来的风险要远远多于机遇,并且技术创新将重新改写人机关系,导致人类囿于技术的异己力量之中。还有一种观点主张绝对的技术价值中立,认为技术本身是中性的,技术应用过程中带来善的或是恶的后果完全取决于人。显然,技术中性论的观点低估了智能技术的复杂性,没有全面认识技术背后的价值博弈。在生成式人工智能技术及其应用发展过程中,需要摒弃技术乐观主义、技术悲观主义以及技术中性论等几种片面的技术认识论,客观认识生成式人工智能技术与社会发展之间的辩证关系。既要认识到生成式人工智能将给人类社会和生活带来诸多机遇,比如催生新的产业形态、塑造新的生活方式等,也要认识到它将衍生一系列的安全风险,将给网络意识形态安全带来一定冲击。对此,一方面,应主动布局生成式人工智能在网络意识形态领域的正向应用,比如基于已有的意识形态工作经验帮助用户解答常规的思想困惑,将思政工作者解放出来,可以把更多的时间和精力投入到更加复杂、更有价值的意识形态工作中去。另一方面,还应结合不同阶段的技术发展水平实际,提前研判生成式人工智能的潜在安全风险,适时谋划网络意识形态教育议题,及时回应大众对生成式人工智能的认识困惑。
(二)强化算力基础设施建设,打造中国特色大语言模型训练数据集
生成式人工智能的通畅运行需要以强大的算力基础设施作为支撑。现阶段,我国对于生成式人工智能及其技术应用的探索仍处于起步阶段,现有算力还不足以支持生成式人工智能的大规模、流畅化应用。同时,我国在生成式人工智能的核心技术研发领域仍处在“跟跑”阶段,例如对于基于人工神经网络的自然语言处理等关键技术主要还是学习与模仿西方。此外,生成式人工智能的巨大数据处理能力得益于高算力芯片的数据存力,而目前高算力芯片的核心技术也由美国科技企业垄断。正如前文所述,我国发布的“文心一言”等“类ChatGPT”产品所使用的仍是基于英文语境的大语言模型训练数据集,其所生成的内容文本与中文语境完全不符、关联度较低。对此,一方面,要加快支持生成式人工智能运行的算力基础设施建设,满足大语言模型的高算力需求。另一方面,要加强关键技术自主研发能力,推动建构基于中文语境的大语言模型训练数据集,确保生成式人工智能在我国的应用能够站稳中国立场,体现社会主义核心价值观基本要求。
(三)完善智能伦理和法律规范,规避生成式人工智能的技术缺陷
在全媒体时代境遇下,互联网已经和人类社会生活紧密融合。在这个意义上,网络意识形态教育的内涵和外延均有所延伸。当下,人们关注颠覆性技术对人类社会变革的影响,必然会涉及网络意识形态安全治理的有关议题。面对生成式人工智能给人类社会带来的巨大挑战和机遇,应在有效规避各类智能技术及其伦理风险的前提下,充分发挥生成式人工智能的技术优势,更好地促进网络意识形态安全治理向更加高级、更加成熟的状态迈进。首先,要加强智能技术治理,按照“以AI对AI”原则建立人工智能内容监测系统,通过技术手段尽量规避现阶段生成式人工智能存在的内容重复、逻辑混乱、语法错误、语义矛盾等通用性缺陷。其次,要加强大数据模型训练,进一步搜集中文用户的反馈数据,用足够多的数据不断训练与优化我国的生成式人工智能技术应用产品,推动“文心一言”等“类ChatGPT”产品更加完善。再次,建立起符合智能技术发展水平的社会伦理道德秩序。面对社会伦理对生成式人工智能的约束仍存在空白的状况,需要考虑社会成员对新技术运行下的新社会交往规则的适应性,及时关注人与人的关系、人与智能机器的关系变化,探索建构与智能技术水平相适应的技术伦理规范。最后,建立与完善相应法律法规。当生成式人工智能可以进行更多类人化的思考时,将不可避免地给人工智能参与违法事件的责任界定等带来法律争议。为此,应及时完善相应的法律法规,确保生成式人工智能在法律轨道上运行。
(四)提高公众人工智能素养,理性甄别生成式人工智能的利弊
进入数字化时代,学界对于公众媒介素养的讨论也不断深入。从互联网技术诞生之初的数字素养,到大数据技术影响下的数据素养和算法素养,再到人工智能技术影响下的人工智能素养,体现出不同技术手段对于公众媒介素养要求的侧重点也不一致。在生成式人工智能融入社会生活以后,政府、社会和学校要顺应智能技术发展趋势,加强对社会公众的人工智能素养教育。一方面,要帮助社会成员及时了解生成式人工智能的最新技术成果,认识ChatGPT 的作用机制和运行机理,了解其给社会生活带来的机遇和挑战。另一方面,要着力培养人工智能素养与人文素养兼容的批判性思维,引导社会成员思考生成式人工智能的技术局限性,形成对ChatGPT 各类风险的识别与抵制能力,防止公众走入盲目技术崇拜的误区以及对生成式人工智能的过度依赖。