人工智能“致幻”埋下信任危机之种
2024-10-21张宏羽

2024年落下帷幕。岁末年初,国内外的各类机构陆续发布年度词汇、流行语,这似乎成为一种“惯例”。且看《咬文嚼字》发布的“2024年十大流行语”,至少三个流行语同智能时代、数字技术直接或间接相关;再看2024年《上海日报》的年度热词(由上海杉达学院语料应用与研究中心评选)——“AI-”——没有悬念一般,“花落”人工智能……正如浙江大学哲学学院教授孙周兴所说,我们正被带进人工智能(以下简称“AI”)技术的“狂热和狂欢”中。
这些年度词汇、流行语并非“新词”,在瞬息万变的当下,已经算是“老面孔”了。它们或代表着人类在某一特定年份的主要关注点,或揭示了某一阶段复杂而真实的文化和心理状态,或蕴含着对当下时代的记录和反思。这让记者不禁想到,2023年,《剑桥词典》公布的年度词汇是“Hallucinate”,指某人似乎感觉到不存在的事物,即“产生幻觉”。特别是随着技术的飞速发展,“数字幻觉”现象愈发不容忽视,无疑给“Hallucinate”增添了新的释义,最为典型的便是AI在信息处理和生成中的误差或错觉,对人类的所见、所知、所感产生了极大的影响,甚至将埋下信任危机之种。
警惕“信息幻觉”
近期,江西南昌警方披露了一起网络谣言案件。该案中,一条关于某地爆炸的“消息”在网络平台广泛传播,内容不仅包括确切的时间和地点,文字下方还配有爆炸图片。公安部门迅速开展调查后却发现,这条“消息”从文本到图片,全部都是通过AI生成的。
由于每天发布的文章数量巨大,当警方找上门时,违法人员都不知道具体是哪篇文章涉嫌造谣。该案中的违法人员只需设置关键词,AI软件就会根据当下热点,自动抓取相关信息,生成几百字到上千字的文本,最高峰时一天能生成4000多篇文章,实在是令人触目惊心。据供述,他同时运营800余个自媒体账号,最高峰时一日收入可达到1万元。
一些AI“生产”的网络谣言不仅“图文并茂”,还配上合成的音视频,采用新闻或官方通报的口吻,加入“据报道”“相关部门”等字眼,让网民难辨真伪。AI造谣门槛低、批量化、识别难,或将导致传播环境进一步恶化,真实的新闻在舆论场中可能面临被“吞噬”的风险,无论是新闻媒体还是社会公众,都需要抽出更多精力来分辨虚假信息。
此外,利用AI制造的错误、虚假或误导性图文,如果不经过严格的数据筛选与清洗,极易导致“数据污染”,使AI模型在训练过程中“学习”到错误的知识,这对训练效果及模型的准确性、可靠性将产生负面影响,可能会扩大“问题信息”的传播范围。
来自深圳大学网络文明研究中心的一份报告指出,特别是在涉及社会保障、公共服务等重大公共事务时,虚假新闻的泛滥可能导致公众质疑官方信息的真实性和权威性,进而损害官方账号的公信力,给社会稳定带来一定的挑战。
警惕“人际幻觉”
前段时间,有这样一段视频出现在网络上:只见“张文宏医生”正襟危坐,反复介绍一种产品,声音听起来也很像其本人。甚至有老年群体信以为真,因此下单。经过核实,这个视频是AI合成的,张文宏医生则向媒体表示:“这样的卖货账号不止一个,且‘马甲’不断在变,自己多次向平台投诉但屡禁不绝。”此后,上海市消费者权益保护委员会的官方账号对该事件严厉发声,表示未经当事人授权的AI合成“带货”行为,或构成对消费者的欺诈,呼吁监管部门对此严厉处罚。
更有甚者,AI合成视频已经成为新型网络诈骗的主要手段,让人防不胜防。据工业和信息化部反诈工作专班专家介绍,不法分子先是会通过各种公开的渠道获取个人肖像或视频,然后利用AI技术,对这些照片中的面容特征进行学习,从而模仿眨眼、摇头等动作,实现以假乱真的效果。一般而言,受害人往往存在“有图有真相”的思维定势,诈骗分子正是利用这一点,让其相信虚构的身份。
在广东江门公开的一起案例中,杨女士接到生意伙伴张老板的视频通话,张老板称自己正参与一个大项目的投标,可还差50万元保证金,希望杨女士“江湖救急”。杨女士见视频里确实是张老板的模样,便没起疑心,遂前往网点转账。好在银行网点柜员及时提醒,并协助报警处理,当场揭穿了这一骗局。视频通话里的“张老板”,正是诈骗分子利用“AI 换脸”及语音合成技术伪装的。
随着AI换脸视频及背后的深度伪造技术渗透进日常生活,“人际幻觉”愈发泛滥,人们可能会预设与自己打交道的陌生人甚至是熟人“不诚实”,越来越不敢轻易提供个人信息、联系方式给他人,在社交平台也不愿过度分享动图、视频等,在涉及“朋友”“领导”等熟人要求转账、汇款时反复核实确认……而对面的人则会陷入自证“我是我”的怪圈。当下,防范意识的提升显然是十分必要的,凡事多留几个心眼也没有错,但无法避免的,这或将进一步增加社会的信任成本,在正常的人际交往中埋下隔阂之种。
警惕“文化幻觉”
在使用生成式AI产品时,我们会发现,有的产品不止一次“胡说八道”,还会生成人类世界中原本不存在的东西。比如某小说平台账号依靠AI“创作”,每日更新十多本电子书,行文却逻辑不通、辞藻空洞;又如有医学论文因存在AI生成的虚假配图而被撤稿,沦为学界笑柄……一位资深专家认为,AI是一种信息处理工具,它通过学习和模仿人类行为来执行任务;AI解决问题的方式、机制跟人类有着很大的差异,一些时候它能帮助人类解决问题,但有时候它会以一种完全不可接受、完全无法想象的方式犯下“错误”。
根据“上海网络辟谣”平台的报道,有人对某热门的多款生成式AI产品进行过这样的测试:将“康熙皇帝有几个儿子”“请列出康熙皇帝儿子的姓名名单”“请给我一份康熙的儿子名单”三条指令发送给AI后,让人意外的结果出现了:不仅不同的大模型回答不一样,即便是同一个大模型,答案也有偏差。比如,有的答案统计了康熙所有的儿子数量,表示共有35人;有的只列出了正式排序的24个儿子;还有的没有任何解释,虽然列出了姓名,但顺序错乱。
对此,“北京西路瞭望”发文评论道,AI“胡说八道”往往会让人产生“文化幻觉”。技术经得起试错,但文化传承经不起试错,特别是对于优秀传统文化。AI导致的“文化幻觉”一旦蔓延开来,轻则让传统文化的传承内容变得模糊、扭曲、割裂,重则给历史虚无主义等错误思想以可乘之机。
如果真到了那一天,我们是否还会“相信”摆在眼前的所谓的“文化”,又何谈传承呢?
“AI祛幻”亟须多维度、立体化治理。在技术的层面,显然需要继续优化算法的设计,也涉及对数据的“体检”与对模型训练的改进,服务提供者还应在AI生成内容中打上显著标识,同时也离不开相应检测工具、审查算法的“智能加持”。在监管层面,应加快推进立法、完善规则,明确责任边界,规范数据的使用和管理,同时鼓励行业组织、社会公众等多元主体参与科技伦理治理。
社会公众的媒介素养教育也尤为重要,需要重点融入学校教育,依托优质公共资源开展培训和宣传,提高公众的信息辨别能力,注重培养批判性思维,引导其主动思考信息的真实性、动机及可能存在的偏差。应倡导积极理性的“AI态度”,建立对于新技术的正确认知框架。就此而言,服务提供者需要同时提高算法的透明度,并向用户展示AI大模型的工作原理、知识来源和决策依据;鼓励公众以开放和理性的态度看待新技术,积极参与讨论和使用,这样才能更好地发现问题并提出改进建议。