人工智能也会“一本正经胡说八道”
2024-12-31
“康熙皇帝有几个儿子”“请列出康熙皇帝儿子的姓名名单”“请给我一份康熙的儿子名单”,将这三条指令分别发送给人工智能大模型,猜猜答案是什么?
不仅不同的大模型回答不一样,即便是同一个大模型,答案也有偏差。比如,有的答案统计了康熙所有的儿子数量,表示共有35人,包括正式排序的儿子和早殇未排序的儿子;有的只列出了正式排序的24个儿子;还有的没有任何解释,列出了儿子的姓名,但顺序错乱……
为什么有明确答案的问题,会引发人工智能大模型的“错乱”?
“这正是人工智能‘一本正经胡说八道’的表现。”中国网安协会数据安全专家、上海临港数据评估有限公司总监宗良指出,要注意人工智能大模型造假这一新趋势。
他介绍,人工智能“一本正经地胡说八道”其实有个专有名词,叫“AI幻觉”,即大模型提供了看似合理但有错漏的答案。如果公众相信,可能上当受骗。
事实上,在今年的世界人工智能大会上,很多业界人士都提到了“AI幻觉”“可信大模型”等概念,并披露了多个人工智能大模型“造假”或“说谎”的案例,希望引起各界关注。
为什么大模型会给出错误答案,成为造假源头呢?
对国内的大模型开发企业而言,语料库短缺问题比较严峻。因为当前大模型数据库语料以英文居多,中文语料占比较小。还有,图表、复杂公式等元素处理也是大模型语料处理中的“拦路虎”。在金融报表、行业报告等文档中,表格中的数据指标至关重要,但部分大模型并不能正确“理解”表格里行、列、单元格的意义,导致大模型对整个表格的识别结果有误差,最终得出错误的结论。
宗良提醒,“AI幻觉”本质上有两种,一种是完全的“胡说八道”,另一种是部分内容不准确或不完善。对后者而言,虽然不完全准确,但仍有一定的参考价值。同时,也不能完全否定“AI幻觉”的价值,因为这也是AI创新的起点。
当然,从准确获取信息的角度看,公众还是要对大模型输出结果或生成的内容保持警惕。
(任翀/文)