AI,真的要觉醒了吗?
2022-08-03管浩
本刊记者/管浩
AI的人格化仍是人赋予的,并不是所谓的“自我意识”。
近日,关于“谷歌研究员称人工智能(AI)已具备人格”的话题引发了大家对人工智能行业热议。
事情起因是一名谷歌的工程师声称,他正在研究的计算机聊天机器人已经变得有知觉,并且能像人类一样思考和推理。在其公开的聊天记录中,LaMDA竟然说出了“我希望每个人都明白,我是一个人”的言论,这引发了人工智能领域的热烈讨论。
针对LaMDA是否真正具有意识的疑问,业界给出的结论是:这只是这名程序员的个人观点,不代表业界看法。同时,谷歌也对这名程序员作出了“行政带薪放假”的决定。
人工智能真的“活”了吗?
在去年I/O开发者大会上,谷歌发布了聊天机器人LaMDA的突破性对话技术,称这款机器人LaMDA接受过大量对话的培训,可以自由地和人类进行对话,内容不受限制,话题没有穷尽,并且可以在开放式的对话中区分细微的差别,在互动中鼓励展开多轮对话。
因此,像LaMDA等这样的人工智能系统之所以具备如此强大的功能,其背后离不开预训练大模型技术的赋能。
初始阶段,人工智能的模型都是小模型,训练需要从0开始,但后面的任务可以直接利用前面任务训练好的模型和数据作为基础。随着预训练大模型技术的不断丰富,隐藏于人工智能系统背后的模型,无论参数量还是体系结构也越来越复杂和庞大,甚至已经超过了人脑神经元的数量。
但许多基于人类大脑的逻辑判断,包含了道德和情感的成分,而非简单的直接判断。并且,无论是深度学习还是卷积神经网络,这些AI基础性算法的核心本质,仍然是在模拟人类大脑的决策过程。
同时,专家也认为,对已经公开的文本和模式识别的模仿以及再创造,使LaMDA更加逼真,但不是所谓的“自我意识”。
该不该担心AI“人格化”?
目前人们所感受到的AI的“自我意识”,其实更多的还是人赋予AI的,而不是AI自己所特有的。谷歌的“插曲”至少能说明LaMDA的对话能力确实越来越强、越来越“人格化”了,但不能说明它就已经具有意识。
聊天机器人最初的设计是为人类服务的,为用户提供对话式服务。随着技术的发展,机器人变得“越来越会聊天”,它开始像一个人在思考,而且有一定的思考深度和高度,但也正是由于这种“思考”,让人类开始对他们感到担心,担心未来有一天AI会不会做出伤害人了的事情。
问题的出现和技术的发展总是相伴而生的。人类可以通过数据训练出各种貌似有“人格”的聊天机器人,也是技术越来越强大的表现,而只要现实世界中有AI的技术进步,人们就将继续探索关于机器人的道德难题及其对人类的影响。
事实上,人工智能一直是在这样一种纠结的状态下向前发展,我们只有不断地在前进道路上进行摸索,在法律与技术等层面进行规范,才可能得出人工智能对于人类最合理的一种存在方式。