“人工智能教父”:我为何离开谷歌
2023-08-08本·拉扎勒斯
本·拉扎勒斯
就在我见到杰弗里·欣顿的十分钟前,《纽约时报》宣布了他即将离开谷歌的消息。深耕人工智能几十年后,如今的欣顿认为人工智能可能会消灭人类。他在伦敦北部的家中说:“就好像外星人早已降落到我们的星球上,我们却浑然不知,因为它们也说着一口地道的英语。”欣顿还告诉我,他已经好几个月睡不着觉了。
| 对待人工智能的态度大变 |
年近76岁的欣顿在人工智能领域引发过两次革命性巨变:第一次是依靠他研究的神经网络,即一种与人类大脑构造非常相似的计算机功能结构;第二次是凭借深度学习技术,让人工智能得以从海量数据中提炼并提取模式与概念。20世纪70年代和80年代,虽然业内基本已经放弃神经网络,但欣顿依旧坚持不懈地研究。1986年,他设计出第一个聊天机器人程序,当时称作“语言预测模型”。2012年,他又研发出一种基于深度学习的人工智能,这便是“聊天生成预训练转换器”的智能基础。
欣顿来自一个诞生过多位数学家和科学家的家族。他曾祖父乔治·布尔构想出的布尔代数为整个数字时代奠定了基础。他过去也曾对人工智能心怀不安,但只是担心应用受限,并未质疑其基本原理。他厌恶自主武器的研发,后来因为美国国务院资助人工智能项目而辞去了美国的工作。他还一直苦恼人工智能拥有炮制大量假新闻的能力。“我以前总是不够重视人类面临的生存威胁,忽视了人工智能存在消灭人类的风险。”欣顿说,“现在我认为非常有可能出现这种局面。”
那么,欣顿究竟为何态度大变?“谷歌有一个名叫‘通路的大型语言模型,可以解释一个笑话的笑点在哪儿。这个模型让我大为震惊。我得出一个结论——这可能是一种更高级的智能表现形式。若事实果真如此,那这个模型将取代我们。”
人工智能消灭几十亿人的可能性有多大?“所有这一切都是未知的领域……我不想给出确切的数字。”欣顿边说边从厨房餐桌前站起身,走向烤箱。我赶紧表示希望得到具体的数字。于是,他回答道:“那就让我粗略地总结一下法国哲学家布莱兹·帕斯卡说过的话吧。如果你有两个选择(比如,人工智能杀或不杀人类),而你对正在发生的事所知甚少,那你就应该说可能性为50%。”
人工智能领域的下一座里程碑将是通用人工智能,其能力至少与人类思想家相当。“我们即将研发出比我们自己还聪明的东西,这种情况在人类历史上还是第一次出现。”欣顿说,“尽管人工智能依旧需要消耗大量能源,但目前其智能水平已可媲美人类。就算尚不能匹敌,差距也在逐渐缩小。许多人认为人工智能很快就会变得比人类更聪明。用不了100年,也用不了50年——或许只需20年,甚至只需5年。一旦數字智能取代生物智能,我们或许就要迈入进化的新阶段。我们大概会成为历史。”
欣顿曾于2018年获得有“计算机界诺贝尔奖”之称的图灵奖。他让我举出“高水平智能受低水平智能支配的例子”。我尴尬地“嗯”了几声后,他打破了僵局。“新冠疫情或许可以算一个。病毒没有多聪明,不会决定接下来应该发生什么——病毒只是不管不顾地要毁掉我们。”欣顿说,“还有一个例子,那就是母亲和婴儿。不过,母亲是出于对孩子健康的关心,所以才禁不住孩子哭泣。就智能而言,母亲和婴儿之间不会有那么大的差异,婴儿的智能也不会发育到远在我们之上的水平。”
| 人工智能领域掀起激烈竞争 |
为在人工智能领域争得领军地位,几大科技巨头可谓拼得轰轰烈烈。欣顿称:“不难想象,恶果已经酿成,一发不可收拾。”
然而,欣顿为谷歌百般辩解(2012年,他以4400万美元的成交价将自己的公司卖给谷歌,后又在多伦多成立谷歌人工智能研究实验室),却指责微软挑起市场战争。“谷歌在人工智能领域已领先多年。尽管早就研发出聊天机器人程序,但是出于责任,谷歌一直没有对外发布。只有身为行业领导者才能做到这一点。微软为“开放人工智能”研究中心提供资助,用于研发聊天生成预训练转换器所需的计算技术。一旦这家研究中心将其研发的转换器交给微软,那么谷歌别无选择,只得发布自己的聊天机器人程序。”
“开放人工智能”研究中心的首席科学家伊利亚·萨茨基韦尔曾是欣顿的学生。“我经常和他聊天。”欣顿说,“他非常担心,但他认为,即使研究中心停止研究也解决不了问题。”
鉴于各大国之间的激烈竞争,对于是否能采取什么制动措施,欣顿持悲观态度。“我认为,根本不可能停下来。技术竞争会一直持续下去。”
欣顿是否对自己的毕生事业感到后悔?“我其实不怎么后悔。标准的说辞就是,即使我不做,别人也会做。”欣顿说,“而且直到最近,人工智能的好处似乎依旧非常明显。它的风险好像远在天边,虚实难辨。继续研究人工智能或许会是个不幸的决定,但在当年,这可是明智之举。”
| 人类大脑与人工智能的差距 |
欣顿的态度之所以发生了180度的转变,根本原因在于他担心人类大脑不像数字智能那样出色。他说:“人们以前总认为,人脑最智能,我们一直制造的东西不过是人脑的拙劣仿制品。我研究了50年人工智能,其中49年里我都认为人脑更智能。”
欣顿解释称,人脑的运行功率非常低,大约30瓦,但却拥有百万亿计的神经元连接。这意味着,向他人学习“是一件缓慢又痛苦的事情”。
数字智能需要消耗更多能源,但能在整个网络实现信息共享。欣顿说:“如果我们精密搭建,就能拥有成千上万个智能体。一个智能体学到的东西,其他所有智能体立刻掌握……它们可以处理比我们多得多的数据,还能发现我们永远发现不了的各种事情。”
“可以想象一下,如果你身患罕见病,前去就医。要是医生以前见过这种病例,哪怕只见过一例,那么你也是幸运的。接着再想想,如果这位医生接诊过1亿个患者,其中好几十个与你患有同种罕见病。”正如欣顿所说,将人工智能应用于医疗等领域,的确能收获“了不起”的短期效益。“只要是人类应用智能的领域,人工智能都帮得上忙,”欣顿笑着补充道,“尤其是稍显欠缺敏锐洞察力的领域,比如法律行业。”
欣顿究竟认为数字智能会给人类造成怎样的伤害呢?他说:“设想一下,人工智能不仅可以回答问题,还有能力在这个世界上执行各种动作。其中一个小小的动作是上网查阅信息,而聊天机器人最初是没有这种能力的。再想想,你有一个家用机器人,你告诉它做什么,它就会做什么。但是,这个家用机器人将来会变得比你聪明得多。你敢保证它会继续照你说的做吗?没有人知道答案。我们有点像巫师的学徒,控制不住自己造成的混乱局面。”
| 人工智能的进化潜力 |
欣顿的一大担忧是:人工智能在不断进化的过程中能学会创建子目标,以便更高效地实现主目标。然而,创建出来的子目标不一定与人类的目标一致,我们将因此受到人工智能摆布。
“想想看,儿童餐椅里坐着个婴儿,妈妈给了他一把勺子让他自己吃饭。接下来,这个婴儿做的第一件事是什么呢?他把勺子扔到地上,然后他妈妈把勺子捡了起来。他看了看妈妈,又把勺子扔到地上。”欣顿说,“这个婴儿在试着控制自己的妈妈,其行为背后有个充分的理由——你拥有的控制力越强,就越容易实现自己的其他目标。所以通常说,拥有权力是好事,因为权力能让你实现其他目标……人类未来必然会赋予人工智能创建子目标的能力,因为这样运行起来更高效。一旦拥有能力,人工智能立刻会创建的子目标之一便是获取更多权力,因为这样做任何事都会更容易。”
即使人工智能可以操纵我们为提高效率创建子目标,它就一定想获取更大的权力吗?欣顿表示,这就轮到进化论发挥作用了。他说:“进化的一个基本原理是,同一物种的两个品种中,能产下更多可存活后代的品种胜出。胜出的品种最终会取代另一个品种。这个过程在奥密克戎之类的病毒身上发展得十分迅速。传染能力更强的病毒获胜。这个基本原理适用于所有物种。进化就是这么一回事。能产下更多可存活后代的品种获胜。”
欣顿说:“现在假设有很多种不同的通用人工智能,谁将胜出?能复制出更多‘自我的便是赢家。我担心,如果哪天通用人工智能产生了应该复制出很多个‘自我的想法,那么最擅长自我复制的那种通用人工智能就会消灭其他的。目前尚不清楚友好地对待人类是否有助于它们复制出更多‘自我。我不明白为什么我们不能与通用人工智能一起进化。”
对我们来说更糟糕的是,人工智能死不了。欣顿说:“就算系統中的一台数字计算机坏了也没关系,系统存储的信息并没有丢失。同理,只要你把信息保存在某个存储介质里,那么一旦找到另一台数字计算机,信息便‘死而复生了。”
那么,面对狡猾的人工智能,拔掉插头或切断电源也阻止不了它们吗?欣顿对我笑了笑,然后套用《2001太空漫游》里超级电脑“哈尔”的话说:“对不起,戴维。我无法回答这个问题。”
[编译自英国《旁观者》]
编辑:马果娜