机器如何“假装人类”
2014-05-14《壹读》编辑部
《壹读》编辑部
在奥地利,有个家用机器人“自杀”了。据报道,这位型号为“Roomba 760”的机器保洁小妹受够了家庭琐事,于是选择独自在家的时候将放在电炉上的锅推开,自己蹲坐在电炉上悍然自焚……
显然,这位机器小妹并非真的患上了忧郁症,但一个老话题又由此被重新提及:机器真的能像人类一样思考吗?
早在1950年,就有人试图回答这个问题。一位名叫图灵的英国数学家断言,在21世纪之前,就会有能像人一样思考的计算机诞生。图灵认为,如何让各种机械零件产生思想并不重要,重要的是,计算机能通过“图灵测试”。
所谓的“图灵测试”,就是让一个人去询问两个他不能看见的对象任意一堆问题。而这两个对象分别是一个人和一台计算机。如果经过若干询问以后,询问者不能分辨出人和机器,那么这台计算机就算通过了图灵测试,成为一台能思考的机器了。
举个简单的例子,比如连续三次询问对方是否会下象棋,机器会老老实实地回答三次“是的”;但如果是人类或者是能进行“思考”的机器,可能会在第二次就反问你为什么要重复提问,并在第三次表示不耐烦。
要实现这样的“思考”并不困难,只要输入足够多的数据,保证在任何一种情境下,机器都能迅速在数据库里找出相应的应对方法,模拟人类反应。这和能够战胜象棋世界冠军的计算机“深蓝”的运行原理是一样的——“深蓝”并没有比人类更聪明,只是它记住了“所有”情况。
30年后,有一位名叫希尔勒的美国科学家对此提出了反驳。为了证明机器无法有智能,希尔勒设计了一个精彩的思想试验——“中文屋”。希尔勒设想:一个对中文一窍不通的人,被关进一间密闭的屋子,屋子里有足够多的中文卡片,还有一本用英文写的卡片使用规则。别人从门缝里塞进写着中文问题的纸条,而应试者则根据规则抽出相应的中文卡片,递出回答。屋外提问的中国人,看到屋子里递出来的卡片对答如流,会以为屋中人精通中文。
希尔勒认为,“中文屋”就是一台电脑,尽管这台计算机根据“使用规则”能对答如流,也不能表示它理解谈话的内容。因此,输入了大量数据从而实现模拟人类谈话的计算机,不能算是在思考。
“中文屋”试验也开启了另一条道路:为机器建立一个“假装人类”的数据库不再可行,现在科学家们正在试图搭建一个模拟神经元的网络系统,教会机器在海量数据中自己学习的本领。最新的进展是:Google X实验室的机器人,在大量数据的支持下辨认并自行建立了“猫”这一概念。