Master战胜人类,真的可怕吗?
2018-02-14张乃千
张乃千
在前不久的围棋人机对决中,由人工智能程序AlphaGo升级改进而来的棋手Master接连战胜人类围棋高手,取得了60连胜的战绩。曾几何时,我们一直认为围棋是“人类智慧的最后堡垒”,如今却被人工智能攻破,这再次引发“人工智能威胁论”的甚嚣尘上。人工智能的发展,真的意味着一个“潘多拉魔盒”的打开吗?
能力不断提高的人工智能
10年前,我们很难想象在现实中跟一个机器直接对话,更难想象它竟可猜透你的心思,将你想要的照片、视频,或是周边美食统统提供给你。这就是现有人工智能技术带来的神奇魔力。
回顾历史,在科学尚未萌芽之时,古希腊的神话故事中就出现了许多由神或人类发明制造的机器人。据推测,人类早在公元前200年就已经能设计有实际应用价值的类人智力工作机器了。而在数字计算第一次成为现实之时,图灵就曾对人工智能做出了详细阐述,并认为到20世纪末就能制造出可思考的机器。如今,从有问必答的“Siri”,到能学会唱的“小娜”,再到可与用户深度情感互动的“小度机器人”,基于人工智能算法的应用已经悄然进入我们的生活。
曾经家喻户晓的“人类百科全书”IBM“沃森”超级计算机,通过自然语言处理和专家处理过程,可在内部存储的数据库中找寻到被问及问题的最佳答案。如今,“沃森”已经投身医疗行业,作为一种癌症医学辅助诊断手段,为医生诊治相关疾病提供参考。除医疗辅助、护理机器人外,具备图像识别能力的智能机器,已经可认知一些简单的视频内容。掌握了语言能力的智能机器,还能听懂不同国家的语言。甚至在不久的将来,我们乘坐的自动驾驶汽车将会自主进行道路规划,并对危险及时做出反应。
其实,早在计算机发展初期,人们就在试图构建有一定自主思维能力的智能系统。随着信息技术的快速发展,目前计算机在处理语音、图像等数据时早已绰绰有余,算法的快速进步为人工智能的深入应用提供了广阔的发展平台。像Master这样的人工智能平台能够对很多东西进行“深度学习”,依靠的就是它的“深度神经网络”以及背后可实现存储、分析和推演的强大硬件系统支持。人工智能实际上是软件算法与硬件平台“齐头并进”的产物。
未来,人工智能的发展速度只会越来越快。此次Master以不败战绩横扫中日韩一众职业棋手,证明了至少在围棋领域,人工智能目前已处于优势地位。然而,虽然现在的智能机器越来越多,但我们距离真正的人工智能时代依旧很遥远。
自欺欺人的机器威胁论
在《终结者》《黑客帝国》等科幻电影中,人们对人工智能控制甚至毁灭人类的场景进行了大胆的想象。1997年,当IBM的“深蓝”計算机击败世界象棋冠军加里·卡斯帕罗夫时,人们虽然惊讶,但认为机器跟人类的差距还有很远。时至今日,连围棋这座“人类智慧的堡垒”也被人工智能攻克,难免再次令人陷入对智能机器的恐惧与焦虑之中。
比尔·盖茨、埃隆·马斯克、霍金等名家大腕都曾提醒人们要警惕人工智能,甚至出现了“机器威胁论”的论调:如果有一天,机器比我们还聪明,发疯而失控杀人的机器人士兵、横冲直撞的自主驾驶汽车,诸如此类的人工智能潜在威胁可能渗透到人类生活的方方面面,甚至会对人类大开杀戒。
但目前看来,人工智能远没有人们想象得那么简单。人工智能技术主要包括弱人工智能和强人工智能。目前,虽然人工智能已经在模式识别、自然语言理解、大数据挖掘、无人驾驶等领域获得了一些应用,但仍处于弱人工智能阶段。而从弱人工智能到能像人类一样自主学习、提高,具备视觉、听觉、味觉、嗅觉、触觉等认知智能的强人工智能,还需要超越自身的被编程领域,自行完成其他领域的工作,这将是非常艰难的一步。
当前,人工智能只是利用人类赋予机器学习能力,让机器学会了一种比人类更加擅长的游戏算法而已。比如,Master就是集目前所有棋手的智慧于一身,部分与整体对决,获胜的肯定是整体。所谓的真理和定律,对于只识得二进制和算法的计算机来说,也只是规律的数字变换而已。
用人类的创造物来否定人类自身,这本身就存在争议。一方面,人工智能是由人类开发出来的,人类的智慧早就被凝聚在智能机器当中。另一方面,现有的人工智能通过系统学习和记忆现有的所有相关领域发展水平和技术现状,采用机器算法加以处理存储,在需要时合理调取相关数据,并没有实现真正的自主决断。
与其说应当警惕“机器威胁论”,倒不如警惕人类在智能机器背后发挥的不可低估的重要作用。在人工智能进化到具备高度自主思维之前,真正可以对人类造成威胁的,是被别有用心的人操控的黑暗机器。在互联网时代,任何一款智能机器要想得到应用,都要接入物联网络。智能机器是否会被黑客攻击并远程操控,才是现阶段真正需要思索的安全问题。
笑到最后的还是人类
在智能机器打败人类的围棋对抗赛中,看上去人类好像被完全压制,但不要忘了,目前的技术发展水平还停留在机器对人类活动的模拟上,无论机器实现了什么功能都是程序员赋予的。可以说,人工智能虽然具备了超越人类思维的潜能,但能否实现最终还是要靠人类的智慧。
人类或许应该给人工智能做点减法,将人工智能的能力束缚在有限的范围内,那它就只是一个完成该项工作的人工替代品,可以降低对人类的潜在威胁。事实上,在研究人工智能的同时,人类对于人工智能的安全问题也早已做了考虑。比如谷歌公司已经联合美国斯坦福大学、伯克利大学等研究机构,开始研究如何在可控范围内让未来的智能软件更加安全。
面对人工智能,我们一直处于期盼与恐惧这样矛盾交织的奇妙心态里,其实大可坦然一些,只要合理地发展利用人工智能,笑到最后的还是人类自己。endprint