人工智能模拟不出爱因斯坦
2015-05-30刘德寰
刘德寰
人工智能就像一个科学怪人,你可以从技术的角度说它是一个天才,但也可以从人性的角度说它是一个毁灭人性的东西。智能到底能带来什么?
实际上我们已经大规模地开始了信息搜集,但是好在目前基本都是奔着商业去的,还没有把社会学、心理学、生命科学、政治学、法学这些专家的观点都放进去。我自己做过几个大数据的研究,发现每嵌入一个学科的思想时,模型的展现方式是完全不同的。
最可怕的是模拟人性,这不是技术问题,是道德问题。就如克隆出一个人,在技术上没问题,但在道德上有巨大的风险。
现在可看到的最可怕的机器人能模拟女性思维。我们知道任何一个女性都是一个大数据分析终端,可以迅速把几个感知点连在一起做出决策,她的特点是情感导向、多信息、非线性、快速决策,而且有更多的感觉。如果把这些放到机器上,大家可以想象后果是什么。
我有一个非常杞人忧天的考虑:如果我们根据脑科学、生命科学、心理学、社会学、传播学等等这些理论模型,探讨出人类思考的密码,人类估计就会走向毁灭,因为这本身太可怕了。可是,以现在的速度、计算能力和人类自古以来的好奇心,这事还真有可能出来。
有一本书《过度互联》给我很大的启发:过度互联本身会带来过度风险。一旦我们的生活跟这些所有的东西联结在一起,也就是所谓物联网,这个网络就绑架我们的一切,带来整体性安全事件的可能性就会比较大。我们知道纽约大停电造成的影响,也知道日本核电站。论证的时候,谁不说是安全的?所以大家记住,这不是一个人类能够判断的问题。一旦形成这种过度的东西,它带来的风险是非常大的。
过度互联带来的另外一个问题,是让我们丧失与生俱来的能力,我们会被机器裹胁,手的病、胳膊的病……很多病会增加,会带来社会成本的上升。
在过度互联中,实际上出现了一个纯社会性话题,也就是所谓的社会风险。你会发现,现在在舆论场上能独立思考的人越来越少,很多人判断问题都是直线思维,泄憤、侵犯隐私……生活在网络上时间长了,精神上可能会出现问题,因为你看到的都是不好的事儿,最可怕的是谣言的危害,而现在利用谣言来牟利已成为常态。
人类真的无法避免这件事情吗?我觉得,人们在规避它,人不可能线性化地去顺应这个趋势。现在非常常见的一种说法是:“离开设备,让时间静止一会儿。”未来互联到一定程度的时候,会有越来越多多的人想让时间静止一会儿。就像在人类发展过程中出现的都市化和反都市化,是一致的。人类一定会从一些角度去顺应互联时代的一些基本特征,让那些美丽的商业模型和不被“记录”的人性并存。
还有一点,现在中国的数据和世界的数据一样,都号称“全”,实际上都是“孤岛”。腾讯只有腾讯的数据,腾讯会有阿里的数据吗,会有百度的数据吗?所以,任何一个数据都是“孤岛”,你就无法模拟完整的轨迹。数据产业是一个非常尴尬的产业。我做过900万用户、半年的移动互联网的行为,够多了,够大了,但是它是短时间。别忘了,从人性的角度来讲,我们做任何一个判断,实际上是一个长时效果——根据我们自己脑袋里信息的沉积做出判断。而数据的尴尬恰恰使得未来出现的模拟人性的这种机器,可能就是几岁孩子的智商,很难模拟出一个爱因斯坦。
所以,要发挥人工智能的所有能力,让我们的生活更好,就要控制这个科学怪人的心思,如果不控制涉及人性的部分,人类的风险是非常高的。谢谢。