APP下载

尤瓦尔?赫拉利未来,人工智能所做的决定,人类将不知道它为什么这么做

2017-09-01尤瓦尔赫拉利徐筱玮

创业邦 2017年8期
关键词:赫拉瓦尔意识

尤瓦尔?赫拉利++徐筱玮

真正的问题不是电脑与人的矛盾,更多的是人与人之间的矛盾。

2012年,36岁的尤瓦尔·赫拉利从没想过,他写的书日后会被翻译成近30种文字,不仅为全球学术界所瞩目,更引起了大众对过去和未来的兴趣。

《未来简史》作者尤瓦尔·赫拉利

这位来自以色列的历史学怪才分别在2014年、2017年在中国出版了《人类简史》《未来简史》两本著作。他为不同国家的不同译本量身定制了各自的内容:“核心思想是一样的,但针对不同国家的读者,我会用一些不同的例子。针对伦敦的读者,我就会说一些跟英国地理和历史相关的事情。在提到历史上强势的女性角色时,英国版的例子是伊丽莎白一世,中国版本里我写的是慈禧太后。”

在这个月举行的“未来已来”全球人工智能高峰论坛上,创业邦(微信搜索:ichuangyebang)联合中央电视台英语频道(CGTN)对尤瓦尔·赫拉利进行了专访,与他共同探讨人工智能在未来对就业的影响、人类将如何与人工智能共存等话题。

创业邦:如您所说,放眼未来的就业市场,许多工作将被人工智能所取代,具体是哪些工作?

尤瓦尔·赫拉利:那恐怕我得告诉你一个坏消息了,因为没有人知道未来的就业市场会是什么样子,或者是我们的孩子未来在学校应该学什么。但我相信,今天的很多工作到40年、50年之后,肯定会被取代,他们需要重新改变自己,并且在有生之年不断地学习。我们未来要教给我们的孩子的一些内容,就是要让他们有一个心理的灵活度,一个平衡度,去不断适应世界的改变,适应生活。

因为对于未来世界,最大的不变就是“变化”。

我认为大部分单一且重复的工作最容易被取代,这跟金钱、产业都没有关系。比如医生这个职业,他的工作是单一的,这个工作并不难模拟,人工智能很快就会比人类医生表现得更好。

有些人说我们还是需要人类医生的,因为人类医生有情感,可以非常好地识别出病人的情感、喜怒哀乐,并且很好地照顾病人的情绪。这是世界上任何一个好医生都应该做的事情。照顾病人的情感,这是完全正确的。

对待一个病人,就是要对待病人的情绪,不仅仅是他的身体情况,还有心理情况。但就算是诊断心理上的疾病,人工智能也可能比人类医生做得更好。因为情感到最后其实也是一个生物的模式。人类的医生要如何去识别一个病人的情绪状态?基本上他们会分析一些信息,病人的细微的表情和行为。

不幸的是,现在的人工智能也可以识别出一个人愤怒的语调,或者一个快乐的语调,这叫做模式识别。在未来的语音识别、脸部识别上,人工智能会比人类医生做得更好,可以更好地监视病人外部的一些表征,如表情、动作等。人工智能可以比人类医生做更多甚至人类医生从来没做过的事情,也就是说它们可以实时监控人类身体内部的一些情况,如血压、心率等。如果把人工智能和生物医学治疗传感器连接在一起,人工智能会比人类更强大,甚至在情感上更胜一筹,可以更好地回应人类情绪上的一些反应。

但有一件事,人工智能是不能够和人类媲美的,这件事在不久的将来也将保持这样一个状态,那就是我们的意识。

创业邦:如果说人工智能可以感受到人类的情绪,基本上就可以说它们已经拥有了人的意识,但是您却认为人工智能是没有意识的?

尤瓦尔·赫拉利:人工智能和人类的意识,是有区别的。意识,在另一个层面来说是感知外部世界的能力,感受到快乐,感受到愤怒,感受到爱情,等等。人类或者其他哺乳动物,所有的哺乳动物都是通过情感、意识、感受来解决问题的,是使用智能和意识的综合体来解决问题。

我们看到这两个词会感到很困惑,事实上,人工智能没有意识,它们只是不断地发展智能。它们在意识上的发展是零。人工智能在很多方面都会比人类好,比如说解决问题方面,但是某些人类可以解决的问题它们却解决不了,也就是人类使用意识和情感感受来解决的问题是人工智能无法处理的。

我认为大家对于这两个词有很大的误解,这是因为受到了很多科幻小说的影响。我个人也非常喜欢科幻小说,但我认为有些科幻小说会给大家造成很大的误解,使大家错误地理解什么是智能,什么是意识,因为科幻小说把一些事情颠覆了,讲得完全颠倒了!

在很多科幻小说中都讲到了机器人、计算机、人工智能,如果说计算机和人工智能得到了一些非常复杂的意识能力,基本上也就可以拥有智能和意识。它有了感觉,它有了情感。要么就是科学家和机器人坠入爱河,要么是机器人变得非常愤怒,想要毁灭人类,这是95%的科幻小说的情节。

它们对于人工智能的理解是错误的,因为到2017年为止,我们没有理由认为人工智能会发展出意识,或者说人工智能需要发展出意识来超过人类。人工智能会不断地演进,不断地发展,往超级智能体的方向发展,但是是通过不同的方式,就如哺乳动物也在不断地进化,逐渐变成越来越智能的哺乳动物。

创业邦:人工智能采用了截然不同的路径,达到了和人类及其他哺乳动物一样的结果?

尤瓦尔·赫拉利:哺乳动物的进化是非常漫长的,他们需要几百年、几百万年。而电脑、计算机,它们走了一个捷径,在短短数十年间采用了与哺乳动物截然不同的方式——以无意识的方式发展出了极高的智能。到2017年为止,我们现在看到的人工智能的发展,也就是计算机智能的发展和零意识的发展。

为什么人工智能现在还没有意识?那是因为人类作为它的创造人,对于意识的理解还有它的含义知之甚少。我们对于大脑的理解、对于智能的了解是越来越多的,我们知道通过智能可以创造出智能的机器,但是我們不理解什么是意识,所以到现在为止我们还不能够创造出一个有意识的机器。

意识不是一个有机体,它不像是我们的手、眼睛或者是腿。意识是一个主观的东西,像爱、疼痛、愉悦这类感觉。而这种感受是一个接一个的,比如说爱恨交织,或者悲喜交加,这才是形成大脑意识的元素。

所以大家对于意识和大脑其实也有点困惑。它们两者是互相关联的,但它们不是同一个东西。大脑是什么?它是一个非常复杂的组织,里面有很多神经元,很多化学物质,很多神经电子。意识控制的是主观的信息流,我们每时每刻都感受到了一些感觉,比如恨、爱。它不是非常形而上的东西,它是世界上最普遍的东西,也就是我们每时每刻所感受到的,这就叫做意识。

现在一些科学的教条,尤其是生命科学的教条中解释了大脑、意识,说意识其实是从大脑中得出的,是大脑产生了意识,也解释了大脑是一个生物化学的载体,让我们能够处理数据,作出决策。我们有一个假设,意识的感受,爱、恨、快乐,都是要完成某个功能,处理某些数据,做一些计算,然后作出决策。

创业邦:说到没有意识,有这样的一个问题:现在有一辆自动驾驶的汽车面临两个选择,往左会冲进人群撞死10个人,往右会撞死1个人,这个问题对于人类来讲是非常令人纠结的事情,但是对于人工智能来讲,它有这样的纠结吗,还是就选择撞死1个人?

尤瓦尔·赫拉利:人工智能在道德领域有可能会比人类做得好,但是考虑到以自动驾驶或无人驾驶汽车为例,比如说,撞10个人跟撞1个人,很多专家从各种理论讨论出发这个问题,有的人用佛教的理论讨论一年,得出的结论可能是这个汽车会选择撞毁自己,但如果人工智能有情感,在这样的情况下,它不会选择撞毁自己。这是哲学上面的问题,有一个理想化的结论,也是受情感的控制,人工智能不会按照理想化的情绪去处理。

创业邦:现在有“黑匣子”这一理论,说人工智能在内部如何倒腾自己的逻辑,这个过程我们是不知道的。如果是在这种情况下,人工智能有没有可能在未来做出一些会危害到人类的事?

尤瓦尔·赫拉利:实际上,人工智能会有意识,它会越来越复杂,人类控制它的能力会越来越弱,人工智能作出的一些决定,人类将不知道它为什么作出这样的决定。举个例子,很多公司已经给了人工智能权利去作决定,比如说一些银行用人工智能发放贷款,来拒绝一些人的贷款要求。当银行拒绝给他贷款时,这个人会问为什么,这时银行就会说“这是人工智能决定的,我们不知道答案”。

再举个例子,人工智能会对人类进行分类,就像过去有人歧视妇女、歧视黑人、歧视同性恋一样,以后人工智能也会有自己的歧视倾向。它不喜欢你,但是你不知道为什么,最主要的一个原因就是人工智能是根据你个人的大量数据来判断是否喜欢你。这是非常个人化的问题,你知道人工智能不喜欢你,但你很难找到同类、找到一个团体去进行抗议。

创业邦:听起来很可怕,人工智能可能做出很多事情,但是人类不明白它为什么这样做,未来如果高度发达且没有意识的人工智能充斥着我们的社会的话,会发生什么事?

尤瓦尔·赫拉利:这会导致社会不同层面的进化,比如说,带来一些问题,比如说剥夺一部分的工作机会,剥夺一部分人的经济和政治地位,等等。会有大量的权力和能力集中在部分精英的手里,而大部分人并不知道为什么失去了这些权力,这个可能就是其中的一个问题。

但是人工智能的优点是能将人类从简单枯燥的工作中解放出来,其中一个重要的问题是谁来控制这个人工智能。也就是说,我们有一个选择,人工智能到底对我们是好的还是坏的,我们是有的选的。

创业邦:也就是到底由谁来做这个事,就是政府推出一些法律来规定未来开发人工智能可以做哪些领域的东西,是不是应该做这些事,保证未来开发出来的人工智能不是那種对人类有害的人工智能?

尤瓦尔·赫拉利:目前有三种危险的情况,第一个就是需要有一个政治的讨论,第二个是需要对数据有更好的控制,至于第三个要从全球的情况来介绍一下。

第一点,接下来最重要的一个问题,就是说,需要政治层面的讨论,因为现在的人工智能是部分私企,包括一些其他的研究机构都可以自由去做的,但是私有的企业不是代表所有人的利益,所以说,政府的参与很重要。

第二点,讲数据的监控。我们现在最大的一个资产就是数据,个人的数据。以前的资产主要是土地、工厂和机器,但是二十一世纪的资产就是数据,是逐渐地积累起来之后变成了很重要的资产。这些资产有一部分是政府和私企在掌控,最重要的问题就是需要得到数据的控制权,对个人来说要有一定的控制权。

第三点,讲全球合作。全球合作势必会带来一些危险,比如说,自制武器。虽然中国禁止(私人携带)武器,但是人工智能没有禁止,它们有能力发展自己的武器,在这种情况下,需要加强全球合作。

创业邦:很多人认为人工智能是一个危险的事物,包括马斯克也是,他认为人工智能技术可能会被一些别有用心的人利用,从而做出一些对人类有害的事情。

尤瓦尔·赫拉利:现在可以说并没有迹象表明人工智能有毁灭人类的可能,因为现在它的发展方向并不是生成自我意识,他跟人类和动物的智能发展方向不一样。人类通过感情和自我意识作决定,但是人工智能是完全不同的方向。

实际上,真正的问题不是电脑与人的矛盾,而是受到电脑武装,有更多的人类和人类之间的矛盾。这个能力被少数国家甚至少数阶级所占有,他们剥夺了大多数人在经济上、政治上的权力。比如说在十九世纪工业革命的时候,电的出现使英国和法国得到快速发展,但是导致了中国和印度等国家的落后,造成了不好的影响。一样的问题在二十一世纪也会出现,只是涉及的国家不一样。

创业邦:您曾说过,人工智能的发展有可能促生一个新的群体,就是“无用群体”,部分工作岗位会被取代。比如工业革命时,机器取代人,反而产生了许多新的工作机会。今天我们对于失业的担忧是不是重复上一次的担忧,或者说,人工智能技术将带来新的工作机会?

尤瓦尔·赫拉利:现在要知道具体的发展还有待观察,但我们可以认识到目前这次革命跟十九世纪的工业革命不一样,主要有两个方面的不一样。未来人工智能有两种智能,一个是身体的能力,还有一个是认知的能力,目前工业革命产生的工作类型更倾向于认知方面,未来的发展中人类是否会产生第三种能力仍然有待观察。

肯定会有新的工作机会,但是人类重新适应新的工作需要多少时间?过去农民到城市参与新的工作,实际上不需要很大的技能,他可以很快适应,但是我们预计在未来新的工作需要很多的创新能力和技能。比如说,我是一名40岁的中年人,你让我去设计VR,对我来说就是一件很困难的事情。

创业邦:有乐观主义者认为人类还可以找到一些技能、一些能力是人工智能无法掌握的,這种想法会不会太乐观了?

尤瓦尔·赫拉利:人类有一些自己的技能、自己的意识,但是这些对于经济领域来说并不重要,就是说,人类这部分的技能很少被使用到。以汽车为例,一个好的驾驶员在经济领域并不重要,因为完全可以被自动驾驶汽车取代。从就业层面来说人工智能完全可以取代人,但是我觉得人工智能更应该朝解放人类的方向发展,给人类时间发展其他新的模型,新的经济和政治上的模型。

创业邦:未来的工作场景会变成什么样子?您提过一个“两极化”的观点,认为未来要么是拥有中高技能的工人,要么就是低级的工人,中间的一部分人会变得没有用,为什么会出现这样一种状况?

尤瓦尔·赫拉利:因为比较灵活的高技能工作很难被取代。刚刚举例的医生,诊断医生容易被取代,做研究的医生不容易被取代。就在百年内,前10%的医生同样会存在,但是90%的医生会失业。比较廉价的劳工也仍然会存在,因为在经济层面用人工智能不划算。中间层面的人薪水比较高,性价比最低,最容易被取代。

创业邦:如果在未来有80%?90%的人没有用,那我们还能做什么?更重要的是,这些人没有用了,他们的感觉一定会变差,那我们怎么来理解自身的价值?

尤瓦尔·赫拉利:首先从物质角度来说这个问题,我们可以通过计算积累的总财富平均分配一下,这个不存在问题。真正的问题是,人类生活的意义就会成为一个问题。这当中会有不同的方向,其中一个就是人类被解封之后可以开发不同的潜能。人工智能对人类的潜能研究比较少,我们之前的工作很少做,现在有机会重新证实一下。

人类追求娱乐性的感受、心情的感受,这些实际上是比较容易实现的,通过药物,通过游戏。我们现在玩的计算机游戏是3D的,就是虚拟现实。现在的人经常玩手机,大家沉浸在虚拟和现实的游戏当中。

以虚拟现实为例,这也可以像各种各样的宗教一样,人类花数千年的意义探索其中的规律。比如说,你玩游戏的话每天可以积分,不断去积分,这个也可以消耗你上千年的时间去探索。

创业邦:最后想问一下,目前我们最应该做的事是什么?

尤瓦尔·赫拉利:珍惜现在的工作。

猜你喜欢

赫拉瓦尔意识
探索不凡,引领可持续
如何培养孩子的节约意识
例谈概率统计备考的五个意识
赫拉,婚姻保护神的不幸婚姻
哪儿跑
初一学生符号意识的培养应从“理解”入手
意志顽强 气概豪迈
全景
消防意识