APP下载

生命3.0:人工智能时代的机器与人类

2017-11-23蔡书腾

新民周刊 2017年45期
关键词:人工智能

蔡书腾

《生命3.0》一书的深度远远超过市面上大多数关于AI的普及类书籍,其广度也让人吃惊,从AI的起源与背后的技术出发,一路上探讨了诸多将被其深度影响的领域,比如:工作、社会、战争、犯罪等等。

今年8月29日,一本名为《Life 3.0》、直译过来是《生命3.0》,副标题是《人工智能时代的人类》的书,上线仅一天就登上美国亚马逊“人工智能和机器学习类”书籍排行版首位。此书的作者叫麦克斯·泰格马克,是麻省理工学院物理学家,也是真正站在AI领域最前沿的研究者之一。太空探索技术公司(SpaceX)CEO埃隆·马斯克在其推特上发文称:此书值得一读,人工智能将是人类遇到的最棒或者最糟糕的东西,所以让我们正确面对吧!

能够真正以冷静客观、并且站在相当的高度与深度来看待人工智能的人很少,本书作者泰格马克正是其中一个。《生命3.0》一书的深度远远超过市面上大多數关于AI的普及类书籍,其广度也让人吃惊,从AI的起源与背后的技术出发,一路上探讨了诸多将被其深度影响的领域,比如:工作、社会、战争、犯罪等等。

随便举举书里谈及的问题:在不可避免的自动化浪潮中,我们要如何确保人们的工作与收入不会减少?如何避免智能化军备竞赛所带来的全球性危机?我们给下一代的职业建议应该是什么样的,什么样的职业将会成为下一个时代的宠儿?如何保障人工智能的安全性?如何保证AI始终在我们的控制之中,而不是如科幻电影中那样开始与人类对抗?

在这本书中,泰格马克从自己的专业视角,逐个解答了这些问题。这些解答全部都基于他多年的研究心血,并且通过通俗易懂的语言呈现给了读者们。该书可能是2017年关于人工智能话题最为深刻的一本书籍。

生命进行最后的升级:3.0版本

首先解释一下书名《生命3.0》。泰格马克认为,生命可以分为三个阶段,第一阶段称之为生物演变,以细菌为代表,在其生命周期内无法重新设计它的软硬件,完全由它的DNA所决定,只有通过许多代才可能发生改变;第二阶段称之为文化演变,以人类为代表,能够在其生命周期内重新设计它大部分的软件,比如学习语言、运动、职业等新的技能,更新世界观和目标,但是基本无法重新设计自己的硬件,只能通过代际发生缓慢改变;第三阶段称之为技术演变,以未来可能出现的超人工智能为代表,能够重新设计自己的软件和硬件,完全掌控自己的命运。

生命1.0的细菌能够通过传感器收集周围环境的信息,对信息进行处理并决定如何采取相应的行动。例如,许多细菌具有测量周围液体中糖的浓度的传感器,并且可以使用螺旋桨结构的鞭毛进行游弋。这里头的算法是:如果我的传感器报告说,现在的糖浓度比几秒钟前的数值低一些,那么我就反方向转动我的螺旋桨游回去。

不过细菌并不是一个好的学习者,它不是在诞生之后慢慢学会朝着糖分高的水域游过去,而是从一开始就在DNA里编码了这套算法,而这则是它的老祖宗通过残酷的自然选择遗传下来的,那些不这么游的细菌都灭绝了。再比如说,经常遇到抗生素的细菌可能会在几代之后发展出耐药性,但单个细菌在其生命周期内根本不会改变自己的行为;相比之下,一个女孩知道她有花生过敏就会立即改变她的行为,主动不吃花生。

生命2.0的人类可能掌握琴棋书画吹拉弹唱等十八般武艺,但在你刚出生时,你无法执行任何一项任务,所有这些软件都是后来通过我们称之为学习的过程被编入大脑的,也就是说,我们拥有重新设计自己软件的能力,这使得我们比生命1.0更聪明、更灵活,适应环境的能力更强。

然而,我们所知道的所有生命形式仍然受到生物硬件的限制,没有人能活一百万年,记住所有的维基百科,了解所有已知的科学或享受没有航天器的太空飞行。所有这一切都需要生命进行最后的升级,也就是生命的3.0版本,它不仅可以设计其软件,还可以设计其硬件,完全摆脱进化的束缚。

生命三个阶段之间的界限有点模糊,比如老鼠可以算作生命1.1,今天的人类应该算作生命2.1,因为我们可以执行较小的硬件升级,例如植入人造牙齿、膝盖和起搏器等。

许多人工智能的研究人员认为,生命 3.0可能在本世纪到来,这对我们意味着什么呢?

令人深切担忧的无人操纵武器

首先说说武器。

到目前为止,除了地雷这样的低技术陷阱,世界各地的国防部门部署的武器系统都有一个人处在决策环节中。但是,目前人类正在开发真正的智能自主武器,能够完全自主地选择和攻击目标。从军事上来说,把人从决策环节中拿掉以获得速度优势是十分诱人的,比如一架完全自主的无人飞机可以立即做出反应,而一架由身处地球另一端的人所操控的无人飞机则反应相对迟钝,那么打起来谁会赢?

但是,我们应该庆幸的是,至今为止我们武器系统的决策环节都有人的参与。1962年10月27日,在古巴导弹危机期间,美国11艘海军驱逐舰和航空母舰在古巴附近的海域将苏联潜艇B-59逼入困境,他们不知道的是,苏联潜艇内的温度升高到了45℃,因为潜艇的电池快用光了,所以空调停止了运转。许多船员由于轻度的二氧化碳中毒而晕倒了。船员也已经有好几天失去和莫斯科的联系,不知道第三次世界大战是否已经开打。随后,美国开始投放小型的深水炸弹,他们已经告知莫斯科这么做只是为了逼迫核潜艇浮出水面并离开,但是潜艇上的人可不知道美国的意图。一名船员回忆说:我感觉我们就像坐在一个金属桶里,而外头有人拿着一把大锤不停地砸着桶。当时潜艇上有一枚核鱼雷,他们有权在没有上报莫斯科的情况下发射这枚鱼雷。事实上,船长已经决定发射。鱼雷官也支持这一决定,打算与美军同归于尽。幸运的是,这个决定要由潜艇上三名军官同时授权,而正是这第三位军官——瓦西里·阿尔希波夫(Vasili Arkhipov)说了一声:不。我们得衷心感谢瓦西里,没有他的这个冷静的决定,也许当时第三次世界大战就打了起来,不知又有多少生灵涂炭。假如苏联的B-59是一艘AI控制的自动潜艇,没有人参与决策环节,处在类似的情况里,结果会发生什么呢?endprint

泰格马克对自主武器系统有着严重的关切,尤其担心AI武器的军备竞赛。2015年7月,他和斯图尔特一起发表了一封公开信,大体内容如下:

自主武器在无需人为干预的情况下选择和完成目标,这种武器风险很高,被视为火药和核武器之后的第三次战争革命。对于自主武器,支持者和反对者各有理由。比如说,用机器取代士兵,能够减少己方的伤亡,這是好事;但是这同样也会降低战斗的门槛,这则是坏事。

今天的关键问题是要不要防止全球性的AI军备竞赛的启动。

与核武器不同,AI武器不需要昂贵或者难以获得的原材料,所以它们会很便宜而且无处不在。这些武器最终落到恐怖分子、独裁者以及计划实行种族清洗的军阀手里只是一个时间问题。自主武器是执行暗杀、破坏国家稳定、镇压老百姓以及选择性地屠杀某个特定族群的理想工具。我们认为,AI军备竞赛对于人类是有害的。

正如大多数化学家和生物学家对制造化学或生物武器毫无兴趣一样,大多数AI研究人员对制造AI武器也毫无兴趣,不希望其他人这样做而玷污了这一领域,尤其是这可能会造成公众对于人工智能的反感。事实上,化学家和生物学家广泛支持相关国际协定,并由此成功地禁止了生化武器的开发。

泰格马克起草的这封公开信不久就获得了超过3000名AI研究人员的签名,包括来自谷歌、脸书、微软以及特斯拉的多位高管。另外17000位非专业人士也签了名,包括史蒂芬·霍金。

事实上,AI军备竞赛蓄势待发。2016年,美国投资到民用AI项目的经费约为10亿美元,而2017年美国五角大楼计划投资于AI有关的军事项目的资金就高达120亿-150亿美元。其他国家也摩拳擦掌。是否应该有相应的禁止性的国际条约?这个可能说起来容易做起来难,比如说,条约只是禁止致命性的AI武器,还是将伤害但非致命的武器一并禁止?条约是否适用于所有自主武器系统,还是对防御性的系统网开一面?再者,自主武器的大多数组成部分都具有民事用途,例如送邮件的无人机和运炸弹的无人机没有太大区别,我们要如何执行条约?

一些人认为,设计一个有效的AI武器的禁止性条约是几乎不可能的,所以干脆不搞了。但是泰格马克引用了肯尼迪在宣布登月任务时讲的话:艰难的事情也值得一试,因为一旦成功将对人类的未来十分有利。

在泰格马克与基辛格的一次交谈中,双方都认为从AI军备竞赛中获益最多的不是超级大国,而是那些小型的流氓国家和恐怖分子,他们能够通过黑市获得武器。一旦开始大规模生产AI驱动的小型杀手无人机,它的成本可能比智能手机低得多。无论是恐怖分子想暗杀一位政治家,或者是一个疯子想报复他的前女友,他们需要做的就是把目标的照片和地址上传到无人机,然后这架无人机就会飞到目的地,识别并杀害目标,然后自我销毁,使得我们无从追查操控者。对于那些计划实行种族清洗的人来说,他们很容易通过编程使得无人机专门杀死具有某种肤色或种族的人。也许未来一辆卡车就能放出上百万架小如昆虫的杀手无人机。看过《黑镜》这部电视剧的朋友应该还记得,其中有一集就为我们展示了这一可怕的场景。

机器法官、隐私权和机器的权利

接下来是法律。人类通过合作的能力成为万物之灵,征服了所有其他物种。我们创造的法律体系也是为了激励和促进合作。所以如果人工智能能够改善我们的法律体系,那么我们能比以往任何时候都更加成功地合作,从中取得更好的成果。

以美国的法律体系为例,它的缺点是审判时间漫长、费用高昂以及偶尔出现不公正。一些学者梦想通过机器法官来实现审判的自动化,因为一套法律程序可以被抽象地视为一种算法:输入有关证据和法律的信息,输出一个判决。而且人工智能没有人类法官的常见缺点,比如偏见、疲劳或者缺乏最新的知识,只会不知疲倦地地将相同的法律标准应用在每一个判决上,所以,从理论上来说,AI能够让审判变得更加高效和公平。

使用机器法官能够加快法律程序,增加那些精明的律师歪曲结果的难度,人们通过法庭获得正义的成本将会急剧降低。因此,穷人或初创公司在和那些拥有豪华律师团队的富人或跨国公司展开诉讼时,获胜的概率会大大提高。

但是,机器法官的采用也会面临以下几个问题:第一,如果机器法官有bug或者遭到黑客攻击呢?第二,即使AI足够强大,能够抵御住各种网络攻击,但是每个人都能理解它的逻辑推理、对它的判决感到服气吗?神经网络的大行其道使得这一挑战更加严重,因为基于神经网络的算法不像传统AI算法那么易于理解。如果被告人想知道他为什么被定罪,也许机器法官的设计者只能给对方如下理由:我们使用大量数据对系统进行训练,而这就是它所给出的答案。这肯定不能让人满意。第三,最近的研究表明,如果你用大量的囚犯数据去训练一个人工智能系统,那么它可以比人类法官更准确地预测谁的再犯率更高,所以不得假释。但是,如果这个系统发现再犯率与囚犯的性别或种族有统计学上的关系,那么它会不会被视为一个抱有性别歧视或种族歧视的机器法官?

这些都是我们需要思考和讨论的重要问题,这事关我们将以何种程度和效率在我们的法律体系里部署人工智能。

谈完了人工智能在法律体系里的应用问题,再来看看法律的内容问题。

由于技术进步的步伐似乎在加快,法律已经有落后的倾向。对于一个社会来说,让更多技术精湛的人才进入法学院和政府可能是一个明智的举动。

如何调整我们的法律以适应人工智能的进步是一个引人入胜的争议性话题,其中第一个重要争议在于隐私与信息自由之间的矛盾。

支持信息自由的人认为,我们拥有的隐私越少,法庭所拥有的证据就越多,判断就越公平。例如,假如政府能够查看每个人的电子设备和记录,许多罪行将水落石出,还可以防止即将发生的犯罪行径。支持隐私权的人则反驳说,他们不想要出现奥威尔小说里那种一直有双老大哥的眼睛盯着你的监视状态,如果真的这么做,很有可能出现登峰造极的极权专制体制。endprint

此外,机器学习技术已经十分擅长分析来自功能磁共振成像扫描仪的大脑数据,能够识别一个人正在想什么,特别是判断他说的是实话还是谎言。如果AI脑扫描技术在法庭上变得司空见惯,那么目前确定案件事实的冗长的过程可能会大大简化和加速,从而加快审判,作出更公正的判决。

隐私权的捍卫者则担心这样的系统是否偶尔会犯错,更重要的是,是否应该限制政府对我们头脑的窥探。极权政府可以利用这种技术将某些信仰和意见定为犯罪。你会如何在公正和隐私之间划出一条分界线?你觉得应该如何平衡保护社会和保护个人自由之间的关系?

第二个引人注目的争议是,人工智能研究是否应该受到监管。一些人工智能的研究人员反对对AI研发的所有形式的监管。而在波多黎各会议上,埃隆马斯克认为,我们现在从政府那里所要得到的不是监督,而是洞察力:具体来说,技术上具备能力的政府人员可以监督人工智能的发展,并且在必要的时候进行引导。他还认为,政府监督有时也可以是一种培育而不是扼杀进步:比如说,如果政府出台的自动驾驶汽车的安全标准能够减少事故数量,那么公众对于自动驾驶汽车的排斥程度就会降低,新技术的采用也可以加快。

第三个有趣的法律争议涉及授予机器的权利。如果自动驾驶汽车的普及使得美国交通事故死亡人数从32000名减少到16000名,那么汽车制造商不可能收到16000份感谢信,而是会收到16000份起诉书。那么,如果一輛自动驾驶汽车造成事故,谁应该承担责任呢?法律学者大卫·弗拉德克给出的答案是:汽车本身!具体来说,他建议允许并要求每一台自动驾驶汽车持有汽车保险。这样,具有完整的安全记录的车型只需缴纳非常低的保费,而来自马虎的制造商的车型将缴纳高昂的保险费。那么如果允许汽车等机器持有保险,它们还应该拥有自己的财产吗?它可以在股市上赚钱、雇人帮它干活吗?民主国家是否要授予这些机器投票权?这些都是有趣且值得探讨的问题。

AI时代

我们人类的收入和工作

最后是我们的收入和工作。我们都知道,古代的雅典公民生活很悠闲,他们把大把时间花在辩论、民主投票、艺术以及游戏上,这主要是因为有奴隶帮他们做了很多工作。那么我们未来有没有可能用人工智能代替奴隶,创造出一个现代化的数字雅典呢?

假如我们每个人的时薪逐年增长,那么我们就可以逐步进入到数字雅典时代,那些喜欢闲暇的人就能够逐渐减少工作量,不断提高生活水平。这正是美国从二战结束到70年代中期所发生的事情。但是,此后的故事悄然发生变化。最近这40年来,尽管经济不断发展,人均收入也不断增加,但是新增的蛋糕几乎全部掉进最富有的1%的人的口袋,最贫穷的90%的人处于收入停滞状态。如果我们从财富而非收入的角度来看,贫富分化更加严重。对于90%的美国底层家庭,2012年的平均财富与二十五年前一模一样;而同一时间段内,最富有的1%的人的财富则翻了一番。全球的贫富分化情况更加严重,2013年最有钱的8个人的财产加起来就相当于最穷的36亿人的总财产。

麻省理工学院经济学家埃里克·布林约尔松(Erik Brynjolfsson)和安德鲁·迈克菲(Andrew McAfee)认为,造成收入不平等的原因既不是全球化也不是什么富人的减税政策,主要的原因是技术。具体来说,他们认为数字技术以三种不同的方式推动了不平等。

首先,新的工作要求更多的技能,那些受过教育的人得到更高的回报:自20世纪70年代中期以来,大学毕业的人薪水平均上涨了25%,而那些高中就辍学的人薪水减少了30%。

其次,自2000年以来,企业利润中越来越高的比例流入了公司的所有者而不是打工者,而只要自动化的过程持续,那么这些拥有机器的人会占有更高比例的蛋糕。举个例子,1990年底特律的三大公司,也就是通用汽车、福特和克莱斯勒的总收入与2014年硅谷的三大公司也就是谷歌、苹果以及脸书一样,但后者的员工数量是前者的1/9,股价是前者的30倍,这也意味着更多的收入流入投资者而不是工人的腰包。

第三,数字经济导致赢家通吃,超级巨星的收入远高于其他人。《哈利波特》的作者J. K.罗琳成为第一个加入亿万富翁俱乐部的作家,她比莎士比亚富有得多,因为她的故事以极低的成本、通过文字、电影以及游戏的形式传送给数十亿人。市场上只会诞生少量的超级巨星,这也意味着,如果世界各地的家长都建议他们的孩子成为下一个J.K罗琳、马特达蒙、C罗、奥普拉或者马斯克,那么几乎没有一个孩子会发现这是一个可行的职业策略。

那么我们应该给自己的孩子什么靠谱的职业建议呢?这几个问题很有用。这份职业是否需要与人打交道并且使用社交智慧?这份职业是否需要创造力,并且提出聪明的解决方案?这份职业是否需要在不可预测的环境中工作?如果这几个问题的答案都是yes,那么你所提供的这个职业建议应该就比较靠谱。这也意味着,相对安全的职业选择包括教师、护士、医生、牙医、科学家、企业家、程序员、工程师、律师、社会工作者、神职人员、艺术家、理发师以及按摩治疗师等。

相比之下,在可预测的环境中的高度重复性或按部就班的工作则不可能存在很长时间,比如电话销售员、仓库工作人员、收银员,火车司机、面包师以及厨房生产线上的厨师。司机这一职业也面临机器的取代。还有更多的职业,比如律师助理、信贷分析师、贷款人员,簿记员以及税务会计师,虽然不在濒临灭绝的名单上,但他们的大部分任务都是可以自动化的,因此这类职业的用工需求会大大缩减。

但是,自动化并不是技术所带来的唯一的职业挑战。在这个全球数字时代,旨在成为专业作家、导演、演员、运动员或者时尚设计师会面临来自全球范围的激烈竞争,只有很少的人能够成功。

需要补充的一点是,对某个职业领域是否会被机器替代不能一概而论,可能只是部分任务被替代,比如说,如果你进入医学领域,不要花太多时间分析医学图像,而要学会订购放射学分析、与患者讨论结果并制定治疗方案,因为前一个任务可能会被IBM的沃森所替代;如果你进入财务领域,不要变成为一个沉迷于对数据应用算法的“宽客”,而要学会成为使用定量分析结果做出战略投资决策的基金经理;如果你进入法律领域,不要安于做一个负责审阅文件的律师助理,而要学会向客户提供咨询意见并将案件提交法庭审理。endprint

上面是就个人而言的,而在政府层面,许多政策可能会有所帮助,比如对研究、教育、基础设施进行大量投资,促进移民以及激发创业精神等。

那么,假如AI持续改进,更多的工作被机器替代,人类未来会集体失业吗?泰格马克在此书里也逐一列举了乐观派和悲观派的论据,值得一提的是,针对乐观派所预想的未来会出现大批新的工作,悲观派的反驳似乎更有力。我们刚刚经历过计算机为代表的信息革命,那么有多少职业是新出现的呢?在今天的美国,按照就业岗位的数量排列,前20大职业都是一个世纪前就已经存在的,排在第二十一位的职业软件开发商仅占不到1%的就业人口。

现在人类所面临的就业情况就如同海面上的岛屿,代表人工智能水平的海平面正在逐步上升,淹没了越来越多的岛屿,我们并未发现全新的岛屿,而是不得不挤进那些尚未被技术潮流所淹没的小岛。悲观派认为,结局是显而易见的:整个群岛将被淹没,人类最终会集体失业。

泰格马克认为,短期来看乐观派可能是对的,但长期来看悲观派则可能更接近事实。但另一方面,集体失业也未必是坏事!工业革命期间,勒德分子痴迷于特定的工作,忽视了其他工作可能提供相同社会价值的可能性。类似地,也许今天那些痴迷于工作的人太狭隘了:我们希望得到工作,是因为它可以为我们提供收入和目的感,但也许可以找到一套替代方案,在无需工作的情况下获得收入和目的感。

减少贫富分化除了有道德上的考量,它还能够使民主机制更好地运转:当存在一个受过良好教育的庞大的中产阶级时,政客很难操纵选民,这样一种民主反过来可以使一个经济体更少腐败、更有效率以及获得更快的增长,最终使每个人都受益。

再来看目的感的问题。工作能够给予人们的不仅是钱。根据积极心理学的研究,有一系列的因素能够提高人们的幸福感和目的感,而一些工作能够提供这些因素,例如:朋友和同事的社交网络;健康和道德的生活方式;做一件自己擅长的事情时所产生的尊重、自尊、自我效能感和愉悦的心流;被需要和有所作为的感觉;因为服务于某种大于自己的事物所获得的意义感。我们可以对这一发现感到高兴,因为所有这些因素都能在工作场所之外找到落脚点,比如通过运动、爱好、学习,以及和家人、朋友、团队、俱乐部、社区团体、学校、宗教、人文组织以及政治运动以及其他机构所获得。

因此,要创造一个蓬勃发展而不是退化为自我毁灭行为的低就业社会我们需要了解如何帮助这种催生幸福的活动蓬勃发展。对它们的理解不仅关乎科学家和经济学家,也需要心理学家、社会学家以及教育者的参与。如果我们努力地为所有人创造福祉,所需财富通过AI来获得,那么未来的社会应该能够像以前一样蓬勃发展。

不同流派对人工智能的看法

假如以超人工智能为代表生命3.0真的会出现,对人类来说是一件好事吗?对待这个问题有四大流派,第一派被统称为勒德分子,最早是指英国工业革命时期因为机器代替了人力而失业的技术工人,现在引申为反对发展人工智能的人,这一派当然非常惧怕超人工智能的出现。第二派是以拉里佩奇、库兹韦尔为代表的数字乌托邦主义者,他们认为人类很有可能在21世纪发展出超人工智能,而且他们衷心欢迎这一步的到来。第三派则是以百度前首席科学家吴恩达为代表的技术怀疑论者,他最著名的话是:担心杀手机器人的兴起就像担心火星人口过多。第四派中有好几位都是大名鼎鼎的人物,比如比尔·盖茨、霍金、埃隆马斯克,这一派被称之为“益智运动派”,他们支持推动有益的人工智能发展,关注人工智能的安全问题。这一派认为,超人工智能是有可能在本世纪出现的,但它并不保证对人类有好的结果,所以现在对于AI有关的安全问题的研究和讨论能够增加未来出现良好结果的概率。

关于人工智能的常见误解和困扰

容易混淆的术语

智能,指的是完成复杂目标的能力。

弱人工智能,指的是实现一组有限的目标的能力,比如下围棋或者驾驶汽车。

通用智能:指的是有能力达成几乎任何目标,包括学习。

超人工智能,指的是远超人类水平的通用智能。

容易产生的误解

第一个是关于时间表的神话。人类发展出超人工智能需要多长时间呢? 这个领域的顶尖专家对此问题分歧极大,所以我们其实不知道答案。

第二个误解是关于争议的神话,也就是误以为AI研究者对于是否支持人工智能安全研究存在巨大的争议。比如过于强调吴恩达的火星人口过剩论。其实吴恩达并非不在意人工智能的安全问题,只不过他关于超人工智能出现的时间表较长,所以倾向于优先考虑短期内的AI挑战。

第三個误解是关于风险的神话。超人工智能对人类的影响在于它会做什么,而不是它意识到什么。我们真正应该担心的不是机器的恶意,而是它的能力。益智运动就是希望努力避免人类被没有恶意但十分强大的超人工智能随手毁灭。事实上,只要机器足够聪明,它就能够控制人类,益智运动主要的关注点不在于机器人,而在于智能本身:具体而言,就是与我们的目标不符的智能。endprint

猜你喜欢

人工智能
我校新增“人工智能”本科专业
用“小AI”解决人工智能的“大”烦恼
当人工智能遇见再制造
AI人工智能解疑答问
人工智能与就业
基于人工智能的电力系统自动化控制
人工智能,来了
人工智能来了