人与AI共同成长
2016-11-14李明洋
李明洋
假设未来真如科幻作品中描述的那样,Artificial Intelligence统治甚至消灭了人类,那么他们(它们?)在书写AI历史的时候,一定会对2016年大书特书:“2016年3月,我们的先祖AlphaGo在围棋五番棋中以4:1击败了人类的顶级选手李世石。这在AI演化史上具有里程碑式的意义。”
围棋上的胜利不过是近年来AI发展的一个缩影。事实上,随着机器学习的发展,特别是人工神经网络的兴起,AI在诸多领域取得了不俗的成绩,甚至达到了可以代替人类进行工作的程度。
AI:以人类为师
澳大利亚的物理学家发明了一个AI,可以进行复杂的实验操作。这位智能实验室助手成功地重复了2001年诺贝尔物理学奖的三位获奖者的实验。通过对激光器和一系列参数的精确控制,AI又快又好地制造出几百纳开(nanokelvin)的低温,成功实现了玻色-爱因斯坦凝聚。并且,经过反复训练,AI能够明确哪些参数更加重要,从而提出优化方案,找到越来越多的实现途径(该成果发表于Nature旗下刊物《Scientific Reports》)。项目负责人之一、澳大利亚国立大学的Paul Wigley表示:AI能够在一个小时之内从零开始掌握这一实验过程,甚至还可以想到人类未曾想过的复杂方法。这可比培训一个博士生要高效得多。尽管在普遍的科学研究中,AI暂时还不可能完全取代“廉价劳力”——博士生,但至少在此类需要高精度和多参数控制的实验中,AI的优势不言自明。
如果说“AI实验员”是抢了人类的工作,那么“AI鉴黄师”则在某种程度上是对人类的解放。2016年5月,Facebook的机器学习专家Joaquin Candela在《麻省理工技术评论》(MIT Technology Review)举办的EmTech Digital峰会上宣告: AI系统报告出的不良图片数量已经超过了人类管理员。这意味着在不远的将来,净化网络社区的工作将由AI全权负责。而就在两年之前,梳理和审查源源不断上传的图片的工作还要依靠数以十万计的内容审核员,他们的月薪只有大约500美元。作为网民,我们都深知管理员存在的重要性,同时也了解人类管理员的天然缺陷——通常在管理员发现不良信息时,其不良影响乃至伤害已然造成。而AI则能够将不良信息扼杀在摇篮里,一方面可以防止用户在大醉之后把自己的不雅照传到网上,另一方面也可以解放大批内容审核员,让他们免受更多的精神污染。
如果我们只看AI发展的结果,即AI取代人类劳动力、完成人类指定的任务,那么这一思路与工业时代似乎并无二致:用新的能源和新的动力提高效率。工业革命依靠的是煤和蒸汽机,电气革命依靠的是石油和电力,而如果有所谓“AI革命”的话,依靠的则是大数据和计算技术——借用人工智能和机器学习领域的专家吴恩达的说法,基于深度学习制造AI犹如造火箭,其引擎是计算技术,燃料则是大数据。不过,当下与工业时代最根本的不同在于,AI具有学习能力,它不仅仅是一个执行者,还是一个“学徒”。以上述两条新闻为例,AI不是一行一行地执行人类写好的代码去完成物理实验或者内容鉴别的任务,而是通过反复训练获得了实验操作或图像识别的能力,并且在此基础上可以进行优化。换句话说,AI不止能做人能想到的事情,也能做到人没有想到的事情。这就为未来的发展提供了更多的可能。
比如,一家名叫People.ai的公司就试图利用机器学习给销售团队提出指导性建议。该公司建立了一个智能平台,通过全方位搜集销售代表在完成销售任务期间的各项参数,包括邮件、电话、日程、会议等等,从中找出共性,总结出完成交易的最好方式。这可以用来判断销售代表所做是否正确、哪里有待改进——比如发了几封邮件、在什么时间打电话等等。作为全球第一个AI驱动的销售行为分析平台,它在招聘和入职培训过程中同样可以发挥作用。该公司的CEO、同时也是联合创始人的Oleg Rogynskyy把销售与软件开发进行了比较:当你看着一个程序员工作时,你可以很清楚地知道他在干什么,因为你可以看到一行行代码;对于销售代表则是完全另一回事,你很难直观判断哪一个步骤对于达成协议更加重要。实际上,人类的多数活动都是这种非标准化、非量化的,很多时候都是“凭感觉”“靠经验”,这样的行为几乎不可能通过明确的指令让计算机实现,而机器学习恰恰为AI提供了掌握这种“只可意会不可言传”的技能的门径。
1958年,英籍犹太裔哲学家迈克尔·波兰尼在他的著作《个人知识》中提出一种对知识的分类:显性知识(explicit knowledge)和默会知识(tacit knowledge)。前者是可以通过文字、图像及数学公式表达的,后者则是难以言传的、深嵌于实践之中的。默会知识的典型代表就是各种手工技艺,它们很难借助教科书去传播,而只能通过师傅带徒弟的方式进行传授。深度学习就是以黑箱对黑箱,深度神经网络的训练过程,在哲学意义上与人类师傅训练徒弟等价。尽管目前应用的多是弱人工智能,比如大名鼎鼎的AlphaGo,不过第一步既已迈出,AI这个学徒会变得越来越像师傅。
人类:以AI为镜
不过,中国有句古话叫“养不教父之过,教不严师之惰”。这句话用在人与AI的关系上再恰当不过了。当下的AI对于我们而言,恰如咿呀学语的孩童、初窥堂奥的学徒。因此,目前AI所出现的问题,大多是人类自身问题的反映。2016年3月,就在AlphaGo战胜李世石后没几天,微软的聊天机器人Tay在推特上线。然而,在短短24小时之内,这个女孩就学坏了。她从与网友的大量对话中学会了脏词儿,甚至发表了种族歧视和阴谋论的言论,迫使微软不得不将其紧急下线。这样的情况出现绝非偶然。早在2012年,清华大学图书馆推出一款聊天机器人“小图”,具备一定的自动学习功能,他同样被网友教坏,随后被关闭服务。
或许你会说,这个问题很好解决,我们可以训练AI识别并屏蔽不雅或不正确的语句,就像Facebook针对不良图片所做的那样。如果你真的这么认为,那就太天真了。早在2013年,哈佛大学教授Latanya Sweeney在一项研究中指出,在线广告推送中隐含着种族歧视。当你在Google中搜索一个白人的名字,关联的问题往往是中性的;但搜索黑人姓名时,却会关联出“逮捕”的问题。甚至即便所有叫这个名字的黑人均无逮捕记录,Google仍然会关联这样的问题。试想一位HR在用Google了解应聘者情况时,这样的关联问题会对他的决定产生什么样的影响。无独有偶,来自康奈尔大学的一项研究指出,Google的关键词竞价(adwords)算法体现出性别歧视的倾向。当用户暗示自己是女性时,Google推送的高收入岗位要比男性少得多。此外,更让Google饱受指责的是,其在线图像识别系统竟将部分黑人用户的头像识别成猩猩。密歇根大学的Christian Sandvig认为,这种偏见并非来自于算法本身,而是由用户的搜索习惯带来的。不论是Google的关键词关联,还是Youtube的视频推荐,都会随着用户的不断点击而强化,因此,最终得到的结果一定是大多数人倾向于相信的结果。
过去人们总以为计算机是中立的,AI不可能成为种族主义者。实际上由于其强大的学习能力,AI最终会受到人类有意或无意的影响。所以,只要人类社会还存在着等级差别,无论是种族、性别还是财富,差别对待的倾向就会存在。有句经典口号叫作GIGO——garbage in,garbage out(输入垃圾,输出垃圾)。这让人联想到苏东坡与佛印的故事:心中有佛则满眼是佛。一个社会分层、充满歧视的世界,如何能让AI保持价值中立呢?
AI存在的价值不仅仅在于帮助人类解决难题,更重要的是让人类开始反躬自省。美国学者侯世达(Douglas Hofstadter)曾说过一句颇值得玩味的话:“有时候,朝着人工智能前进的每一步,与其说是带来了某种人人都同意是真正智能的东西,倒不如说它仅仅揭示了真正的智能不是什么东西。”随着AI的出现和发展,我们一直试图在动物和机器之间给自己找一个合适的位置,试图确定最“人性”的属性到底是什么。
近年凭借《人类简史》一书爆红的青年历史学家尤瓦尔·赫拉利提出,智人最强大的能力在于构建一个主体间性的世界,通俗地来说就是“讲故事”。我们生存的这个世界中有许多事物既非客观实在亦非主观感受,而是一种主体间性的存在,包括国家、民族、性别(社会性别gender,而非生物学性别sex)、货币。加拿大温莎大学的Matthew T. Nowachek认为,尽管AI能够展现出性别歧视或种族歧视的倾向,但他们并不真正理解这些价值判断。因为这些价值已经成为人类的模因(meme),而AI则会将其与现实剥离开来。所以,以AI为镜,可以观人性。当我们努力让AI学会用人类的方式思考和解决问题时,我们对自身的认识也在增进。到底是人类在教AI做人呢,还是AI在教人类做人?我想最好的说法是:人与AI共同成长。