人工智能来了,不只会“聊天”
2023-05-30杨冬
杨冬
计算机能够思考吗?
在20世纪50年代,为了回答这个问题,计算机科学的先驱艾伦·图灵提出了“图灵测试”这一思想实验。首先,请一个人与计算机进行对话,对话方式为打字,这个人只能看到屏幕上显示的对方的回答。接下来,请另一个人(第三者)观看他们的对话内容,但是他并不知晓对话者是人还是计算机。此时,如果第三者无法分辨对话者中谁是人,那么这台计算机就通过了“图灵测试”。
在图灵测试中,关键问题不是“计算机在对话中所提供的内容是否正确”,而是“通过对话能否区分发言者是人还是计算机”。图灵认为,“计算机是否可以思考”这个问题很难回答,因为首先要定义“什么是思考”。所以,他宁愿用“图灵测试”来判断计算机是否有能力模拟人的行为。
如果计算机可以完全模拟一个人的行为,使人无法判断它究竟是人还是计算机,那么是否可以认为它具备了人的思考能力呢?围绕着这一问题,数不清的科学家进行了反复讨论、辩论,通过刊印论文、发表演说,各抒己见。不过,由于在“图灵测试”公布后的几十年内,并没有一台计算机具备通过“图灵测试”的能力,这些争议在很大程度上也仅有理论意义。直到本世纪初,依然有很多科学家认为,在有生之年根本不可能见到一台对话能力可以通过“图灵测试”的计算机。然而,随着人工智能技术的突飞猛进,科学家们突然发现,人类大大低估了计算机的能力。
ChatGPT能否通过“图灵测试”
2022年,OpenAI公司推出了一个人工智能聊天程序,名为ChatGPT。作为聊天程序,ChatGPT可以产生非常自然的对话内容,仅通过对话,很难把它与人类区分开来。正如70年前图灵所预测的,ChatGPT的先进之处并非它总是可以给出正确的答案(ChatGPT提供的答案有时也有错误),而是它的表达方式与人类非常接近,甚至可以以假乱真。因此,至少在某些情况下,ChatGPT有可能通过“图灵测试”。
如果有一天ChatGPT真的通过了“图灵测试”,那么它对人类社会的影响就会成为一个需要严肃对待的社会议题。
人类要面对图灵当初试图回避的问题,即如果一台机器完全可以模拟人的行为(即通过了“图灵测试”),那么它具有人的思维吗?从图灵当初的视角出发,他其实是将人脑和计算机都看作黑箱,也就是说我们不清楚其内部的机制,只观察输入和输出。对计算机和人脑输入相同的信息(如一个问题),如果计算机的输出与人脑的输出并无明显差异,无法分辨哪个输出属于人脑,那么我们就认为这两个黑箱(即计算机和人脑)的行为完全相同。
如果计算机和人脑行为相同,那么在解决具体问题时就可以互相取代。由此推理,通过“图灵测试”的计算机已经具备了取代人脑的潜力。可想而知,未来ChatGPT或者它后续更强大的版本可能取代很大一部分目前人类所从事的工作,对人类社会的影响无法估量。
人类面临“交流之惑”
在不久的将来,很多职业会被取代,然而,人工智能所带来的更大的影响恐怕会出现在人际交流过程中—你将越来越难以确定与你交流的对象究竟是谁。
人们可能会把某些他们认为缺乏创造性的交流活动“托付”给计算机完成。未来,你的小孩参加在线课程学习,他/她面对的教师可能就是一台安装了强大聊天程序的计算机。再进一步,如果你知道教师其实是计算机,那么你是否会“委托”你的计算机与对方进行“家校交流”呢?
今天的社交软件(如微信)已经渗入了工作、生活的方方面面,我们每天在軟件上与形形色色的人聊天、交流。虽然你很可能从未见过对方,但是一般而言你会相信对方确实是一个“人”。然而,这个信念在未来还可以保持吗?
我们还可以展开想象,当一位身体虚弱的老人失去认知能力和记忆力后,他的家人用一个计算机程序模拟他的口吻继续发表言论,与亲戚朋友聊天,这样的做法是否符合伦理?如果老人去世后,家人们依然用计算机程序模拟他,与“他”聊天呢?当然,对于怀念逝者的人而言,这是一种安慰。不过,如果这种交流方式广泛应用于社会交往中,人类对于交流的认知将从根本上被动摇。
在人与人之间的交流日益依靠计算机辅助的背景下,人作为今天交流的主体将不可避免地被淹没,这将成为人工智能对人类生存方式的最重大挑战。
喜忧参半的科研领域
从长远来看,ChatGPT及与其类似的人工智能软件可能带给人类不小的挑战;就近期而言,作为工具,ChatGPT将为我们的工作和生活提供大量助力。
以科研为例,人们可以利用人工智能工具搜索文献并自动生成某个科研领域的综述,这将大大缩减研究者在搜寻文献上投入的时间和精力。同时,在提供已有科研数据的前提下,人工智能工具能快速形成规范的文本,帮助科学家完成科研报告或论文。科学家可以把主要精力集中在准确解释数据、归纳总结出新的理论模型等方面,而不必将大量时间花费在语言表述和文本格式、规范上。在目前的技术水平下,人工智能工具还没有体现出创新能力。所以,面对实验、调查产生的科研数据,最终还是需要科学家做出正确的解释,并且提出新的科研思路。
当然,从另一方面看,与ChatGPT类似的人工智能软件的普及将导致任何人都可能快速炮制出规范、通顺、富有逻辑、有理有据的文章。教师将很难对学生提交的论文形式的作业进行评估,因为无法判断学生完成作业时是否使用了人工智能软件。也许,在未来的课堂上,教师将要求学生参加口试,让他们当面回答与所提交作品相关的问题。在科研工作中,此类软件的普及也不可避免地增加了科研基金评审的难度。因为,在人工智能软件大量普及的时代,科研人员在撰写基金申请时都会依靠计算机的帮助。与前面提到的可能颠覆人类交流的终极挑战相比,上述问题都是“小问题”,然而这些问题迫在眉睫,无法被忽略。
ProGen:读懂生命的“天书”
ChatGPT的底层技术是大型语言模型(LLM)。通过利用海量数据(如各种语言文本)进行训练,计算机最终可以实现对自然语言的正确理解,并有效使用自然语言进行对话。然而,除了我们平日交流中使用的“自然语言”,是否还有其他的编码某些信息的数据可以被当作语言来处理呢?如果LLM可以处理“特殊语言”,那么人工智能软件的功能就不仅限于聊天和产生文本了。
我们知道,地球上一切生命的信息都由核酸(大部分生物是DNA,某些病毒是RNA)编码。构成DNA的基本单元是A、T、C、G四个碱基,它们的组合包含了一个生物体的全部遗传信息。那么,DNA序列是不是一种语言呢?是否可以利用海量的基因组信息去训练人工智能软件,从而让其通过“阅读”一个生物体的基因组就能够预测其基本性状呢?或者,反过来,能否让人工智能软件通过设计基因组序列,按需创造出一个全新的生物体呢?今天,我们还不知道这些设想是否可行。不过,近期的科学发现表明,如果略微降低期待,仅仅把设计局限在蛋白质序列上,那么也许成功离我们并不遥远。
2022年,美国科学家在《自然·生物技术》杂志上发表了一篇文章,报道了一个基于LLM的蛋白质设计软件ProGen。蛋白质是由氨基酸组成的,而其具体的氨基酸序列则是由编码该蛋白质的基因决定的。那么,对于任何一个已经被测序和注释的基因组而言,其编码了多少蛋白质,每个蛋白质的氨基酸序列(简称:蛋白质序列)是什么,都是已知的。今天,科学家面对着海量的蛋白质序列的信息,它们决定了蛋白质的结构、功能。如果将这些信息看作一种语言,那么能否利用LLM解读和设计蛋白质序列呢?
可以说,目前ProGen已经做到了这一点。通过利用2.8亿条蛋白质序列进行训练,ProGen的设计能力达到了相当高的水准。研究人员利用ProGen对溶菌酶进行了设计,然后组织实验合成了其设计出的蛋白质。通过实验可以发现, ProGen设计的蛋白质中73%具有活性。其平均活性水平与天然蛋白质大致属于同一范围,个别蛋白质还具备比天然蛋白质更强的活性。通过把蛋白质的氨基酸序列作为“语言”对待,经过海量数据的训练,计算机似乎也可以读懂这种“语言”,并能构建自己的“文本”,即新的蛋白质序列。
也许,未来计算机真的可以读懂生命的“天书”,并写下自己的“章节”—设计新的基因组。不过,即使科学家的进展仅停留在目前蛋白质设计的层面上,他们也已经可以对人类的生活造成重大影响。蛋白质设计可以帮助研发人员开发新型药物和疫苗,也可以为工业生产提供更加有效的生物催化剂。可见,基于LLM的人工智能技术对社会的影响才刚刚开始。
2023年,更多的普通人與一鸣惊人的ChatGPT邂逅,我们知道了人工智能的崛起始于聊天,始于理解自然语言,然而,面对广阔的应用领域,人工智能将终于何处,尚不可知,它的未来依然如谜,依然令人向往。