ChatGPT有一种迷人的幽默感
2023-02-01Claire
Claire
Farhad Manjoo自2018年成为《纽约时报》专栏作者,主要关注科技产业对世界的影响。在此之前,他曾为《时代》《快公司》和《华尔街日报》写作。
ChatGPT给人留下的第一印象十分迷人。它幽默感惊人,模仿能力绝佳,在押韵方面也相当有一手。它的观点还非常合理。要是ChatGPT没能通过图灵测试,那大概率是因为它什么事情都不发表自己的意见。上一次有人在互联网上拒绝谈论自己的真实想法,是什么时候?
几周前,当人工智能公司OpenAI推出了ChatGPT这款机器人,作为其大型语言模型工作的“研究预览”(research preview)时,我开始跟它聊天。语言模型是一种人工智能系统,通过大量的文本学习来捕捉词汇之间可能存在的联系。ChatGPT是一种经过优化的语言模型,其目标就是为了探索AI技术领域长期的“圣杯”——一台能与人类对话的计算机。
ChatGPT确实做到了这一点。我一生中跟许多计算机聊过天(我知道这很奇怪),但ChatGPT是我遇到的第一个堪称有趣的聊天对象。起初,我只是说一些琐事,但没过多久,我们就展开了深入的对话,比如:美联储在美国经济中的作用;意识的本质;“woke”(编注:原为非裔美国人的俚语,后来用于指“对种族歧视和偏见保持警觉”)和“Karen”(编注:一个姓名梗,指歧视有色人种的中年白人女性)之类的新词;养育子女的道德困境;怎么为罢工同事提供支持;气候变化、堕胎和疫苗安全;热狗算不算三明治,等等。
说到这里,也许我应该告诉你们——我对ChatGPT抱有一种敬畏或害怕的心态,因为它将会彻底改变或毁灭我们的世界。但是,尽管我认为ChatGPT揭示了AI的一些危险性,我拒绝对它给予强烈的赞扬或是谴责。
就像大多数鸡尾酒会上的闲聊一样,它的潜在利弊,至少就目前而言,都是相当有限的。我毫不怀疑像ChatGPT这样的东西可能会被滥用。它有可能会导致一些貌似科学的错误信息的病毒性传播,可能会降低学生论文作弊的难度。
ChatGPT最大的特点就是它很谦虚。这种谦逊让它成了一款不同寻常的数字助手。
但OpenAI似乎正在解决这些问题。在一次采访中,OpenAI的首席技术官米拉·穆拉蒂(Mira Murati)表示,该公司正在仔细监控人们在如何使用和滥用它,迅速完善系统来填补一些明显的漏洞,并根据用户反馈不断改进它。
事实上,ChatGPT对自身局限性的认知,正是其最有趣的性格特征之一。
与ChatGPT之间的许多对话都会变成这样:当你打算认可它的说法时,它就会转向高度谨慎的态度,宛如最高法院大法官候选人在其确认听证会上表现出的那样。它通常会提醒你,关于这件事还有其他说法,也许不存在一个明确的“正确”答案,以及你应该试着欣赏不同的观点。
在针对一些科学话题时,ChatGPT似乎更为笃定一些。例如,它会说“气候变化是真实存在的、正在发生的现象”,进化论“得到了来自许多不同领域的大量科学证据的支持”,以及地球当然不是平的。不过,总的来说,ChatGPT会坦白告诉你自己无法提供一个确定的答案。
为什么说ChatGPT的这一特征非常惊艳?众所周知,人工智能研究存在的两个问题分别是保持“一致性”和避免“幻觉”。一致性涉及到人工智能實现其人类创造者目标的能力,换句话说,就是拒绝对世界造成破坏;幻觉则跟坚持真理有关——当人工智能系统困惑不解时,它们有一个坏习惯,就是会编造一些事情,而不是承认自己遇到了困难。为了解决这两个问题,OpenAI的研究人员微调了ChatGPT的语言模型,名为“从人类反馈中强化学习”(Reinforcement learning from human feedback)。该公司雇用了真人与机器人互动。当人类与它聊天时,他们会对它的反应评级,这本质上是在教它:什么样的反应是好的反应,什么样的不是。
穆拉蒂告诉我,语言模型与人类反馈的结合,创造出了一个更逼真的人工智能对话伙伴,“这个模型可以分辨对错,”她说,“它可以顺着你的话题继续提问,也会质疑不正确的假设或拒绝不合适的请求。”
ChatGPT还远远算不上完美。Twitter上充斥着“破解”ChatGPT的例子,或者说,诱骗它产生幻觉或错位的例子。
外界针对像ChatGPT这样由“深度学习”计算技术构建的系统的一个主要批评是,它们只不过是增强版本的自动更正技术,所理解的只是单词之间的统计联系,而不是单词背后的概念。纽约大学心理学荣誉教授、深度学习怀疑论者加里·马库斯(Gary Marcus)表示,虽然像ChatGPT这样的人工智能语言模型可以说一些漂亮话,但它“仍然不可靠,仍然不了解物理世界,仍然不理解心理世界,仍然会产生幻觉”。
不过,与此同时,ChatGPT最大的特点就是它很谦虚。一天下午,我受够了它不断提醒我说,自己的答案可能是错的,我问它:“要是不管你说了什么,我都得确认一遍你说得对不对,那要你有什么用?这话可能有些不中听,不好意思。”
而它表示过意不去,“我无意成为一个确定的信源,我的职责不是替代那些专业的建议和知识。我在这里只是为了辅助提供一些有效信息,但最终还是需要用户自己对这些信息做核实和评估。”
这种谦逊让ChatGPT成了一款不同寻常的数字助手。你很少能在网上看到有人承认自己也许是错的。如果人工智能可以做到的最好的事情就是承诺自己会做得更好,那我愿意接受它。
版权声明:本栏目内容由《纽约时报》提供版权。