学会做一个AI低语者
2024-01-24Scofild
Scofild
人与AI(人工智能)配合将会比人自身更强大。比如,士兵+AI、医生+AI,还可以把AI当成教练。如今,像ChatGPT这样的聊天式工具,适合成为“实习生”。
“实习生”能帮我们做什么呢?可以帮助人们解读各种法律条文;可以帮助作家对初稿进行核对、查漏补缺;可以帮助教师制订教学计划等。但因为它是实习生,它返回的结果不能直接使用,需要我们对它的工作进行核查。
有人会问,这样AI不就替代了人类的工作吗?不是的,AI并非取代人类已有的工作,而是完成那些做起来太麻烦的工作。比如,人工智能创作的艺术作品,不是为了替代人类艺术家所创作的艺术作品,而是填补目前不存在的艺术创作或创作的内容过于单一的领域。一言以蔽之,这不是取代,这叫填补空白。
但是要注意,“AI”这个实习生总会有取中间值的倾向。比如,最佳创意和最差创意,AI会倾向于中间位置,因为往往中间值是最保险的,就像群体智慧一样,它是温和的,当然,也是平庸的。所以,在使用AI做助手的时候,要学会“强迫”它做得比平均值更好。
这是一项技能,有的人花了上千小时和AI对话、磨合,就是为了让它生成更好的结果。而现在已经产生了针对这样的工程人员的工作需求。
那么,到底如何让AI产生更好的结果呢?我们可以调整AI的思考方式。比如,让它找两个几乎没有关联的事物的中间事物:一个西瓜和一只蜘蛛,中间物是什么?通过这样的提问,AI可以生成富有创造性的图片。和AI合作,绝不是点击一下鼠标,让它生成图片就可以了。即便通过AI获得一幅高质量作品,我们依然要花费大量时间,必须不断地与它沟通,跟它低语。
设想未来,你的工资待遇可能取决于你与AI实习生合作的熟练程度,或者你能与多少种AI实习生共事。你的简历上可能还要加上一条:我擅长使用“某个AI工具”。
这一次AI热潮并不是因为在科技上取得了巨大进步,而是AI技术通过对话界面,从幕后走到了台前。今天你看到的AI做的这些事,至少5年前就已经做到了,只不过它在高墙之后,普通人没有发现。这个逻辑和互联网诞生之初一样。那时候互联网并不实用,需要学会敲代码才能和它交互。当图形界面出现后,普通人才用上了互联网。
如今这股AI浪潮正在席卷各个领域,大量的初创公司就在做这件事,未来手机、智能设备等各种终端,都会拥有AI交互界面。那么,继AI交互界面之后,下一个需要添加的功能是什么?答案是情感。
通过加入情感模组,AI可以带着情感和人类对话。你可能会疑惑,赋予AI情感功能有什么用?原始情感是非常有用的,比如痛觉。和人类一样,机器人或者AI有痛觉才会自我保护,不会轻易损坏。从AI交互界面到情感,很容易想到道德。
然而不幸的是,AI可能会有偏见,展现出人类最不堪的一面。因为用来训练它的数据是基于人性的平均值,这个平均值并不高尚。所以,为什么我们不创造一个具有更高道德水平的AI呢?不是不想,实为不能。
这里说的不能,并不是指技术上的瓶颈,真正的瓶頸在于,人类并不清楚比人类自身的道德更高的道德是什么样子。我们目前没有一套完整的、合理的、公正的伦理标准,可以应用于人工智能和机器人。这是人类的瓶颈,不是开发AI的瓶颈。
至于人类,我们是谁?我们想成为怎样的人?如何让我们的子孙后代比我们更优秀?这是未来100年甚至更久的时间内需要我们持续探索的问题。这个过程可能会引发一场人类的身份危机,我们对自身的认知也会不断地改变。
就我个人而言,我希望这种探索的最终结果是AI和机器人能够帮助我们成为更好的人类。
孟德尔//摘自2023年4月15日青腾TencentX微信公众号,本刊有删节,汤圆/图