机器人面临的十大紧迫挑战(下)
2016-07-27林明春
林明春
(接上期)
六、预测人类行为
在美剧《摩登家庭》中,机器人女仆罗茜不仅能够对话、做饭、打扫房子,而且还能迎合主人乔治的需求。在该剧第一季的第一集有这样的场景:乔治的老板斯佩斯利先生到乔治家里吃晚餐,晚餐结束后,斯佩斯利拿出雪茄后,罗茜就跑过来给他点上。这个简单的动作表现了一个复杂的人类行为——即,根据刚发生的事情来预测接下来会发生什么事情的能力。
就像欺骗一样,预测人类行为需要机器人去想象一个未来的状态。它必须有这样的能力:“如果我们观察到一个人在做X事件,然后在这个事件的经验基础上,我可以预测他/她接下来可能会做Y事件。”这对制造智能机器人来说是一个巨大的挑战,但是科学家一直在为解决这个挑战而努力。美国康奈尔大学的一个研究小组已经开发了一个自主的机器人,这个机器人能根据环境中的对象互动来做出相应的反应。它先用一幅3D摄像机来获得周围环境的图像,接下来,机器人的“大脑”从混乱背景中识别关键对象并将其隔离。然后,利用从先前的培训课程中收集的大量信息,机器人在与它所要接触到的对象互动的基础上,产生了一系列可能的预测并做出最好的预测:即,接下来会发生的行为是什么。
虽然康奈尔大学的机器人在某些时候仍然会猜错,但是在相机技术与算法的不断改善下,它们在稳步地进步。
七、与同伴的协调
如果你要完成一项复杂而又庞大的工作,你是否觉得打造一个功能繁复的机器人太麻烦,从而更愿意部署更小、更简单的机器人军队,然后协调它们完成复杂的任务?
但这就带来了一个挑战:一个机器人在一个小组内工作需要准确定位自己与队友的关系,并要进行有效的沟通与互动。为了解决这些问题,科学家转向昆虫的世界,在这个世界里,昆虫能够通过复杂的群体行为来寻找食物和完成整个群落的任务。例如,通过研究蚂蚁,研究人员知道蚂蚁个体利用信息素与彼此交流。
机器人可以用同样的“信息素逻辑”,它们依赖于光或是红外线而不是化学物质来交流。它们的表现就像这样:一群微小的机器人分散在一个限定的区域,都在随机地探索这片区域,当一个机器人探索到离开的出口,它就留下一道光线踪迹。下一个机器人探测到这道踪迹,知道跟着这条踪迹来做一样的运动,并在它离开的时候留下自己的光线踪迹。当这条踪迹不断被加强,就会有越来越多的机器人找到这条踪迹并继续加强。
一些研究人员还发现使用声波信号也能成功进行这样的实验,因为声音可以被用来确保个体机器人不会走太远或者可以像人类一样被声音吸引到一块。
八、自我复制
上帝告诉亚当和夏娃:“生养众多,遍满地面。”一个机器人收到同样的指令可能会觉得很困惑或很受挫。因为制造机器人是一回事,制造一个可以自我复制或能再生丢失或损坏的组件的机器人又完全是另一回事。
有趣的是,机器人不会寻求类似人类的有性生殖模式,因为这样的生殖模式实在是太复杂。但是,简单的动物进行的无性繁殖就很神奇:以水螅为例,一个小囊气球从母体中分离出来,然后破开后成为一个新的,基因完全相同的个体。
科学家正在机器人身上实施这一基本的克隆程序。这些机器人由重复的元素制造的,通常是多维立方体,这些立方体中包含了相同的机械和自我复制的程序,是可以被分离的,并且功能不会被改变。而且立方体的表面有磁性便于机器人分离身体的元素,这些立方体沿着对角线可以被分成独立旋转的两块。而一个完整的机器人由特定排列结构的几种立方体组合而成,只要提供立方体,一个简单的机器人就可以像水螅一样,分离出另一个具有相同特征的机器人。
九、基于道德原则的行为
我们每天都要与人互动,还要做出数以百计的决定。在每个决定中,我们要衡量我们的选择是否正确,是否公平公正。如果我们希望机器人也能像我们一样,在做决定的时候考虑是非对错,那它们就需要理解伦理道德。
给机器人定义道德行为也是一个巨大的挑战,主要是因为一组通用的、被普遍认可的道德原则并不存在,不同的文化有不同的行为规则和不同的法律体系。尝试着去制定一个有关全球的伦理道德准则,再让机器人去学习几乎是不可能的。
不过,研究人员可以把道德问题局限在某个具体的情境下来让机器人理解。例如,一个局限在特定环境的机器人——比如在厨房或者是病人的房间里,可能只需要少量的规则学习,就可能合理的做出良好的道德决策。机器人专家选择了一些日常行为案例,并将其中的道德选择信息编入一个机器学习算法。这些选择是基于三个浮动标准的:一个动作会有多好的结果,它能预防多少伤害以及如何衡量公平。然后用算法输出一个伦理道德原则,这个原则能在机器人做决策的时候用来作为依据。正如在《超能查派》中,“查派”的道德观念是需要人类的教导,归根结底,还是人类的自我道德标准影响了机器人的道德行为。所以,要想机器人能做出良好的道德选择,人类必须先自我检视自身的道德尺度。
十、感觉情绪
“世界上最美好的事物是不能被看到或触碰到的。那是要用心去感受的。”如果海伦·凯勒的这个观察是真实的,那么机器人将注定错过这最美好的事情。毕竟,它们擅长的是感知周围的物质世界,而不能把传感数据转变成特定的情感。它们不能看到爱人的微笑,不能感受快乐,也不会看到人们扮鬼脸而被吓到。
这也许是人类与机器的最为明显区别。试想一下,你如何能教机器人坠入爱河?你如何用程序表现出受挫、厌恶、惊奇或是遗憾等情绪?这些在机器人身上值得一试吗?
有一些科学家认为是可以的。他们相信未来的机器人将会整合认知情感系统,这样,他们就能够更有效地与人类交互学习。不管你信不信,已经有原型能表达有限范围的人类情感。Nao是由一个欧洲研究小组开发的机器人,它已经具备一岁小孩的情感素质了。它可以通过姿势和手势的结合来表达快乐、愤怒、害怕或骄傲等情感。这些展示的行为来自于黑猩猩和人类婴儿的研究,然后被研究人员编程到Nao的大脑中,但是机器人表达哪一种情感是根据它与附近的人们或对象的交互来决定的。在未来的若干年,许多像Nao一样的机器人也许会成长到成人一般的情感专家,到那个时候,它们会在不同的环境中工作,例如医院、家和学校,在那里它们能够进行正常的人类行为,能教书,能诊病,与人类和谐共处。
如果机器人面临的这些挑战都解决了,是不是就能开发出像“查派”一样聪慧的机器人呢?你也许会发现,这些挑战都有一个共同点,那就是都需要思维能力。人工智能专家认为,人类大脑的归纳推理能力是能实现机器人真正自主思考的自主系统的关键,“查派”正是拥有这种能力,才能从它所经历的事情中改变自己,形成独特的自己,喊出了那句“我是查派”。现在人类还没有实现这种愿景,但是已经正在不断朝这个目标前进,如果真正的自主系统出现,想象一下,那是一种怎样的情景!