如何让机器人拥有“良心”
2024-07-10
同学们,你是否也思考过这样一个问题:当机器人越来越多,它们会不会在未来的某一天像科幻电影、动画片里上演的那样,有“好”“坏”之分呢?
毫无疑问,人们都渴望世界上有更多的“好”机器人。那么,什么样的机器人才是大家希望拥有的“好”机器人呢?
请你试着想象一下:家里的扫地机器人不仅能帮你打扫房间,而且能在你难过时给你一个温暖的拥抱;你的智能手表不仅可以用来打电话,还能适时提醒你休息,保护你的身体健康;又或者当他人在利用机器人破坏环境时,机器人会勇敢地说“不”,维护世界的美好……
是的,一个“好”机器人,一方面要性能“好”,它可以智能地完成既定工作。比如扫地机器人可以在人类干预最少的情况下,用最短的时间把地面清扫干净。这种“好”被称为工具意义上的“好”。另一方面,“好”机器人还应该明善恶、知对错。当机器人意识到自己的行为会对人类造成伤害,而且在危害发生前提醒人类使用者,或者主动取消行为,这就涉及伦理道德意义上的“好”了。
总结起来就是,“好”机器人除了能够智能地完成既定的工作任务,还能够根据自己的行为来评判是否会给人类带来伤害。如果会引起伤害,机器人必须要监督和约束自身的行为,采取措施避免不想要的结果。
相信看到这里,有许多同学会问:“有没有一个办法,确保人工智能机器人能安全地为人类所使用,且不会伤害人类?”
实际上,在智能机器人出现之前,人类就思考了“机器人如何与人类和谐相处”的问题。许多科幻作品里面都有过这种思考,最具代表性的是,多年前科幻作家阿西莫夫在《我,机器人》里提出的“机器人三定律”——这可以说是最早的关于人工智能安全和伦理学的讨论。
下面我们一起来看一下这三条定律吧!
第一定律,也被称为“保护人类定律”:机器人不得伤害人类个体,或者因不作为而使人类个体受到伤害。
第二定律,也被称为“服从命令定律”:机器人必须服从人类给予它的命令,除非这些命令与第一定律相冲突。
第三定律,也被称为“自保定律”:机器人在不违反第一、第二定律的情况下,必须保护自己的存在。
随着思考的深入,在后续的科幻作品中,阿西莫夫还引入了“第零定律”,也被称为“整体利益定律”,它要求机器人不得伤害人类整体,不可以因不作为而使人类整体受到伤害。并且这一定律优先级高于其他所有定律。
大家有没有发现,这四条定律构建了一套逻辑严密的行为准则,它们是用来确保机器人的行动始终以保护人类安全和福祉为目标。尽管它们是虚构的文学设定,但阿西莫夫的机器人定律促使人们进一步思考如何在机器人发展中融入道德规范,以预防潜在的风险。
也就是说,要让这些聪明的机器人朋友懂得什么是对的,什么是错的,就像动画片里的机器人英雄那样,需要让它们拥有一颗明善恶、知对错的“良心”。可是,怎么样才能做到呢?我们如何设计和人类一样有道德意识的机器人呢?对于这个问题,不同的研究人员有不同的想法,让我们一起来看一下吧!
一种思路是——定好规则。就像我们人类做事要遵守规则一样,我们也可以给机器人设定基本的“规则”,比如“不能伤害人类”“要帮助人类”等。这样,机器人在执行任务时就会遵循这些规则。这种方法的重点是在进行机器人设计时尽可能地预估各种可能出现的情况,并且提供具体规则给机器人,机器人需要做的就是计算它的行为是否被规则所允许。
但在通常情况下,我们很难预估所有的情况,因而就产生了另外一个思路——让机器人学习。一方面,我们可以让机器人从过去的经验中学习。比如我们给机器人看很多故事,告诉它在这些故事中,哪些行为是好的,哪些行为是不好的。这样,机器人就能慢慢地学会如何做出正确的选择。另一方面,我们可以创造一个学习的模拟环境,让机器人在里面尽可能遇到各种各样的情况,看看它会怎么做。如果机器人做出了错误的选择,我们就及时纠正它,让它下次做得更好;如果它做得很好,我们就给它一个奖励。这样,便可以慢慢地发展出机器人的道德原则。不过,就可实现性而言,这种方法也存在难度。主要的困难在于,模拟环境不可能完全还原出真实的世界。
为此,有研究人员提出,把以上两种方法结合起来,采用混合式的方法来帮助机器人发展出明善恶、知对错的能力。
虽然以上这些方法都还在探索中,但是人类已经渐渐地认识到:机器人设计者和制造者的价值观将对整个社会和机器人的发展进程产生深远影响,只有当设计和发展进程在充分考虑道德问题的前提下进行,机器人才会真正地明善恶、知对错!
赵晶晶老师寄语:同学们,如果你有志向成为一名机器人专家,请一定要记得,为机器人安上一颗“良心”哦!