2000科学家集体宣誓:禁绝杀人机器人
2018-05-14
日前,来自数百家公司的2000多名科学家联名签署宣言,宣誓绝不参与致命性自主武器系统的开发、研制工作。这是学界针对“杀人机器人”最大规模的一次集体发声。人工智能AI与人类的命运,再一次因为自主武器而被推上了舆论风口。
“硅谷钢铁侠”埃隆·马斯克(美国太空探索技术公司SpaceX创始人)是当今科技界的明星,就连日前泰国洞穴救援遇到困难,网友们都第一时间想到向马斯克求助。在大多数人的眼里,马斯克始终走在行业前列,善于发明创造,如果说谁最能接受新生事物,马斯克应该会是很多人的答案。
然而,面对如今炙手可热的人工智能AI,马斯克却几度发声,对AI可能带来的恶果表示担忧,成为AI悲观派的代表人物。日前,在瑞典斯德哥尔摩举办的2018国际人工智能联合会议上,来自数百家公司的2000多名科学家联名签署《致命性自主武器宣言》,宣誓绝不参与致命性自主武器系统的开发、研制工作,马斯克也名列其中。
这也是学界针对“杀人机器人”最大规模的一次集体发声。AI与人类的命运,再一次因为自主武器而被推上了舆论风口。
危险的AI,马斯克多次警告
来自数百家公司的2000多名科学家,其中许多是机器人和人工智能领域的著名的研究人员和工程师。他们承诺:在世界上的任何一个国家,自主武器都对公民构成了“明显而现实的危险”。
马斯克也多次在公开场合表示,人类发展人工智能的过程是在召唤恶魔。他警告说人工智能可能比禽流感可怕得多。这并非他临时起意,他已反复在多个场合表达对人工智能的担忧,在社交网络推特上他则表示“人工智能可能比核武器更加危险,未来人工智能可能会毁灭人类”。
马斯克认为政府监管可能是一个好办法。“人工智能就是我们生存的最大威胁。我越来越倾向于事情要有一定的监管,在国家和国际层面确保我们不会做一些很愚蠢的事情。”
AI在军事系统中扮演越来越重要的角色
一年前,马斯克和谷歌AI专家苏莱曼等116名全球人工智能和机器人领域的专家就曾联名发表公开信,呼吁联合国采取行动禁止自主杀人机器,称其为“恐怖武器”。专家们认为,AI越发达,机器越厉害,杀伤力就越强。就算机器程序是人类编出来的,面对越来越强大的人工智能,人类控制机器的力量越来越有限,而心怀鬼胎的人利用机器带来的破坏力就越来越强大。
所以,随着AI在军事系统中扮演越来越重要的角色,区分AI可接受的用途和不可接受的用途变得更加迫在眉睫。自主杀人武器就像一个潘多拉盒子,充满了诱惑,“一旦这个潘多拉的盒子被打开,就很难再次关上”,专家们警告说。
美国政府在全球范围内使用升级的军用无人机后,工程师和科学家们警告说,自主机器很容易受到黑客的攻击,它们可能被劫持,进而攻击无辜的人群;并且,它们不可避免地很容易就会被恶意攻击者获得,或者恶意攻击者能够自己制造这类武器。
为了演示在自主杀人武器的威胁下的生活,发起这次宣誓行动的生命未来研究所协助制作了一个名为“Slaughterbots”(《屠杀机器人》)的影片,视频中的一个片段描绘了数千名大学生被杀人机器人屠杀的景象。这些学生在社交媒体上分享了一段揭露腐败的视频后,被不知名的“黑影人”盯上,机器通过面部识别系统识别学生的身份,进而实施屠杀。
《致命性自主武器宣言》签署后,签署者将进一步敦促8月联合国会议针对自主武器问题在各国之间达成一致承诺,促使各国禁止自主武器研发。
对“杀人机器人”的担忧是多余的吗
马斯克对于“杀人机器人”的担忧不外乎三種情况:一是机器成为一个新物种,具有进化能力,具有自我意识之后与人类成为敌人或者对手;二是人工智能在一个引爆点到来时失控;三是人工智能被“坏人”利用来对付人类自己。
马斯克的担忧不是多余的,然而,纵观人类历史,每一项革命性技术出现总会受到抵制,或者说恐惧。
1814年,美国工人斯蒂芬发明了蒸汽机车,便遭到传统势力的反对,有人讥笑它不如马车好,说它声音让牛吃不了草、产不了奶,鸡鸭也因为受惊下不了蛋,烟气有毒能杀绝飞鸟,火星四溅能引起火灾,要是万一气锅爆炸,乘客小命不保。同样核能出现之时更是有人惊呼,世界末日就要来临。
新技术在让世界更美好的同时,确实蕴藏着一定的风险,或者会带来负面作用,甚至一些新技术本来就是怀揣着“恶意”的目的去研发。而此时此刻每个人都在使用的互联网还存在着信息失控、信息泛滥、隐私泄露这些消极影响。
人工智能跟上述技术并没有什么两样。人类既然有智慧去创造新技术,便应该有信心去驾驭它。
世界上有乐观主义者,也有悲观主义者,关于机器人或者人工智能是否会消灭人类的争论一直无休无止。人们对新技术的恐惧不一定是无知。对未知的恐惧和对潜在危险的忧虑,是人类本能。当然,有时候新技术遭致抵触是因为触犯了一些人的既得利益。无论如何,抵触本身是有价值的,它让整个事情发展更加平和有序,而不是激进甚至疯狂。但任何新技术从来都不会被恐惧所遏制,人类为了更美好的明天,一直在上下求索。
(《环球科学》2018年第7期等)