“阿西莫夫三定律”与技术伦理
2020-11-17本刊编辑部
著名的科幻作家阿西莫夫研究了以往机器人题材的科幻小说,总结出机器人学三定律:第一定律提出,机器人不得伤害人,也不得见人受到伤害而袖手旁观;第二定律明确,机器人应服从人的一切命令,但不得违反第一定律;第三定律指出,机器人应保护自身的安全,但不得违反第一、二定律。
一些技术乐观主义者认为,有了机器人学三定律,人类对技术创新特别是人工智能技术创新安全性问题的担忧就可以打消了。然而,他们对技术异化的警惕性远远不够。
技术是对科学成果的实际运用,原本是为人类追求美好生活而服务的,但是在缺乏伦理约束的情况下,它却可能成为控制人类的工具。众所周知,自工业革命以来,技术进步促进了人类社会的大踏步发展。但是,人类也曾经多次利用技术成果摧毁了无数的生命。
战争往往充当了催生技术革新的温床,而技术则是诱发大规模战争的工具。从近代国际关系史来看,许多先进技术最早都是用于战争的。这是技术异化最初的表现。然而,当今的技术已经发展到这样一种程度:它可以取代人类从事大部分的体力劳动,甚至是相当一部分的智力劳动。在这种情形下,技术不是被直接用于摧毁人类,而是可能通过人工智能将人类一代一代地“淘汰”,而且重点是从智力劳动上对人类进行“淘汰”。按照马克思主义经典作家所说的,劳动创造人本身。而在劳动成为奢侈品的社会条件下,不劳动自然会“淘汰”人类自身。
上述三定律并非是一种“实然”,而是一种“应然”。以“应然”所预设的定律为前提,来推进技术创新尤其是当今世界流行的“可信人工智能”,真的能可信吗?技术的“可信性”并不能代替技术的伦理。技术的“可信性”主要表明技术的成熟性,而技术伦理则包含着技术异化所带来的伦理风险,也蕴含着技术专家在发明创造过程中存在的伦理问题。如果忽视了技术伦理问题,那么未来的世界,将可能是由少部分技术专家借助技术而掌控人类的世界。
因此,技术专家在进行技术创新特别是人工智能创新的同时,必须接受社会伦理的严格检验,接受人类伦理的充分规训。否则,人类将有可能从当前“不确定性”的风险社会走向“确定性”的风险社会。