AI离“禁区”还有多远?
2019-08-28
近几年来人工智能日益受到社会各界的格外关注。一方面,人工智能正在为人类带来一场前所未有的技术革命,即将彻底改变人们的生产和生活方式;另一方面,与以往科技进步带给社会的积极反应有所不同,人工智能带来的不仅仅是惊喜与期待,还有一些的担心,甚至恐惧。
目前,各界对人工智能具有特殊的发展“禁区”已有共识,但有人觉得人工智能的发展还处于初级阶段,离所谓的“禁区”还有一段遥不可及的路,这个想法有没有风险?
2016年8月,联合国相关组织发布了《机器人伦理初步报告草案》,认为机器人不仅需要尊重人类社会的伦理规范,还需要将特定伦理准则编写进机器人程序中。对人工智能的担忧还来自像史蒂芬·霍金、比尔·盖茨和伊隆·马斯克这样的科技大佬。他们都把自己对人工智能的担忧直言不讳。已故物理学家史蒂芬·霍金曾言:“创造人工智能可能是人类文明史上最伟大的事件,但也可能是最后一个。”伊隆·马斯克则发文称人工智能是人类最大的潜在威胁,可能比核武器更危险,并将人工智能的发展比喻成“召唤恶魔”。盖茨表示认可前二者的判断:人工智能软件若变得超级智能,可能会对未来的人类造成一定威胁。欧盟、英国、美国、德国、日本等国家和地区正在积极研究人工智能、无人驾驶等领域的伦理边界和规则,意在逐步实现行业和国际标准、法律的制定,并在前沿科技领域获得主动和有利地位。同时,谷歌、Facebook、微软,以及国内的BAT等互联网科技公司也纷纷发声,提出加强人工智能伦理研究和立法准备。
全球经历的前三次工业革命基本局限于对人类眼耳手脚等能力的替代和延伸,但人工智能将要模拟和复制的却是人类的大脑与智力。相对弱人工智能,强人工智能抑或复制和超越人脑的功能,技术核心表现在无限制、无监督学习能力,不仅引发严重的伦理和法理问题,很可能最终导致不可控风险。如果说前三次工业革命带来的是人类的助手,那么人工智能带来的就是人类对自我的一次惊心动魄的挑战。
继“互联网+”之后,今年“智能+”又首次出现在《政府工作报告》对坚持创新引领发展的表述中,足见国家对加快发展人工智能产业的高度重视。同时,还特别提出“加强科研伦理和学风建设”,说明在关键核心技术攻关的同时,加强伦理建设的重要性。
無疑,随着人工智能技术向纵深演进,人类将不得不面对一些“禁区”。科技的进步应该本着为人类提供美好生活的“善意”,人工智能的发展路径必须在可预见和可控的范围内才能健康持续地发展。未雨绸缪,防止心存侥幸,提早预设技术和法律红线,在人工智能迅猛发展的当下已经迫在眉睫。