史蒂芬?霍金
2017-01-18
作文与考试·初中版 2017年2期
成功创造人工智能将成为人类文明史上最重大的事件。然而,这也有可能成为最后一个重大事件——除非我们学会如何规避风险。
——[英]史蒂芬·霍金
在剑桥大学“莱弗休姆的未来智能中心(LCFI)”成立庆典上,现代最伟大的物理学家之一的史蒂芬·霍金就人工智能(AI)发表了演讲。近年来,人工智能得到各国政府的重视,但霍金一直声称应该持谨慎态度,人类有可能会因自己建立的智能而灭亡。他在演讲中说,人工智能技术的确有希望带来巨大福利,比如根除疾病和贫困,但它同样可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。而且“人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施”。人工智能领域里的许多先驱都提出了人工智能的风险问题,硅谷“钢铁侠”马斯克就曾与霍金一起,建立了人工智能防范联盟。如今的LCFI的一项重要使命就是化解AI风险,霍金和有识之士一起,希冀能为人类的未来添置一道安全屏障。
[适用话题]人工智能;事物的两面性;利与弊……