少想“终结者”,多考虑“少数派报告”
2020-02-10亚历山大·弗里德曼(AlexanderFriedman)
亚历山大·弗里德曼(Alexander Friedman)
人们普遍认为,人类将会受到人工智能发展的威胁,其具体表现可能是《终结者》里的恶意机器人。然而,当进入千禧年的第三个十年时,我们正在迅速研发实打实的读心术,而没有任何关于如何控制这种技术的规则。
进化没有使我们得以读懂他人的心思,因为这种力量可能使我们这一物种走向灭绝。随着我们的远古祖先們开始群体生活以获庇护,我们大多数人学会哪些话可以说,而哪些话则不能。它构成了我们现在所谓的情商的核心部分。
然而,科技现在开始从根本上威胁这种必要的进化适应。
第一阶段已经发生在社交媒体上。俄罗斯人操纵Facebook影响2016年美国总统大选,便体现了这一趋势。而Twitter则使用户快速记录一闪而过的想法或情感,然后可能与数百万人分享,从而放大了这一趋势。想象一下朝鲜领导人如何努力地尝试去理解特朗普总统关于核武器“火与怒”的推文。这是来自新晋且不稳定的美国领导人的真正威胁,还是一时的冲动和一闪而过的念头,所以应该最好被忽略?早在双极格局的超级大国时代,就产生了标志性的美苏热线电话,以澄清双方的意图,以免由于一些误解而使世界消失于核蘑菇云下。
今天,在我们更加复杂的多极化和非对称威胁驱动的世界中,社交媒体为所有愿意使用一个巨型且未经校订的扩音器的人们提供了便利。社交媒体已成为意图破坏民主者的工具。但是,与我们现在面临的情况相比,这只是儿戏而已。
从初创企业到跨国企业集团,最近都宣布了令人震惊的创新技术,使人们能够读懂心灵。马斯克的公司Neuralink正在寻求对植入用户大脑以读取其思想的设备进行人体试验的批准。日产汽车开发了“从脑到车”的技术,使汽车能够从驾驶员的脑海中读取指令。Facebook已经资助了使用脑电波来解码语音的科学家。科学期刊《自然》上的一篇最新论文,解释了人工智能如何通过分析大脑信号来创建语音。哥伦比亚大学的研究人员,开发了可以分析大脑活动以确定用户想要什么,并通过合成器表达这些愿望的技术。
显然,这些进步可以带来真正的好处,包括帮助瘫痪或神经系统疾病的患者。早期的神经假体,例如帮助聋人恢复听觉的人工耳蜗,或有望使盲人重见光明的装置等,已经投入使用。
但是,潜在的应用有着暗黑的一面,例如使广告商能够微调其产品以满足个人的潜意识,或者使雇主监视他们的工人,或者使警察能够大规模监视公民可能的犯罪意图。一个早期的警告是,最近曝出阿联酋政府一直在使用社交媒体应用程序ToTok监视用户。如果读心术设备被黑客入侵,会发生什么?很难想象有比人脑更重要的“数据隐私”领域。
马斯克认为,大脑接口对于人类跟上人工智能必不可少。这使我们回到了菲利普·迪克的科幻恐怖故事《少数派报告》(2002年电影由此改编)。如果警察可以通过阅读脑波来“评估”一个人的意图,那么他或她在犯罪发生之前就制止犯罪,将面临何等棘手的道德、法律和社会秩序问题?
技术创新的主要挑战是,它通常需要社会花费很长时间来跟上,了解如何使用新技术,并提供适当的法律和法规框架来规范其行为。
在本世纪的第二个十年中,社交媒体从一种工具转变为具有传播谎言和操纵选举能力的平台。社会正在努力解决如何利用这项创新的优势,同时减轻其被滥用的可能性。也许,在我们甚至还没有弄清楚这一点之前,千禧年的第三个十年将使我们面临更为严峻的技术挑战。
本文由Project Syndicate授权《南风窗》独家刊发中文版。亚历山大·弗里德曼是瑞银(UBS)的首席投资官、比尔和梅琳达·盖茨基金会的首席财务官。