APP下载

AI“奇点”尚未到来

2020-08-28

中欧商业评论 2020年8期
关键词:奇点算力图像识别

4年前,当AlphaGo打败顶尖棋手李世石之后,世人都在担心,机器替代人类的“奇点”时刻即将来临。现实却是,AI降温的速度比热潮来得更快。深度学习的计算需求呈指数级增长,以至于自动驾驶等产业的AI进程慢于预期。

麻省理工學院的研究科学家尼尔·汤普森在最新一篇论文中指出,近年来,AI的进步令人眼花缭乱,但接下来的进步将取决于能否投入更多的计算资源,以相同的速度提升计算能力已经远远不够,将拖累AI在计算机视觉、自动驾驶、翻译和语言理解等领域的进一步发展。例如,如果想要将英语转法语的机器翻译算法错误率从目前的50%降至10%,计算能力需要有数十亿倍的提升。

在过去的10年中,AI对计算的需求显著上升。2012年,多伦多大学的一个研究团队在5天内使用两个GPU(一种特殊的计算机芯片)便可以创建出一种突破性的图像识别算法。到了2019年,谷歌和卡内基梅隆大学的研究人员花了6天时间使用大约1 000种特殊芯片(每个芯片的功能比早期的GPU强大很多倍)才能开发出更现代的图像识别算法。以谷歌在2019年开发的一种翻译算法为例,需要大约1.2万个专用芯片持续运行一周,云租用这么多的“算力”将花费300万美元。

OpenAI的一份报告显示,自2012年以来,在大规模的人工智能训练中所使用的计算量呈指数级增长,3.5个月的时间翻一倍,相比之下摩尔定律的倍增周期长达18个月。Facebook的AI研究实验室负责人杰罗姆·佩森蒂说,AI研究人员开始感受到计算紧缩的压力,算力资源的局限将减慢AI在多个领域的发展,获得人为水平的绩效将比预期要昂贵得多。

在最近的一些演讲和论文中,从事大型前沿AI项目的研究人员纷纷抱怨,随着技术难度的挑战越来越高,需要投入的资源也越来越多,由于成本太高,他们无法测试多个算法设计或重新运行实验。按照这个趋势,想要满足未来AI发展的需求,芯片行业势必要有所变革。芯片组件小型化的进步仍在继续,同时专用的新型AI芯片可以更有效地运行深度学习计算。

猜你喜欢

奇点算力图像识别
杭州“算力小镇”
基于计算机视觉的图像识别技术研究
智能计算浪潮迭起
边缘计算与算力网络专题导读
趣谈一笔画
秋夜里的歌唱家
蜇人后会死的蜜蜂
计算万物 算力之下要有坚实的地基
人工智能背景下图像识别技术浅析
基于字典学习的正则化鲁棒稀疏表示肿瘤细胞图像识别