探索智能互联时代的计算创新
2020-11-28宋继强
随着无线通信技术和人工智能技术的广泛应用,现在信息世界里的数据呈现了三大变化。
第一,数据量呈指数级爆发。
第二,数据形态日趋多样化。
第三,对于数据实时处理的需求快速增长。
为了应对这些变化,未来十年,架构创新将成为计算创新的关键驱动力。
目前,主流的计算架构有四种:标量、矢量、矩阵、空间。
标量是指一个一个去计算数据,有前后的顺序;矢量是指把一组数一起做,比如把两个数组直接相加或相乘;矩阵是指把3×3或8×8这类的矩阵数据同时做运算;空间是指这些数据本身有很强的稀疏性,对它的处理需要采用特殊的方法。
现在,人工智能领域的数据处理,至少是矢量级别的,很多是矩阵的,甚至在某些应用场景中需要运用空间数据结构来加速计算。
把四种计算架构整合在一起,称为XPU超异构计算,X代表有多种可能性。
超异构是什么概念?
在传统异构领域,传统的SoC做法是把不同的计算能力或不同计算架构整合到一个单芯片上;或者把不同的芯片,比如CPU、GPU、FPGA整合到一个板上,进行板级的整合,这是另外一种异构计算。这两种异构计算各有优劣势。
超异构计算希望把这两种异构计算的优势集中在一起,而把他们的不足之处去掉。也就是说,我们可以把已经做好的多种不同架构的芯片单元,通过异构封装的方式组合到一个芯片里面,然后把高性能芯片之间的传输通道建立起来,这样可以把很多不同架构的芯片整合在一起,在小空间、低功耗的情况下提高计算的能效比。
我们认为,在架构方面还需要有更多的探索。现在常用的架构有两种,一种是标准计算,一种是深度神经网络。
标准计算是在知道问题和知道如何建模的情况下,用流程图的方式把处理问题的步骤表示出来,然后去编程,由人工选定怎么做。
深度神经网络是在我们知道输入的数据是什么和数据会产生什么结果的情况下,用深度神经网络模型进行训练,训练出一个符合解决特定任务的架构和模式。
我们把标准计算和深度神经网络整合到一个架构,从而形成了Loihi神经拟态芯片。
Loihi神经拟态芯片,把计算单元和需要的存储空间紧密地整合在一起,一个芯片里面有128个同构多核,每个核都一样,每个核里可以做1000个神经元的模型,这种芯片核可以模拟人脑神经元的结构以及数据处理和存储方式。每一个核可以和另外的999个核互相连接,构造类似人脑里面的突触结构。最终,一个小的芯片可以模拟人脑的13万个神经元,并且可以产生1.3亿个突触,这是一项针对比较复杂的神经网络的突破。
Loihi神经拟态芯片体积小、能耗低,是真正的“绿色”芯片,它助力AI从2.0时代向3.0时代迈进。
AI2.0时代利用数据驱动,做端到端的学习,构建针对学习数据量比较大时的好用模型;在AI3.0时代,我们希望AI能够完成逻辑的自洽,可以通过少量的数据去自主学习,不一定需要非常大量的数据,因为很多领域的大数据不容易获得。
Loihi凭借其灵活的架构,可以支持多种事件驱动的学习模式。比如,常规使用的无监督学习模式,这是在2.0时代深度学习中非常常用的模式。
自监督学习是关联不同的事件,产生出因果关系强化学习,利用观察到的事件和作出的决策之间的关系,去反复做迭代,优化出一个好的决策方案。
2017年,Loihi系统推出第一个单芯片,随后其规模逐渐扩大。目前,我们能够用768个芯片集成在一个大的系统里,这样可以提供接近1亿个神经元的规模。
这是硬件的规模,还需要很多软件和算法,才能实现Loihi系统的智能。英特尔成立了一个面向全球的研究社区,把大家聚合起来,共同推动这个领域的发展。
现在,我们可以提供计算的平台和能力,不仅可以提供在设备上直接使用的能力,而且还可以提供在云端使用这些服务和测试系统的能力。
对于崭新的硬件架构,编程对它能力的释放非常重要。如果把它们统一做成一个异构系统,如何让开发者或科研人员更方便地去使用?于英特尔而言,这件事情非常重要。
当前,数据变革催生多元化计算架构,未来,架构创新将成为计算创新的关键驱动力。英特尔将持续推动超异构计算,大跨步迈向智能时代。
英特尔通过创造改变世界的技术来造福地球上的每一个人,我们希望通过异构计算,通过开源的技术和平台,让新的技术快速覆盖到全球,产生造福人类的技术。