英特尔助推数据变革进入关键“赛点”
2020-03-16程梦瑶
程梦瑶
如何构建技术基石,驱动未来计算?在对这个问题做出的解答中,我们不难发现,英特尔在革故鼎新中,进入数据和计算变革的关键“赛点”。
随着信息技术的发展,数据在国民经济运行中越来越重要,数据不但能促进生产效率,很多时候,其本身就是生产力的重要组成部分,是推动新兴产业发展的基础。
党的十九届四中全会提出,健全劳动、资本、土地、知识、技术、管理、数据等生产要素由市场评价贡献、按贡献决定报酬的机制。这是党中央首次提出将数据作为生产要素参与收益分配。
数据将成为生产要素
未来,数据将作为新生产要素从投入阶段发展到产出和分配阶段,标志着我国正式进入数字经济“红利”大规模释放的时代。在此重大发展契机下,数据作为生产资料参与分配,将激活数据价值,驱动产业革新。
在过去30年间,数据发生了三次重要的转变:20世纪90年代,数据以纯PC计算形式为主;2000年之后,数据进入了PC计算、服务器、Web2.0时代;2010年之后,覆盖手机、汽车、云计算、IoT、区块链、智能生活、自动驾驶等,计算变得无处不在,数据也为我们叩响了新世界的大门。
人们对于数据的认识可分为三个阶段:数据资源阶段、数据资产阶段和数据资本阶段。数据的价值发挥在于汇聚、打通及利用,归根结底,只有实现了数据的流动,才能在互联互通的世界里最大程度地释放数据价值,这将对全产业发展起到至关重要的作用。
在推动数据走向分配、流通的过程中,以5G、区块链、人工智能等为代表的新兴技术,将充分发挥其效能,为数据资产化管理过程中所涉及的数据产权、数据定价、数据收益归属、数据隐私保护、跨境数据流通等重要问题提供技术支撑,同时,也将推动数据在各行各业中的应用创新,助力产业变革。
从数据量来说,根据IDC的报告,全球数据正以25%增速呈指数级增长,数据量快速产生并释放。从数据类型来说,由于产生来源不同,数据的形态日趋多元化,变得越来越复杂。由此,数据的规模和复杂性远远超出了当前分析、理解这些数据的能力,数据促使计算方式发生变革。然而,未经处理的数据毫无价值,只有将数据转化为业务价值,才能创造新的服务和体验。
以数据为中心 掌握主动权
从“以PC为中心”到“以数据为中心”转型,是英特尔做出的最为坚定,也最为重要的转变。自2015年开始,英特尔洞察数据发生的颠覆性变化,并提出“数据将改变未来计算格局乃至整个世界”的预判。自2015年收购Altera起,英特尔先后收购了Nervana、Movidius、Mobileye、eASIC、NetSpeed Systems、Habana Labs,成为收购最频繁的科技巨头之一。
2017年英特尔便确立了“以数据为中心”的转型目标,围绕着“以数据为中心”英特尔在战略发布、战略收购、产品创新、生态合作四个方向上频频发力,在产品和技术上实现了更丰富的计算能力。
根据Q3财报,英特尔以数据为中心业务营收已与PC业务持平,仅刚刚过去的11月,英特尔就连续发布了Nervana神经网络处理器NNP、Movidius Myriad视觉处理单元、基于Xe架构的通用GPU等令人振奋的产品,可以说英特尔通过丰富的产品布局已经牢牢掌握了下一个全新计算时代的主动权。
在英特尔中国研究院院长宋继强看来,面对近千亿智能设备所产生数据的多元化计算需求,任何单一的计算形态都不足以满足这项规模宏大的挑战,“人工智能、5G、边缘计算是当今三大转折性技术领域。这三项技术的交汇与叠加催生了终端计算、边缘计算、云计算形态的变化,包含CPU、GPU、AI、FPGA在内的异构计算渐成趋势。”
革故鼎新,成就变革先锋
如何构建技术基石,驱动未来计算?在对这个问题做出的解答中,我们不难发现,英特尔在革故鼎新中,进入数据和计算变革的关键“赛点”。
2018年,英特尔提出了“六大技术支柱”战略,从制程和封装、XPU架构、内存和存储、互连、安全、软件这六个方面确立了如何驱动未来的创新。
其中,作为英特尔“软件先行”战略的重要体现,oneAPI最重要的作用是统一和简化跨架构编程,将CPU、GPU、AI、FPGA等关键技术打通连接,使它们可以按照需求进行灵活组合,从而为客户提供跨架构、跨平台的组合式解决方案。而异构整合EMIB和Foveros及今年7月推出的Co-EMIB技术则从封装这个角度展现了英特尔基于六大支柱的创新能力。由该技术打造的Lakefield成为英特尔基于六大技术支柱探索超异构计算的开端。
2019年11月发布的Aurora(极光)超级计算机架构由史上首个百亿亿次级GPU打造,并得到7nm、Foveros 3D封装加持,充分展现了超异构计算的完整愿景。配合英特尔原本在固态存储、傲腾、3D NAND等方面的技术积累,英特技术能提供多元化的计算需求,完整构建了数据处理、存储和传输的全方位解决方案。
近年来,英特尔持续投身前沿科学,探索未来计算脉络。
人脑的能耗只有20瓦,仅用其中的部分能耗,人脑就能书写、绘画,可以较为轻松地识别分析很抽象的事物和情感,这是目前标准通用计算无法做到的。
怎样将数十千瓦能耗的计算降低到人脑这种20瓦的水平?必须打破原有的规则,于是神经拟态计算来到人们视野。英特尔在2017年推出了Loihi神经拟态芯片,它内置了128个核,拥有13万个神经元和1.3亿突触,还包括了片上存储结构,能提供高度复杂的神经网络拓扑,支持多种学习模式的扩展和片上学习能力。Loihi系统部署学习机制后,它将边工作边学习边自行改进,这已经在向人脑的运行模式去靠拢。
目前神经拟态的应用领域还相对比较集中,体现在智慧工厂、恶意软件检测、自适应假肢等方面。
为了推动神经拟态的研究,英特尔牵头全球领先的大学、世界500强企业、政府实验室和各类初创公司约75家组织共同在INRC神经拟态研究社区开展合作。英特尔的神经拟态芯片、工具将与学术界、产业界共同合作推动前沿进展。
此外,在量子计算领域,英特爾引领了量子计算前沿领域的突破。
量子计算是近几年兴起的新兴领域,量子计算要达到的目的通常是处理那些标准计算无法解决的大规模计算问题。
当然量子计算想要实现并不容易,量子计算中量子跃迁所需要量子位是脆弱的,跃迁结果难以被测试,也很容易受到条件因素改变而改变。同时,量子位是不容易叠加新的态,或者让多个态之间进行纠缠的,如此一来量子位缺少数量优势,难以实现量子计算爆发的效率优势。制造更多的量子位,解决量子位的纠错,解决量子位之间的连接和测试问题,这是庞大而又系统性的工程。
量子计算不管是创造更多的量子位还是监测量子跃迁状态,都需要在可测试的条件下进行,所以英特尔目前所做的主要是在不影响量子位和跃迁状态的情况下对量子位进行测试。以此路径,英特尔带来了首款49量子位超导量子测试芯片“Tangle Lake”,并打造了全球第一台低温晶圆探测仪,它也是目前量子计算首款测试工具。
在刚刚过去的12月,英特尔推出首款低温量子位控制芯片,令量子位达到量子计算所需要的叠加态、纠缠态,可实现-269摄氏度低温环境下工作。
坚持“以数据为中心”,英特尔完成了自我转型,得益于六大技术支柱,英特尔能够为业界提供领先的技术实力,构建数据处理、存储和传输的完整解决方案。
手握“赛点”,在数据时代,英特尔成为了数据和计算变革的先锋。