以终为始,生生不息
——MEET2023智能未来大会共探破局之道
2023-02-15勒川
文 本刊记者 勒川
2022年,在智能技术创新的商业落地征途之中,挑战比预想中来得更加猛烈。硬科技的终极价值,也在逆风之中更加彰显。这场大会上,十余位行业领域用他们过去的积淀积累,做出对未来的解答。
2022年是时代级机遇与挑战交织的一年。一方面我们深刻地感知到,随着硬科技创新、产学研转化、全新幂集创新周期的到来,一场关于数字化、智能化的机器革命,正在加速落地。另一方面,全球形势云谲波诡,技术创新也来到深水区,内外交织的挑战比以往来得更加严峻。
2022年12月14日,由量子位主办的MEET2023智能未来大会举行。作为国内最具影响力的智能商业峰会,MEET大会继续就智能科技的最新进展进行总结与展望。
关乎本源、关于终局的思考求解,要比以往更加迫切:科技发展的起伏周期,如何穿越?是终极场景倒推技术创新,所诞生的新场景、新物种、新应用?还是顺势而为下的新计算、新方案、新价值?抑或是以一敌百,坚定的技术创新信念者?
基于这样的行业洞察,量子位MEET2023智能未来大会以“以终为始,生生不息”为主题,郑纬民院士领衔在内的近二十位产学研行业领袖在大会现场探讨和分享了行业破局之道。
新标准、新要求、新机遇
郑纬民AI基准的设计能达到4个指标
首先开场的,是计算机系统结构这一学科泰斗,中国工程院院士、清华大学计算机科学与技术系郑纬民。毫无疑问,人工智能算力是当前人工智能领域发展的关键,此次他主要分享了他们所在团队对人工智能的三件事。简单来说,就是AI与算力基础设施的设计、评测和优化。
第一件事,提出了一种AI算力基础设施的架构和平衡设计原则。目前全国20多个人工智能超算中心基本上都采纳了他们团队的设计思想。
首先,他谈到了HPC与AI之间的不同,包括应用领域、运算精度等方面。基于此,他们提出了人工智能计算机设计的平衡性原则,包括计算平衡设计、网络平衡计算、IO子系统设计。
目前,行业整体趋势是HPC+AI+BigData融合在一起。未来两到四年,三者融合的服务器就会出现。
第二件事,就是大规模人工智能算力基准评测程序AIPerf。
传统的AI算力评测基准存在着只针对单个芯片、只是移动端的硬件、可扩展性不好等问题,于是他们就决定自己做一个。
AI基准设计要达到这四个目标:统一的分数、可变的规模、具有实际的人工智能意义、评测程序包含必要的多机通信。最终,以清华大学为主要团队做了AIPerf来测试,已于2020年11月15日发布。
第三件事,百万亿参数超大规模训练模型的加速方法。
学界达成一个基本共识,那就是模型规模和模型效果呈正相关关系。但模型规模上去了,CPU的内存、计算能力是有限的。因此大模型训练一定是多机的,分布并行的。
现在主要有三种并行方式:数据并行、模型并行、专家并行。他们把这三种并行训练模型开源到FastMOE系统当中,得到了工业界许多认可,比如阿里的淘宝天猫,腾讯、百度飞桨的MOE模块都用到了他们的系统。
最后他希望,他们团队做的三点小贡献,能够推动人工智能的发展。
Ziad Asghar如何让“智能网联边缘”成为现实
高通技术公司产品管理高级副总裁Ziad Asghar,负责骁龙平台的产品规划以及公司所有产品线中应用处理器相关技术。他的工作服务于公司所有业务部门,包括移动、汽车、计算、XR、边缘云和物联网。
他在大会上提出:AI处理的重心正在持续向边缘侧转移。
原因有多方面,大量的数据在边缘侧产生,当今消费者希望拥有更好的数据隐私、希望数据可靠,并希望及时获取处理结果。
高通专注于“基于统一的技术路线图”进行产品开发,能够全面覆盖智能网联边缘,实现规模化扩展。
高通的A I技术已经赋能2 0亿终端,实现这一成果的核心是高通AI引擎(Qualcomm AI Engine)。高通AI引擎包含图形处理单元、CPU,以及更核心的Hexagon处理器,其具备高度可扩展性的硬件架构,并在性能和能效方面全面领先竞争对手。
为了让AI在终端侧发挥最大作用,高通还带来多项硬件和软件技术:支持INT4精度推理,高通传感器中枢,高通AI软件栈、Qualcomm AI Studio……
过去,几乎所有的AI推理都在云端进行。如今,他们已经开始将大量推理工作转移至边缘侧终端进行。下一步,就是实现完全分布式的AI,也就是转向终端侧学习的范式。
利用终端侧学习,将能够为每一个用户打造个性化体验,这就是高通正在前进的方向。据Ziad介绍,高通AI研究团队一直专注不同的方法包括小样本学习、无标记数据持续学习、支持全局适应的联邦学习和低复杂性终端侧学习,来解决终端侧学习部署的挑战。
Ziad相信,目前所利用的终端侧AI能力还只是冰山一角,而从智能车到元宇宙,终端侧AI的需求巨大。
高通十分期待能够引领市场向着充分利用智能网联边缘的方向继续推进,让智能网联边缘成为现实。
尤洋AI落地面临很大问题,最先进的AI 技术训练成本太高
潞晨科技董事长兼总裁、新加坡国立大学校长青年教授尤洋,介绍了一种全新的AI大模型解决方案Colossal-AI,面向未来各种大模型应用场景的低成本落地。
首先,Colossal-AI解决的是一个什么样的问题?从过去AI模型发展的参数量来看,2016年—2021年模型大小从200多万增长到了1.6万亿,相当于翻了成千上万倍。不管是大企业、小企业,大家都普遍把自己的模型做得更大,因为效果会更好。
不稳定型心绞痛有起病快、病情急、预后差的特点,治疗不及时极易造成心肌梗死。多数研究认为,由冠状动脉粥样硬化、破裂、急性血栓所致,同时和局部炎症有密切关系[2] 。
但一个很大问题是大模型或者是最先进的AI技术训练成本太高了。Stability AI每年光花计算的钱就大概2000万美元。
因此未来迫切需要一个可扩展、高效的计算基础设施Colossal-AI。
其次,Colossal-AI主要由三部分组成。
1)高效的内存管理系统。因为大模型本质上还是太吃内存。
2)自动的N维并行技术。
3)大规模优化技术。
从三方面把AI模型的训练部署性能提到最高,目标是希望用户只需要在自己单机笔记本上写好代码,通过Colossal-AI能够无缝地部署到云端或者是超级计算机上。
目前训练大模型主要有三种并行方式:数据并行、张量并行、流水线并行。
Colossal-AI的解决方案首先是支持了上述主流并行方案,然后他们创新性地打造了2D张量并行、2.5D张量并行以及3D张量并行,以及提出了数据序列并行,还提供了降低显存消耗的异构内存管理和大规模并行优化,把它们整合起来提供一套自动并行的解决方案。
其实AI工程师、研究员,不需要理解背后的技术细节,只需要把模型的信息、计算资源告诉他们,就可以自动地把计算资源能力发挥到最大化,同时完成虚拟模型训练和自动部署,轻松低成本应用AI大模型。
刘军智算力就是创新力
浪潮信息副总裁、浪潮人工智能与高性能计算产品线总经理刘军分享的主题是“AI新时代 智算力就是创新力”。
刘军提出了“算力当量”的概念,用PetaFLOP/s-days(PD)这个指标来衡量算力消耗,也就是每秒千万亿次计算完整运行一天,完成一个任务需要多少这样的计算量。
比如特斯拉的DOJO用于感知模型的训练和仿真,算力当量是500个PD,AlphaFold2的训练消耗300个PD。
再加上AI大模型训练、数字人的建模和渲染等方向,可以确切地感受到今天在AI领域的众多创新背后离不开智算力的支撑,所以说智算力就是创新力。
接下来,刘军还分享了当前智能计算发展的三个重要趋势:
第一是算力多元化。在国内市场上有十几种CPU芯片、将近100种AI算力芯片,原因是算力应用场景多元化。这就需要从系统的硬件角度、从平台的软件角度来进行相应的创新支撑。
第二是模型巨量化,大模型使得AI从五年前的能听会看走到今天能思考、会创作,下一步甚至到会推理、能决策的进步。下一个挑战是如何把大模型能力交付到众多中小企业手中,帮助他们实现智能化转型。
第三是元宇宙。现在元宇宙的构建包括协同创建、高精仿真、实时渲染、智能交互,每一个环节都需要大量算力去支撑。这里不光是AI计算,还有仿真计算、图像渲染计算,这对算力基础设施的硬件平台和软件栈都提出了更高的要求。
新场景、新物种、新应用
李笛我们为什么想和ChatGPT交流?
AI绘画、对话式AI为代表的AIGC今年在全球引发热潮,小冰公司也作为行业先行者备受瞩目:刚刚完成一轮10亿元的新融资,用于推动虚拟员工的普及。
不过,小冰公司首席执行官李笛在会上没有多谈产品,而是分享了对大家更有借鉴意义的行业趋势。
李笛认为,每一次技术变革都是在改变人与世界/人与人之间的关系。
在人与世界关系这条线上,我们经历了门户网站、搜索引擎、推荐算法。它们利用计算机系统实现了高并发,一次触达很多用户。但缺点是转化率低,如果想提高转化率就需要人工客服,人力成本巨大。
下一站,该看向AI Being。
AI Being与之前的人机交互相比,关键不同在于高转化率,如小冰岛App的留存率就高达39%。
另一个例子是ChatGPT,通过它获取知识比搜索引擎的准确度要低,但为什么人们都愿意和它交流?
人们在使用它时往往心里已经有了答案。如果ChatGPT给出的结果都准确,那人们会认为它很强大,即使不准确,人们也会觉得很有意思。
其实ChatGPT改善的不是准确率而是行为,让AI有了主体性。从行为模式判断与从结果上判断一个技术,就会得到完全不同的结论:它能和你建立一种以往没有过的一种关联,这种关联的价值本身具有非常大的商业价值。
李笛认为,AI Being的未来还会引发很多新的变革。
如数字员工会使toB和toC的界限变得模糊,比如银行的数字客户经理可能会与客户变成朋友。
又比如AI Being将不再隶属于某一平台,人们在客服、手机、汽车上与同一个AI Being交流,得到更加无缝、24小时、持续连贯的服务。
同时这种方式也能建立更好的反馈机制,推动系统得到更好的发展。AI Being比现在的虚拟偶像等数字人应用,还有千倍百倍的价值没被看到。
李博智能车是当下机器人的第一形态
各行各业进入存量竞争时期,互联网经济机遇过去,下一个人类的星辰大海会在哪里?
路特斯科技副总裁、路特斯机器人公司总经理李博认为,“机器人时代”比“元宇宙时代”更符合人类对星辰大海的预期。
元宇宙是把人带入虚拟世界,而机器人则是把AI带到真实世界。李博分享了对“机器人时代”的关键认知:
第一,智能车是机器人的第一形态,也是当下最重要的机器人形态。像扫地机器人、酒店服务机器人等,从市场规模、体量及社会影响力来说,和智能车相比仍存在差距。
第二,行业经常提“软件定义汽车”,但我们认为“硬件定义软件的天花板”。例如,当不同年代的苹果手机都升级到同样的操作系统,其体现出来的性能却是千差万别的。
第三,在更高更快更强的时代,路特斯是智能车的最佳实践平台。基于此,路特斯机器人推出四条产品线。
智能驾驶全栈软件解决方案,包含端到端的高阶智能驾驶系统、ADAS/PAS功能,以及车端OS操作系统及中间件等。
ROBOVERSE产学研生态系统,一方面用路特斯机器人在实践开发过程中产生的优质数据,打造公开数据集,为创业公司及院校赋能;另一方面支持院校做智能驾驶的探索和尝试,在路特斯机器人的加持下,北京理工大学和同济大学的方程式车队在2022年中国大学生方程式赛事中各取得优异成绩,其中,北京理工大学路特斯无人驾驶方程式车队更是赢得2022中国大学生无人驾驶方程式大赛全国总冠军。
智能驾驶运营解决方案,核心目的是对当下智能驾驶系统能力的不足做弥补和提升。例如路特斯平行守护系统,让后台专业的平行守护驾驶员接入前台车辆,辅助前台车辆更好地完成智能驾驶任务,这一套系统在不久的将来,也会逐步对外赋能。
ROBO Galaxy智驾工具链SaaS系统,也称为智能驾驶的云端数据工厂。ROBO Galaxy包含七大模块,分别是数据采集、数据合规、数据标注、数据训练、数据仿真、数据管理及数据监控,提供全流程服务,并构成了全生命周期的数据链闭环。
ROBO Galaxy不仅旨在提升算法软件迭代速度,提供优质的测试环境,也致力于解决目前普遍存在的数据孤岛与业务断点问题。因此,李博认为,未来的智能驾驶产品一定是批量化、高质量、稳定地生产出来,这就要依托ROBO Galaxy,让智能驾驶开发从“手工坊”变成“流水线”。由此可见,ROBO Galaxy代表着智能驾驶未来的生产力。
段润尧聪明的脑袋、足够的资源和最好的技术匹配起来,就能做出量子计算机
当前,量子时代正在加速到来,接近70%全球企业都想或正在布局相关技术。国内像百度这样的技术大厂,今年率先给出了从底层硬件到上层应用的一整套产业化解决方案。
百度量子计算研究所所长段润尧就在大会现场分享了百度是如何思考量子计算的。
我们身处的这个时代其实已经到了第二次量子革命,这几年应该是量子真正开始和计算相结合的关键几年,为什么说量子计算出现是必不可少的?
第一,芯片尺寸小到一定程度就到了量子尺度。要想摩尔定律延续下去,就需要考虑新的计算模式。而且量子计算本身,能耗也非常低。
第二,数据量很大。想模拟一个量子系统,哪怕非常小但所需存储量也很巨大,比如300个量子比特,就超过整个宇宙可见原子数目。
第三,全新计算范式,在解决特定问题上有指数级优势。
第四,信息安全,可以攻破RSA系统。
也正因为这些可能性,量子科技一直受到行业关注。有相关机构预计,到了2031年将有8000亿元市场规模直接与量子计算相关。
那么量子计算可以应用在哪些方面呢?典型的有药物研发、金融科技、材料模拟、信息安全等领域。
除此之外,量子计算与的人工智能还是一个相互纠缠的关系,从上层应用、框架到底层硬件都可以产生相互联系。另一方面,量子计算也受益于AI,尤其是深度学习。2020年百度就曾搭建了一个量子机器学习平台。
即便有这么多机会,那实际真正走入生活还需要多远?段润尧团队正在做的就是量子计算的产业化道路。
那就需要解决这几个方面的问题,硬件的稳定性、好的软件平台,以及自动化的芯片设计方案。
百度提出了QIAN战略。Q就是量子算法、量子AI及量子架构。I就是软件和硬件的基础设施。除此之外,还要真正识别出一些具有重大应用价值的场景,A就是实际的一些重要的应用。最后当然还有网络,N指量子互联网,除此之外也需要建立生态网络。
演讲的最后,段润尧作了一下展望:“实际上我二十多年来一直在思考一个问题,如何真正能够造出一台量子计算机。我的结论其实很简单,就是聪明的脑袋,再加上有足够的资源和现有的最好的技术,匹配起来就可以做出量子计算机。”
从这个意义上讲,全球可以有很多不同的组合都可以做出这样的机器,这个过程是可以等价的。
刘铁岩AI for Science,追求人类智能最光辉一面
同样正在探寻AI for Science价值的还有微软亚洲研究院副院长、微软研究院科学智能中心亚洲区负责人刘铁岩。
最近十年,人工智能在很多任务已经可以和人类媲美,效果惊艳。但这些结果主要集中在感知和认知层面,并没有反映出人类智能里最光辉的一面——认识世界和改造世界。
微软前同事Jim Gray曾对科学发现的四个范式做了总结,分别是经验范式、理论范式、计算范式和数据驱动。最近几年大家尤其关注的一种新范式,叫做AI for Science。它是前四种范式的有机结合,发挥了理论和经验各自的特长,又把人工智能和计算科学融合在一起。刘铁岩认为,它值得叫做第五范式。
接着他就AI for Science分为三个方面进行深入介绍。
第一,如何用AI求解物理方程?
我们可以不再用数值解法来求解物理方程,而是通过AI得到更高效解。并且只要有足够算力就可以无限生成完美的训练数据。此外,近年来还出现了一种physics informed training,甚至不需要提前生成训练数据,只需要在训练的过程中,动态验证AI模型的输出是否满足物理方程,定义损失函数即可,而验证方程比求解方程简单的多。刘铁岩介绍了他们团队在这个方向上的一些最新研究成果,如Graphormer,Deep Vortex Net,并展示了它们在分子模拟、流体模拟等领域取得的突出成果。
第二,如何用AI从科学数据中发掘有效信息?
各种实验设备每年都产生海量数据,但显然不能靠人工有效处理;还有每年都有近150万篇论文发表,但任何科学家都没有精力读完。刘铁岩的团队利用AI方法来自动分析高能粒子对撞的射流数据,提出了LorentzNet模型,将洛伦兹等变性构建在模型之中,在新粒子发现领域取得了比前人显著提高的精度;他们还利用科学文献训练了SPT模型,对科学文献信息的科学知识进行抽取、总结和预测。
第三,如何从实验数据出发,用AI发现新的物理方程,形成科学发现的闭环。
比如物理的守恒定律,一旦实验数据不满足守恒性,往往暗示着一些新物理规律的存在。刘铁岩的团队设计了一个双通道的AI模型,可精准地从实验数据中自发地学到很多已有规律。
最后,他对AI for Science未来的发展表达了希冀:“我们相信AI for Science将会对自然科学产生巨大影响,尤其在解释生命奥秘,以及保障环境可持续发展方面,都有很大的潜力,沿着这两个方面我们进行了很多探索。也希望大家加入我们,一起推动科学发现的新边界!”
新路径、新方案、新价值
贾扬清工程化和开源是AI普惠最重要的两大支撑
AIGC爆发成为当下AI绕不过去的话题。如果溯源,是从1999年的纹理生成,到2015年前后的神经风格迁移,再到现在更强语义的AI创作。这些创新背后的推动机制,总结来说就是AI普惠的两大支撑:AI工程化和开源。
这也就是阿里巴巴集团副总裁、阿里云计算平台事业部负责人贾扬清分享的主题。
工程化,让开发、迭代到应用的路径变得更加简单;开源可以让工作开展更加迅速,实现市场共赢。在这个基础之上,AI的产业落地有以下明显趋势:
第一,云原生的AI工程化平台;
第二,大规模端到端的异构计算体系;
第三,通过算法的系统组合实现更加智能的、贴近用户需求的产品;
最后,通过算法的开源助力AI在产业垂直化落地。
这四个趋势,无论从供给角度还是需求角度,都是推动AI进一步往前走的方向。接着贾扬清从这四个角度介绍了他们正在做的事情。
其中,在端到端的异构计算与优化上,阿里开源的分布式训练框架EPL和推理优化工具PAI-Blade,能让算法工程师在训练和推理环节大幅提升效率;此外,通过软硬件协同优化,他们也研发了更贴合AI需求的计算设施。
在这个领域比较有意思的点,是AI计算与传统科学计算之间有很强的共性。AI for Science这个趋势很明显,分子学、物理、化学等领域需要处理海量科学数据,而AI和数据系统所积累下来的异构计算的模式和环境,正好符合这个需求。
“今天,非常多的专家、企业、开发者们在建设着上层的AI算法;而在AI底层,如何让工具变得更加易用、更加普惠,这正是我们在做的事情。”
张杰对话式AI走到L0-L5的哪个阶段?
在数智化转型的大趋势中,中关村科金以AI+数字化营销g运营g服务为引擎,为500余家金融、零售、教育、医疗、智能制造等行业头部企业提供了数字化解决方案。
中关村科金技术副总裁张杰,在会上分享了关于对话式AI在企业服务中的一些观点和经验。
在过去60年时间里,对话式AI经历了三个大的技术发展阶段:基于规则匹配的时代、“虚拟个人助理”应用的时代和基于大规模预训练语言模型的时代。
发展到现阶段,张杰认为目前对话式AI几个趋势值得关注:
细分赛道,过去十几年间对话式AI主要的应用场景还是在toC,如智能音响、智能家电、个人手机助理等市场渗透率较高,依照《AI对话系统分级定义》已经能够达到L3的等级。相比之下,企业服务方面市场渗透率比较低、开发潜力大,同时技术成熟度相对落后,只能够完成单一场景下的对话,在L1-L2之间。
对话形式,在脑机接口真正商用落地之前,对话仍然是最主要的一种沟通手段,除了基础的文本和语音交互外,多模态、数字人的交互方式会越来越多,比如远程银行、数字营业厅等。
从技术维度上来看,对话式AI不仅是对话的技术,将来还会是多种前沿科技的一个集大成者,融合感知智能、认知智能和决策智能。
聚焦在企业服务赛道上,张杰认为对话式AI潜在市场空间巨大,应用场景丰富,但现阶段面临着几项技术挑战,例如场景迁移问题、可解释性,快速运维等。
如何解决这些难题呢?中关村科金在过去8年间,服务了10多个行业、500余家客户的对话场景,总结出了一套双引擎对话系统的技术实践。领域知识中台和对话分析系统作为对话决策系统的双引擎,一方面,领域知识能够提升系统的可解释性和可运维性;另一方面,会话分析能够挖掘出话语背后的常见目的和常见的行为模式。
对于未来发展方向,张杰表示:“对话式AI在企业服务赛道上存在巨大的市场空间和技术提升空间,为此中关村科金提出了领域知识和会话分析双驱动的对话系统。希望通过对话式AI为企业打造金牌销售,帮助企业带来创新增长和用户体验的提升。”
刘伟只靠数据驱动的AI缺乏可解释性,要与领域知识相结合
腾讯医疗健康AIDD技术负责人刘伟从腾讯制药AI算法实践的角度来探讨AI for Science的价值。
他主要作了三个部分的介绍:腾讯云深平台、平台案例分享,以及腾讯云深AI平台的技术优势总结。
首先,目前腾讯云深AI药物发现平台主要包括两大功能模块,第一个功能模块就是小分子药物发现,第二块是大分子药物发现,主要指抗体药物发现。其中,小分子药物发现还包括蛋白质结构预测、分子生成等模块,大分子里面包括抗体结构预测、抗体抗原的对接以及抗体的人源化改造等模块组成。
此外,刘伟分享了他们几年来在制药AI实践中的典型案例。包括国内做的最早的蛋白质结构预测tFold、结合物理学特征和本地数据训练的ADMET基础模型以及骨架跃迁分子生成算法等。
基于这些实践的积累,刘伟团队搭建了属于自己的优势壁垒。核心有四个方面。
第一块,就是AI算法方面。药物AI研发这块的最主流就是图神经网络,在做药物之前,腾讯在深度图神经网络就有深厚的研发积累,包括现在的大规模随机采样、自监督学习和层次图深度学习等领域。
第二块和第三块,就是大算力、大数据的能力。比如在一个庞大的化学空间发现药物分子是不容易的,这就要求AI模型能够理解这么大的空间,也就需要分子、蛋白质、核酸等领域的大模型,以及训练大模型的算力和基础架构。
最后一块,AI与物理、化学领域知识方面的结合。这是基于之前的算法算力上面的能力新生长出来的独特优势,腾讯云深在AI与量子化学的结合方向上研发了独特的DeepQC框架,可以在大的体系上,花费较少的算力达到高的精度。实际上,只靠数据驱动的AI缺乏可解释性,如果能将AI算法跟物理、化学领域知识结合起来,这样训练出来的模型过拟合风险较低,在实际应用中也有非常好的可解释性。