APP下载

ChatGPT一岁了,谷歌终于扳回一局?

2024-02-01荣智慧

南风窗 2024年1期
关键词:阿尔特一体模态

荣智慧

过去一个月,谷歌模型Gemini发布,超威芯片MI300X面世,OpenAI“换帅风波”后曝光NPU芯片,以及IBM领头成立“AI”联盟—说的都是一件事:科技公司极力避免一家独大,无论在软件上,还是在硬件上。

独立研发模型和组团研发模型,对抗的是靠ChatGPT声名鹊起、年化收入飙升4500%的OpenAI;更快、更大内存和带宽的芯片,针对的是全球第一家市值超万亿美元的芯片公司英伟达。

简而言之,一年来久仰OpenAI和英伟达鼻息的大小巨头,已经火速“合纵连横”:有单挑,也有群殴。

商场如战场。一边是科技公司“以十倍之地,百万之众,叩关而攻秦”,一边是两大赢家“因利乘便,宰割天下”。而战场亦如商场,从来没有“子孙万世之业”。

细究下去,反而是OpenAI布局的NPU芯片,很值得研究。

OpenAI是当之无愧的新星。

2023年年底,CEO山姆·阿尔特曼被解雇、随即恢复职位,几乎成为全世界媒体头条新闻。一年前,以GPT为基础的聊天机器人ChatGPT发布,三个月之内创下1亿用户、月访问量18亿次的历史记录。

2022年,该公司全年收入仅为2800万美元。2023年,其年化收入达到13亿美元,是2022年的45倍,平均每月收入超1亿美元。

2023年4月,OpenAI完成103亿美元的第五轮融资,估值达270亿—290亿美元。估值不那么高,主要是因为其“不营利”的初衷。

对比它的竞争对手,人工智能初创公司Anthropic,后者年化收入仅1亿美元,约合每个月800万美元,还不到OpenAI的1%,但它的估值也在200亿—300亿美元。

业内其他公司渐显颓势。像AI语音识别初创公司Deepgram,已启动年内第二次裁员,规模达总人数的二成。另一家AI初创公司JasperAI宣布裁员并削减收入预期,连公司的联合创始人、CEO和CTO也相继离职。

急需靠Gemini翻身的谷歌,过去一年很不好过。根据财务报告,DeepMind的2022年净利润下降了超过40%,从2021年近1.26亿美元降至2022年的近7490万美元。

12月6日现身的Gemini,意为“双子星”,旨在纪念2023年4月谷歌两个人工智能团队DeepMind与谷歌大脑合并。它被谷歌宣传为“迄今为止最强大、最通用的模型”,“有30项指标都优于GPT-4”,而且自诩“原生”多模态,而不是GPT-4的“近似”多模态。

近似多模态,指的是把文本、代码、音频、图像、视频等多个模态训练为不同模型,再将模型混杂。Gemini的原生多模态则一开始就把不同类型的数据放在一起训练,使用同一个模型完成不同模态的输出。

孰优孰劣,差距至少目前看起来不大。这就跟喝“果粒橙”类似—晃匀了与否,还是那么一瓶饮料。

OpenAI的GPT也好,Anthropic的Claude也好,DeepMind的Gemini也好—目前世界上最先进的多模态模型,背后都是大规模多任务语言理解模型,水平相差不大。原生还是近似,其“评判标准”并不透明。

Gemini刚刚遭群嘲:演示视频经“巧妙”剪辑而得出最佳效果,折线图的纵轴被压缩才显示惊人攀升—总之不要以为科技公司就没有营销。

对于普通用户而言,所有应用的区别更多是便利性、可得性、集成度和品牌认知度的差异。

而ChatGPT第一个引爆市场关注,率先塑造了业界的黄金标准,成为展示大型语言模型从研究项目到实用工具的样板,给了竞争对手极大的心理压力。

谷歌为Gemin大造声势,也是逼急了要一雪前耻:ChatGPT面世不久,谷歌赶紧把Bard也推了出去,结果在回答韦布空间望远镜时出现事实性错误,导致谷歌股价应声下跌超7%,市值蒸发约1000亿美元。

竞品之间“单挑”此起彼伏,在所难免。

同时,“群殴”的声量也上来了。

12月5日,IBM宣布与Meta、英特尔、超威、戴尔、康奈尔大学、达特茅斯大学、索尼等全球50多家创始成员,共同合作成立人工智能联盟(AI Alliance),目标是打造一个开放的人工智能开发模式,构筑多样化的人工智能生态系统。

说白了,相当于一起制作一个安卓系统,减少对OpenAI的依赖。

人工智能联盟主打人(钱)多力量大,创始会员将共同投资一年超800亿美元来促成研发,投入员工超100万名。

“30岁”的英伟达,2023年成为全球第一家市值突破万亿美元的芯片公司、全球第一家由华人创立的万亿美元市值公司、第七家市值越过1万亿美元的美国公司。

其市值仅次于苹果、微软、Alphabet、亚马逊,为美股第五大科技股,大致相当于1.8个台积电、2.6个腾訊、3.3个贵州茅台、4.9个阿里。

凭借ChatGPT引发大模型激烈竞争的东风,英伟达的GPU(图形处理器)一路断货。2019年时,微软就花费数亿美元为OpenAI购买了上千块A100芯片。2023年以来,每块售价4万美元的H100必须“先下手为强”:沙特阿拉伯、阿联酋以及中国的科技巨头腾讯、阿里巴巴,都是大客户之一。

自2007年起,英伟达投入重金打造编程软件CUDA,通过利用GPU的处理能力大幅提升计算性能。2012年,卷积神经网络开启人工智能新浪潮,英伟达GeForce GTX 580芯片一举成名。

如今,英伟达的GPU加上CUDA,基本上成为大模型训练的默认选项,也几乎垄断整个大模型市场。英伟达现在已经占据至少八成以上的人工智能GPU市场。

据最新财报,英伟达第三财季营收为181.20亿美元,与上年同期59.31亿美元相比增长206%,与上一财季的135.07亿美元相比增长34%。

利润方面,英伟达第三财季净利润为92.43亿美元,与上年同期的6.80亿美元相比增长1259%,与上一财季的61.88亿美元相比增长49%。

正在和英伟达争夺“最强GPU”的超威,第三季度收入58亿美元,预计第四季度收入为61亿美元。它的季度收入,还赶不上英伟达的季度净利润。

机会在于竞争,不在于“等靠要”。

英伟达上个月刚推出最新款GPU—H200。而超威于12月6日发布的MI300X处理器,晶体管数量高达1530亿个,内存是H100的2.4倍,带宽是H100的1.6倍,部分纸面数据也优于H200。超威的MI300X比H200多用了两颗HBM(High Bandwidth Memory),它的上市将很快缓解英伟达GPU短缺带来的行业焦虑。

谷歌发布Gemini的当天,还带来了新款人工智能芯片TPUv5p。其性能指标只有英伟达三年前产品A100的六成,H100的一半。

谷歌的办法是“人海战术”,单块不行,凑一起还可以一战。大模型训练参数,使用的芯片量相当巨大。OpenAI在2022年训练GPT-4,用了 2.5万颗A100,耗时三个多月。谷歌从2015年起就自研芯片,两年后TPU训练集群问世,供内部业务如YouTube、Gmail、Google Map、Android使用。

据说,一个TPUv4最多有4096块芯片,而Gemini1.0使用了14个TPUv4集群,耗费的算力超过GPT-4。下一步,Gemini的升级版基于TPUv5集群,消耗算力大概是GPT-4的五倍。

权力之争刚落下帷幕的OpenAI,被曝光布局NPU(Neural Process Unit)芯片。CEO山姆·阿尔特曼此前与公司RainAI签订了一份价值5100万美元的意向书,承诺购买其芯片。

RainAI的创始人曾宣称:“NPU芯片将定义新的AI芯片市场,并大幅颠覆现有市场。”

真的这么神奇?

山姆·阿尔特曼“徇私舞弊”就跟RainAI有关。阿尔特曼自己向RainAI投资过100万美元,2019年又签了5100万美元的订单,作为CEO,这种采购显然不合规,类似学校食堂是校长舅舅承包的。

抛开这点不说,RainAI是一家生产NPU芯片的初创公司,成立于2017年;2022年拿到Prosperity7领投的2500万美元融资,总融资额约3300万美元,够公司运营到2025年初。Prosperity7属于沙特阿美,股份被美国跨部门外国投资委员强迫出售,最后由Grep VC收购。

RainAI创始人宣传其产品会比GPU强大一百倍,耗能减少一万倍,既可以训练AI模型,也可以运行大模型。其设计基于RISC-V开源架构。直到今天,产品还没有面世。

阿尔特曼称赞它的原型,认为“可以大大降低创建强大AI模型的成本,并希望有一天有助于实现真正的通用人工智能”。

NPU倒不是什么新东西,它通过神经网络突触权重取值、拓扑结构等办法处理任务。比起CPU擅长“发号施令”,GPU擅长图像处理、并行计算,NPU主打存算一体,提高运行效率,从而处理人工智能任务。

它的指令集是特定的,只能满足部分机器学习的需要,而不支持的指令或多个神经网络的组合计算,仍然需要回落至通用处理器计算。

最早出名的NPU,是IBM于2014年推出的TrueNorth:54亿个硅晶体管,内置4096个内核,100万个“神经元”,2.56亿个“突触”,能力相当于一台超级计算机,功耗只有65毫瓦。

开发NPU的公司不少。英特尔即将推出“Meteor Lake”处理器,其中采用了NPU。IBM也在构建一个NPU,投入数十亿美元,计划2023年底发布NPU。近年国内外公司也量产了不少NPU。

山姆·阿尔特曼买NPU,重点不是什么“类脑”不“类脑”,而在于他非常看好“存算一体”。

D-IMC(数字内存计划)、SRAM(静态内存)存算一体架构图,以及业务团队顾问、存内处理专家Arijit Raychowdhury都赫然摆在RainAI的官网上。

存算一体方案,就是芯片的计算和存储功能合在一起,不用分开部署在不同的节点或设备上。而CPU、GPU都依照冯诺依曼架构的存算分离方案,不可避免地会撞上“内存墙”和“功耗墙”两堵铁壁。

存算一体方案分三种,近存计算,存内处理和行内计算。据目前的有限信息,RainAI关注存内处理,本质是利用不同存储介质的物理特性,对存储电路重新设计,令其同时具备计算和存储能力,消除存算界限,在存储原位实现计算。

有意思的是,据悉山姆·阿尔特曼不仅投了存内处理,也投了近存计算。结合OpenAI官网上有关“人工智能与计算”的研究文章,这位具有敏锐眼光的投资者,正在关注“存算一体”下不同方案定制芯片,及其能为大规模计算带来的优势。

当下全球的存算一体玩家,主要分为两大阵营:一类是国际巨头,如英特尔、IBM、特斯拉、三星、阿里等。它们对存算技术布局较早,代表存储器未来趋势的磁性存储器(MRAM)、忆阻器(RRAM)等产品也相继在头部代工厂传出量产消息。

另一类是国内外的初创企业,比如Mythic、Tenstorrent、知存科技、后摩智能、千芯科技、亿铸科技、九天睿芯、苹芯科技等。

据最新消息,清华大学团队刚研制出全球首款全系统集成、支持高效片上学习(机器学习能在硬件端直接完成)的忆阻器存算一体芯片,相关研究成果已发表在《科学》(Science)上。

憶阻器是继电阻、电容、电感之后的第四种电路基本元件。它可以在断电之后,仍能“记忆”通过的电荷,因此被当做新型纳米电子突触器件。

相同任务下,该芯片实现片上学习的能耗仅为先进工艺下专用集成电路(ASIC)系统的1/35,同时有望实现75倍的能效提升。

总结一下,谁能“遥遥领先”总是备受热议。其实科技公司的营销手法也好,换帅“宫斗”也好,关键要去粗取精,看技术思路。“存算一体”,值得继续关注。

猜你喜欢

阿尔特一体模态
山姆·阿尔特曼:定义未来的“ChatGPT之父”
纸上创意
一滴水的奇迹
法制教育融入初中政治课的“四维一体”法初探
农旅一体 激情米萝
传祺GS4200T手自一体豪华版
玩电脑游戏
国内多模态教学研究回顾与展望
基于HHT和Prony算法的电力系统低频振荡模态识别
侦鉴一体的弊端与改造