芯东西(公众号:aichip001)
作者 | ZeR0
编辑 | 漠影
一个季度净赚149亿美元,是什么概念?
折合约1079亿人民币,占营收的57%。这,就是AI计算头号玩家英伟达交出的最新成绩。
▲英伟达2025财年第一季度GAAP业绩
芯东西5月23日报道,今天,英伟达继续震撼世界——疯狂的股价飙涨,疯狂的营收翻倍,疯狂到令人难以置信的利润率。
英伟达第一财季non-GAAP净利润为152亿美元(折合约1101亿人民币)。对比之下,最新财季,腾讯Non-IFRS净利润为503亿元,阿里non-GAAP净利润为244亿元,华为归母净利润约为197亿元,百度non-GAAP净利润达70亿元,小米经调整净利润达65亿元,加起来的总和才1079亿元。
▲英伟达2025财年第一季度non-GAAP业绩
过去五年,英伟达股价已上涨了足足25倍。今日截至4月28日的2025财年第一季度财报发布后,在周四盘前交易中,英伟达股价上涨近7%,历史性地突破1000美元大关。
其最新市值达到2.34万亿美元,超过台积电、阿斯麦、AMD、高通、应用材料、德州仪器、美光科技、英特尔等半导体巨头的市值总和。
▲英伟达市值超过一众半导体巨头市值的总和(图源:Quartr)
英伟达还宣布进行10:1的拆股,2024年6月7日生效,拆股后季度现金分红提高150%,从普通股每股0.04美元提高到每股0.10美元。增加后的股息相当于拆股后每股0.01美元。
在旺盛的生成式AI热潮引爆算力需求后,英伟达财报已成为投资者衡量AI繁荣情况的主要参照之一。在下游的大模型企业为了抢占市场狂卷价格战之际,英伟达继续闷声发大财,简直赚麻了:
- 营收达到260亿美元,环比增长18%,同比增长262%。
- 数据中心营收达到创纪录的226亿美元,环比增长23%,同比增长427%。
- 净利润达到149亿美元,环比增长21%,同比增长628%。
与此同时,其季度运营支出仅同比增长39%。一家科技巨头,季度收入翻倍,研发支出却没怎么涨,利润高到夸张。这也有力地推翻了之前有些怀疑AI供应链增长已经放缓的观点。
英伟达预计5~7月季度的销售额为280亿美元,上下浮动2%,预计全年毛利率将在75%左右、全年运营支出将增长40%左右。
更重磅的消息是,英伟达创始人兼CEO黄仁勋宣布,英伟达推出新芯片的周期从两年缩至一年!
这佐证了天风国际证券分析师郭明錤的爆料:英伟达下一代R系列/R100 AI芯片将于2025年第四季度量产,采用台积电3nm制程、4个reticle设计,搭配8颗HBM4,重点改善能耗。最早在明年,R100 AI GPU就将登场。
黄仁勋还强调英伟达将加速其生产的所有其他芯片:“新的CPU、新的GPU、新的网络NIC、新的交换机……一大堆芯片即将到来。”
这次英伟达财报和电话会议,信息量相当大。
黄仁勋分享了在中国销售的现况、英伟达的销售策略,解释了英伟达AI GPU的巨大需求,强调说现在GPU资源非常紧俏——科技巨头和大约15000~20000家生成式AI创企都在竞争。
还有很多增量信息披露:Blackwell芯片第二季度开始发货,今年将产生大量收入;网络收入首次被单独拎出来讲,Spectrum-X以太网产品线有望在一年内贡献数十亿美元的收入;有信心主权AI今年收入达到数十亿美元。
同时,英伟达特别强调了云服务供应商买它的GPU回报有多高——每花费1美元,就有机会在4年内获得5美元的收入,估算过去一年推理驱动其数据中心约40%的收入,并预测汽车行业将是今年数据中心领域最大的企业垂直市场。
它也分享了一些客户信息:首个H200系统已经交付给OpenAI并支撑了其旗舰模型GPT-4o;特斯拉买了35000张H100组建AI训练集群;Llama 3是用24000张H100训练的;小米首款电动汽车SU7采用英伟达DRIVE Orin车载计算机,比亚迪、小鹏等将采用基于Blackwell架构的下一代DRIVE Thor……
总体来看,英伟达这次财报释放出10大亮点:
一、中国数据中心收入下滑,将尽最大努力服务中国客户
英伟达推出了专为中国设计的无需出口管制许可证的新产品。
“我们在中国的数据中心收入与10月份实施新的出口管制限制之前的水平相比大幅下降。”英伟达CFO科莱特·克雷斯(Colette Kress)说。
克雷斯称,英伟达预计中国市场“未来仍将保持非常强劲的竞争力”。
“我们有值得尊敬的客户,我们会尽最大努力服务好每一位客户。我们在中国的业务确实比过去的水平下滑很多。由于技术限制,现在在中国的竞争更加激烈。这些都是事实。”黄仁勋说。
他承诺,英伟达将继续尽最大努力为中国市场的客户提供服务,会尽最大努力做到最好。
二、黄仁勋催下单:再不买就晚啦!
黄仁勋在财报会议期间给大家分析了一下现在GPU的需求情况:需求惊人,订单爆棚,导致英伟达正承受着甜蜜的负担——交付压力很大。
OpenAI的ChatGPT、GPT-4o等应用程序,谷歌Gemini还有大模型独角兽Anthropic以及一众云解决方案提供商正在推进的工作,都在消耗着现有的每一个GPU。
还有大量生成式AI创企,大约有15000~20000家初创公司,都在竞争GPU资源。
“客户对我们施加了很大的压力,要求我们尽快交付并启动系统。”黄仁勋说,“我认为需求非常非常高,超过了我们的供应……长远来看,我们正在彻底重新设计计算机的工作方式。”
为什么立即建设一个数据中心的想法这么宝贵?为什么AI训练时间这么宝贵?
黄仁勋说,下一家达到下一个重大里程碑的公司将宣布突破性的AI,在那之后第二家公司可以宣布一项比它好0.3%的成果。他提出灵魂拷问:“你想成为一家不断地提供突破性AI的公司,还是一家每次只能提供0.3%优化的公司?”
在黄仁勋看来,拥有技术领导力至关重要,因为企业信任领导力。英伟达正在疯狂构建Hopper系统,因为下一个台阶就在眼前。
三、Blackwell第二季度发货,今年将产生大量收入
黄仁勋给出了下一代旗舰芯片Blackwell GPU落地的激进时间表:现已全面投入生产,第二季度出货,第三季度出货量大涨,第四季度进入数据中心,为万亿参数规模的生成式AI奠定基础。
“今年我们将看到大量的Blackwell收入。”他透露说。
Blackwell GPU上市后的首批客户包括亚马逊、谷歌、Meta、微软、OpenAI、甲骨文、特斯拉和马斯克的大模型初创公司xAI。
黄仁勋说,已部署Hopper的数据中心能从H100轻松过渡到H200再到B100,Blackwell系统的设计在电气和机械方面都向后兼容,在Hopper上运行的软件栈将在Blackwell上完美运行。
“随着我们向H200和Blackwell过渡,我们预计需求将在一段时间内将超过供应。每个人都急于让他们的基础设施上线。原因是他们正在省钱和赚钱,他们希望尽快做到这一点。”他谈道。
四、一年一迭代,英伟达提高芯片新品发布节奏
此前英伟达每隔两年推出一种新GPU架构——2020年发布Ampere,2022年发布Hopper,2024年发布Blackwell。
今天,黄仁勋多次提到后续芯片的推出计划:
“继Blackwell之后,还有另一款芯片,我们的节奏是一年一次。”
“在Blackwell后,我们还会有其他Blackwell芯片到来。那将是短暂的——我们以一年为周期,正如我们像世界解释的那样。我们希望我们的客户看到我们的路线图。”
“新的CPU、新的GPU、新的网络NIC、新的交换机……一大堆芯片即将到来。”黄仁勋言语之间流露出兴奋,“最妙的是所有这些都运行CUDA,所有这些都运行我们的整个软件栈。”
他说,今天在英伟达软件栈上投资,什么都不用做,它只会变得越来越快;今天在英伟达的架构上投资,什么都不用做,它就会进入越来越多的云和数据中心。
英伟达带来的创新进展一方面将提高能力,另一方面将降低TCO(总拥有成本)。
“我们应该能够扩展英伟达架构,以适应这个新的计算时代,并开启这场新的工业革命,我们不仅制造软件,而且制造AI tokens,我们将大规模地这样做!”黄仁勋说。
五、40%数据中心收入来自云大厂,云供应商每花费1美元能增收5美元
英伟达最新季度226亿美元的数据中心收入中,有大约40%都来自云计算大厂。
克雷斯强调说,在NVIDIA CUDA上训练和推理AI正推动云租赁收入增长的显著加速,给云供应商的投资带来“即时且丰厚的回报”。
“在英伟达AI基础设施上每花费1美元,云供应商就有机会在4年内将获得5美元的GPU即时托管收入。”克雷斯说。
简而言之,云大厂买到就是赚到,买不了吃亏,买不了上当。
英伟达号称其GPU能为云租赁客户提供“最佳的模型训练时间、最低的模型训练成本、最低的大语言模型推理成本”。
英伟达H200目前已投入生产,预计第二季度发货。黄仁勋将第一台H200系统交付给OpenAI团队,并在上周为其出色的旗舰模型GPT-4o演示提供支持。H200推理性能几乎是H100的两倍。
克雷斯还说,英伟达新款硬件的投资回报更高。
例如,使用具有700亿个参数的Llama 3,单个 英伟达HGX H200服务器每秒可以提供24000个token,同时支持超过2400名用户。
这意味着,以当前的每token价格在HGX H200服务器上每花费1美元,提供Llama 3 token的 API提供商可以在4年内产生7美元的收入。
六、汽车将是数据中心最大的企业垂直市场,主权AI今年收入将达到数十亿美元
“今年汽车将成为数据中心内最大的企业垂直市场,”克雷斯说,汽车市场为本地和云端消费带来了数十亿美元的收入机会。
特斯拉为AI训练集群买了35000张H100 GPU,用于支持最新自动驾驶软件。
Video Transformer消耗了更多的计算资源,但能显著提高自动驾驶能力,并推动NVIDIA AI基础设施在整个汽车行业的显著增长。
消费互联网公司也是一个增长强劲的垂直行业。
克雷斯称本季度的一大亮点是Meta发布其最新的大语言模型Llama 3,用24000个 H100 GPU训练而成。
Meta已经斥资数十亿美元购买35万块英伟达芯片,计划今年年底前投用。
过去四个季度,英伟达估计推理业务贡献了数据中心约40%的收入。它将Meta和特斯拉构建的大型AI集群称之为“AI工厂”。
第一季度,英伟达与100多家客户合作打造AI工厂,规模从数百到数万个GPU不等,有些甚至达到10万个GPU。
值得一提的还有主权AI(Sovereign AI)。
克雷斯说,AI的重要性引起了每个国家的关注,英伟达相信主权AI的收入将从去年的0发展到今年的数十亿美元。
“下一场工业革命已经开始。各大公司和国家正与英伟达合作,将价值数万亿美元的传统数据中心转向加速计算,并建立一种新型数据中心——AI工厂,以生产一种新商品——AI。”黄仁勋说,AI将为几乎所有行业带来显著的生产力提升,帮企业提高成本和能效,扩大收入机会。
七、游戏支柱时代落幕,以太网强势崛起,数据中心稳坐最赚钱业务
英伟达第一财季收入创新高,达到260亿美元,远高于预期的240亿美元。
目前数据中心业务已经坐稳英伟达最大、最赚钱的业务,包括关键的数据中心AI芯片和运行大型AI服务器所需的许多附加部件。
最新一季,其数据中心收入同比增长427%,创历史新高,达到226亿美元。
▲英伟达数据中心业务季度收入变化(图源:Seeking Alpha)
克里斯说:“这主要得益于对Hopper GPU计算平台的持续强劲需求。与去年相比,计算收入增长了5倍以上,网络收入增长了3倍以上。”
英伟达绝大部分计算收入来自Hopper GPU,另外得益于CUDA算法,英伟达能将H100上的大语言模型推理速度提高多达3倍,换言之能将大模型提供服务的成本降低到原来的1/3。
随着Spectrum-X以太网网络解决方案的销量不断增长,英伟达预计Spectrum-X将在一年内跃升至价值数十亿美元的产品线。
黄仁勋透露说,英伟达会以非常快的节奏推出新的网络技术,有一个非常令人兴奋的以太网路线图。从单个计算域的NVLink计算结构到InfiniBand计算结构,再到以太网网络计算结构,英伟达新的交换机、新的NIC、新的功能、新的软件栈都将在这三项技术上运行。
而英伟达昔日的赚钱支柱游戏业务,该季度收入环比下降8%,同比增长18%,达到26亿美元,只有数据中心收入的零头。
▲英伟达游戏业务季度收入变化(图源:Seeking Alpha)
不过英伟达对AI PC还是很有野心的,强调GeForce RTX GPU的安装量超过1亿,是游戏玩家、创作者和AI爱好者的理想选择,能为在 PC上运行生成式AI应用提供无与伦比的性能。
英伟达拥有在GeForce RTX PC上部署和运行快速高效的生成式AI推理的完整技术栈。
昨天英伟达和微软刚宣布了针对Windows的AI性能优化,能帮助在NVIDIA GeForce RTX AI PC上将大语言模型的运行速度提高3倍。
八、汽车和Omniverse业务体量仍小,比亚迪小鹏将采用下一代Blackwell芯片
另外两类业务的体量都相对较小。
专业视觉业务在第一财季的收入为4.27亿美元,环比下降8%,同比增长45%。
英伟达相信生成式AI和Omniverse工业数字化将推动该业务的进一步增长。
▲英伟达专业视觉业务(蓝色)和汽车业务(橘色)季度收入变化(图源:Seeking Alpha)
本季度汽车业务的收入为3.29亿美元,环比增长17%,同比增长11%。
克里斯强调了英伟达AI车载计算机DRIVE Orin“支持小米成功推出其首款电动汽车SU7”。
采用全新Blackwell架构的DRIVE Thor平台计划于明年开始投入量产,比亚迪、小鹏、广汽埃安昊铂、Nuro等公司将采用。
九、英伟达凭什么与众不同?系统级优势拔尖,数据中心的每个组件都能拆开卖
黄仁勋说,英伟达构建了整个AI基础设施,然后按照客户偏好将其分解并集成到他们的数据中心中。英伟达知道它将如何运行,知道瓶颈在哪里,知道需要在哪里与客户一起优化,知道必须在哪里帮助他们改善基础设施以实现最佳性能。
这种对整个数据中心规模的深入了解,从根本上使英伟达与众不同。英伟达从头开始构建每一个芯片,并确切地知道整个系统的处理过程。
因此,英伟达确切地了解它将如何运行,以及如何在每一代中最大限度地发挥它的作用。
英伟达销售GB200的方式同样是将所有有意义的组件分解,然后将其集成到计算机制造商中。
今年,英伟达将为Blackwell提供100种不同的计算机系统配置。这是前所未有的,Hopper的配置数量只有一半。
“Blackwell平台极大扩展了我们的产品范围。CPU的集成、进一步压缩的计算密度和液冷将为数据中心节省大量电力配置费用,更不用说更节能了。”黄仁勋说,“这是一个更好的解决方案。它更具扩展性,这意味着我们提供更多的数据中心组件,每个人都是赢家。”
十、GPU并不“通用”,多功能性将是未来
黄仁勋说,英伟达的加速计算是多功能的,但他不会称其为“通用”,因为它有一些不擅长的任务,比如不擅长运行电子表格。
多年来,英伟达GPU能够加速的应用领域非常丰富,都能并行运行,都是高度线程化的,都具备加速计算的属性。
当生成式AI、混合模型或下一个模型出现时,突然间,大语言模型需要具备记忆功能,才能进行对话并理解上下文,Grace内存的多功能性变得非常重要。
因此AI进步要求不要只为一个模型设计一个小部件,而是要拥有真正适合整个领域的属性并遵循软件第一原则的东西,这个软件能持续发展、不断变得更好更大。
“有很多理由可以解释为什么我们会在未来几年内轻松地将规模扩大100万倍,我们对此充满期待,并为此做好了准备。”黄仁勋说,“所以我们平台的多功能性非常关键,而且它不是——如果你太脆弱、太具体,你还不如只造一个FPGA或ASIC或类似的东西,但那算不上一台计算机。”
结语:向数据中心卖算力,英伟达还没有劲敌
到目前为止,在向数据中心兜售算力这一赛道,英伟达还没有劲敌。
随着AI算力需求爆炸式增长,谷歌、微软、Meta、亚马逊、OpenAI、特斯拉……这些科技和汽车大厂都在大手笔采购英伟达GPU,推动英伟达的销售额持续飙升。
科技产业对推动AI技术的发展仍然相当兴奋。即便激烈的生成式AI竞争即将角逐出第一批幸存者,但即便AI泡沫破裂、AI芯片需求回落,在市场炒作高潮期间已经占据大量市场份额的英伟达,其收入和股价仍会比几年前高得多。
今天,英伟达的总市值高达2.34万亿美元,排名世界第三,与第二名苹果的市值差距只有0.6万亿美元。
如果英伟达的芯片能提供强劲且可持续的投资回报,随着AI热潮逐渐度过早期发展阶段,随着企业规划长期项目,如果其竞争对手不能很快证明自家芯片在数据中心的高性能和易用性,英伟达仍将长期是数据中心芯片市场的头号赢家。
不过,要继续创造创纪录的股票增长,恐怕对英伟达来说会越来越难。
英伟达还在财报电话会议期间预告了接下来的一些活动:6月2日,黄仁勋将在202台北国际电脑展(COMPUTEX 2024)上发表主题演讲,并进行现场直播;6月5日,英伟达将出席在美国旧金山举行的美国银行技术会议。