芯东西(公众号:aichip001)
编译 | 刘煜
编辑 | 陈骏达
芯东西3月20日消息,今天,据路透社最新报道,英伟达与AWS(亚马逊云科技)达成合作,从今年开始,到2027年底以前,英伟达将向AWS出售100万颗GPU以及包含Spectrum系列网络芯片和Groq芯片在内的多款产品。
英伟达与AWS尚未披露这笔交易的财务细节。
此前,英伟达创始人兼CEO黄仁勋称,预计英伟达Rubin与Blackwell的两条产品线的销售规模将达到1万亿美元(约合人民币6.89万亿元)。
而本次AWS与英伟达签订的合作订单,正是1万亿美元销售规模的组成部分。
英伟达加速计算副总裁Ian Buck称:“推理运算难度极大,极其复杂。想要在推理领域做到顶尖,单靠一款芯片远远不够。我们实际上会用到全部七款芯片。”
AWS计划将英伟达Groq芯片与该公司另外六款芯片搭配使用,以实现更高效的AI系统为用户生成答案、执行任务的推理运算过程。
该协议还包括将英伟达Connect X与Spectrum X网络设备部署至AWS的数据中心。
Ian Buck称:“当然,他们仍会继续使用自有设备,但我们正展开合作,针对AI领域的关键工作负载及头部客户,与亚马逊云科技共同部署Connect X与Spectrum X设备。”
此举意义重大,因为AWS的数据中心长期以来一直使用其自主研发、历经多年打磨的定制化网络设备。
同时,AWS将结合高性能专用网络接口AWS EFA与自研的云原生AI训练芯片Trainium,并搭载英伟达用于加速分布式推理场景下的数据传输、同时简化不同硬件之间的传输复杂度的NIXL(英伟达推理传输库)技术,进一步提升采用解耦架构的大语言模型的推理速度与互联效率。
此外,AWS还将利用云上托管大数据平台AWS EMR与英伟达GPU加速数据分析处理。
英伟达的高效开源大语言模型Nemotron 3 Super模型也即将登陆AWS推出的全托管生成式AI服务平台Bedrock平台,同时扩展该平台对英伟达Nemotron系列模型的支持。
结语:AI基建热潮持续,英伟达深度绑定下游客户
AI的爆火为云服务商提供了更广的市场,同时驱使云服务商加大算力投入。本次亚马逊云科技与英伟达达成长期芯片采购协议,旨在为其云端AI大模型的训练与推理提供更充足的算力支撑。
此前,英伟达向荷兰云服务提供商Nebius投资20亿美元,加速Nebius构建行业领先的全栈AI云平台。英伟达将通过优先提供最新一代加速计算平台,全力支持Nebius在2030年底前建成总容量超过5吉瓦的AI基础设施。
当前,云服务商与AI算力领域头部企业协作,依托高效算力支撑,推动云服务与数据中心扩建加速落地,持续提升AI大模型的推理效率,为夯实AI基础设施建设提供助力。