Rambus推HBM3内存子系统:速率高达8.4Gbps,带宽突破1TB

芯东西(公众号:aichip001)
作者 |  
高歌
编辑 |  
Panken

芯东西8月25日报道,今天,美国内存IP厂商Rambus宣布推出HBM3内存接口子系统,其传输速率达8.4Gbps,可以为人工智能/机器学习(AI/ML)和高性能计算(HPC)等应用提供TB级带宽,是当前速率最快的HBM产品。预计2022年末或2023年初,Rambus HBM3将会流片,实际应用于数据中心、AI、HPC等领域。

芯东西等媒体与Rambus大中华区总经理苏雷、Rambus IP核产品营销高级总监Frank Ferro就Rambus HBM3的具体性能以及Rambus对客户的支持等进行了深入交流。

一、支持8.4Gbps数据传输速率,带宽超TB

据Frank分享,随着越来越多的公司进入人工智能市场,这对内存带宽提出了很多要求,而神经网络和深度学习等AI应用也在不断推动内存带宽增长。

咨询公司IDC内存半导体副总裁Soo Kyoum Kim曾称:“AI/ML训练对内存带宽的需求永无止境,一些前沿训练模型现已拥有数以十亿的参数。”

Rambus的HBM3内存子系统提高了原有性能标准,包含完全集成的PHY和数字控制器,可以支持当下很多AI及HPC应用。

具体来说,HBM3的数据传输速率高达8.4Gbps/pin,带宽达1075.2GB/s(1.075TB/s)。Rambus的HBM3支持标准的64位16通道,支持2、4、8、12和16 HBM3 DRAM堆栈,信道密度达32Gb。

Frank回应芯东西记者问题时称,HBM3的流片时间预计为18个月,因此可能会在2022年末或2023年初出片,并实际应用于部分客户。

Rambus推HBM3内存子系统:速率高达8.4Gbps,带宽突破1TB▲Rambus HBM3产品性能亮点与目标市场

Frank称,由于其数据传输速率和带宽较高,HBM3可以应用于AI、机器学习、HPC等多种应用。

HBM3采用了2.5D架构,最上面集成了4条DRAM内存条,通过堆叠的方式集成在了一起。内存条下方是SoC和中介层,最下面的绿色部分则是封装。

对客户来说,Rambus会提供SI/PI专家技术支持,确保设备和系统具有最优的信号和电源完整性。作为IP授权的一部分,Rambus也将提供2.5D封装和中介层参考设计。

Rambus推HBM3内存子系统:速率高达8.4Gbps,带宽突破1TB▲Rambus HBM3产品架构

Frank还给出了HBM性能的演进图。

2016年HBM2的带宽为256GB/s,I/O数据速率为2Gbps;HBM2E的带宽则能达到460GB/s,数据传输速率达3.6Gbps;SK海力士公布的HBM3带宽和传输速率分别为665GB/s和5.2Gbps;Rambus的HBM3性能又进一步提升,分别达1075GB/s和8.4Gbps。

Rambus推HBM3内存子系统:速率高达8.4Gbps,带宽突破1TB▲HBM产品性能演进图

Frank强调,虽然Rambus的HBM3性能比SK海力士此前公布的要更进一步,但SK海力士作为Rambus的重要客户,Rambus也会为其提供支持。

苏雷还透露,当前国内的一流AI芯片厂商都和Rambus有所接触,预计行业将会快速升级到HBM3标准。

二、Rambus优势:市场经验丰富、支持多厂商制程节点

对于Rambus能够为客户提供的服务,Frank提到Rambus在HBM市场中拥有丰富的经验和技术优势。

Rambus在2016年就进入了HBM市场,其HBM2E内存子系统拥有行业中最快的4Gbps速率。

凭借产品性能,Rambus获得了超过50个市场订单,是市场份额排名第一的HBM IP供应商。Rambus的芯片开发基本一次就能成功,无需返工,提升了设计效率。

同时,Rambus的HBM2/2E PHY(端口物理层)支持台积电、三星等多个先进制程节点。其产品集成了PHY、IO、Decap等,其客户可以直接采用。

Rambus也与SK海力士、三星等DRAM供应商关系紧密,其测试芯片已经经过了市场上所有供应商的DRAM验证,能够为客户提供便捷地服务。

Rambus推HBM3内存子系统:速率高达8.4Gbps,带宽突破1TB▲Rambus在HBM市场中的优势

三、2025年全球数据使用量将达到175ZB,AI芯片市场将达百亿美元

Rambus大中华区总经理苏雷分享了近年来Rambus所取得的成绩。Rambus创建时间已经超过30年,公司总部位于美国加利福尼亚州,在欧盟和亚洲等地设有办事处,全球员工人数超过600人。

Rambus拥有3000余项专利和应用,2020年经营现金流达1.855亿美元,来自产品、合同等收入同比增长41%。其主要的客户有三星、美光、SK海力士等内存厂商和高通、AMD、英特尔等芯片厂商,Rambus 75%以上的收入来自于数据中心和边缘计算产品销售。

Rambus推HBM3内存子系统:速率高达8.4Gbps,带宽突破1TB▲半导体产业生态

从市场来说,人工智能/机器学习越来越多地应用于各个领域。预计到2025年,超过25%的服务器将用于人工智能领域,AI芯片市场将达到100亿美元。

2025年,全球数据使用量将达到175ZB,年均复合增长率达35%,服务器整体年增长率为8%。苏雷称,Rambus也将致力于使数据传输更快、更安全。

Rambus推HBM3内存子系统:速率高达8.4Gbps,带宽突破1TB▲数据中心市场趋势

结语:HBM3将推动AI、HPC应用发展

相对于GDDR显存,HBM有着高带宽的特性,是数据密集型应用内存和数据处理瓶颈的解决方案之一。

本次Rambus HBM3 IP的推出,将再次推动HBM产品性能的提升,推动人工智能、高性能计算等应用发展。