
随着新一代人工智能技术的快速发展,推动算力需求快速增长,算力和算力基础设施的高质量发展已成为影响国家竞争力的关键因素之一。工信部等六部门联合发布的《算力基础设施高质量发展行动计划》中明确提出,2025年算力规模要超过300EFlops,其中,智能算力占比达到35%的目标。市场驱动和政策导向共同催生了对智算中心和智慧算力的巨大需求,使得AI服务器也成为市场争夺的焦点。
在各种AI应用场景中,大模型训练是算力密度最高的应用场景之一,其不仅对AI服务器的计算性能要求高,同时,对存储性能、网络通信以及制冷能力要求也非常高,需要厂商具有非常全面的服务器研发能力和生产能力。
联想问天WA7880a G3是联想推出的一款面向大模型训练的AI服务器,具有多元算力、灵活配置与节能高效等特点,凝结了联想在服务器领域30多年的积累和对AI算力的深刻洞察。
一、智算芯机 支持多元国产算力生态
在AI服务器中,除了CPU之外还需要AI加速芯片提供计算加速。在加速计算方面,英伟达占据市场主导地位。不过,由于自主可控需求以及除英伟达以外的国外芯片替代等原因,近年来国产AI加速芯片产业得到蓬勃发展,涌现出了一批优秀的中国企业,如壁仞科技、沐曦、天数智芯等,这些企业的崛起满足了自主可控及国产化替代的需求。同时,还通过加速芯片与应用场景的协同优化,为用户提供了更具性价比的解决方案。
作为算力基础设施的领导厂商,联想一直积极与国产算力生态企业合作,将国产AI加速芯片适配到联想AI服务器中,并推出多款AI服务器以满足训练和推理等场景的需求。这种合作模式不仅提升了联想服务器的市场竞争力,也促进了国产算力生态的繁荣发展。
联想问天WA7880a G3是一款专门为中国用户打造的AI服务器,支持国产算力生态。它还是国内首款支持OAM 2.0模组的服务器,可兼容国内主流GPU厂商如沐曦、天数智芯、昆仑芯、壁仞等公司的OAM标准AI加速芯片,为用户提供更加灵活多样的算力选择,满足不同应用场景的需求,这些都体现了联想在开放生态兼容性方面的强大实力和技术前瞻性。
除了适配多种AI加速芯片之外,联想问天WA7880a G3可以搭载英特尔第四代或者第五代至强可扩展处理器,至强可扩展处理器内置AMX等加速引擎,配合英特尔优化的AI开发环境,也可为AI应用助力。
二、灵活扩展,按需组建强大的算力集群
随着大模型参数规模的增长和数据量的增加,AI应用对计算资源的需求也越来越高,常常需要组建AI服务器集群来满足大算力需求。作为一台主要面向大模型训练的AI服务器,联想问天WA7880a G3也提供了充分的可扩展性,可以方便地构建AI算力集群。
比如,联想问天WA7880a G3支持单上行和双上行拓扑,可以根据不同AI应用灵活组建算力集群。同时,联想问天WA7880a G3还支持OAM模组:计算网络:存储网络 8:8:2 的超强配比,以最大程度地发挥服务器潜能。另外,联想问天WA7880a G3最多可支持18个PCIe 5.0插槽,其PCIe模组资源还可以灵活调配,接插不同硬件,以适配不同AI应用的需求。
三、搭配联想问天海神液冷方案 实现节能减排
除了对多元算力支持和配置灵活等特点之外,联想问天WA7880a G3在高效节能方面,同样表现出色。
众所周知,AI服务器多AI加速卡的配置带来了强劲的性能,也带来了更高的能耗,传统的风冷散热已经难以满足AI服务器对高效散热的需求,液冷技术应运而生。相比风冷,液冷可以更高效地带走服务器的热能,同时还有助于提高服务器的性能和稳定性,延长服务器等IT设备的使用寿命。
联想问天海神液冷解决方案是联想自主研发的一项数据中心液冷技术,能为AI服务器提供高效、节能、可靠的散热方案,让数据中心PUE值低于1.1。
联想问天WA7880a G3服务器可以通过部署联想问天海神液冷方案,结合独立风道设计,降低运行时的能耗与热量积聚,从而实现高效制冷。这一创新设计不仅为用户打造了一个既环保又高效的智算中心,还降低了长期运营成本,提升了整体经济效益。
综上所述,联想问天WA7880a G3作为一款专为AI大模型训练设计的服务器,凭借其强大的算力支持、灵活的配置选项以及高效节能的设计,成为了当前市场上备受瞩目的明星产品。它不仅满足了用户对高效算力的需求,还推动了国产算力生态的发展,为AI技术的应用和普及提供了有力的支持,为千行百业的智能化转型提供助力。