我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
高速运算需求增长,更有效的AI服务器散热方案也受重视。TrendForce最新AI服务器报告,NVIDIA将在年底推出新平台Blackwell,届时大型CSP也会开始构建Blackwell新平台AI服务器数据中心,有机会带动液冷散热方案渗透率达10%。
气冷、液冷并行方案满足更高散热需求
NVIDIA Blackwell平台2025年放量,取代Hopper平台成NVIDIA高端GPU主力方案,占整体高端产品近83%。B200和GB200等追求高性能的AI服务器机型,单颗GPU功耗达1,000W,HGX机型每台八颗GPU,NVL机型每柜达36颗或72颗GPU,可观能耗促进AI服务器散热液冷供应链增长。
服务器芯片热设计功耗(Thermal Design Power,TDP)持续提高,如B200芯片TDP达1,000W,传统气冷散热方案不足以应对需求;GB200 NVL36及NVL72整机柜TDP甚至达70kW及近140kW,需搭配液冷方案方以有效解决散热问题。
TrendForce了解,GB200 NVL36架构初期以气冷、液冷并行方案为主;NVL72因有更高散热需求,原则上优先采液冷方案。
观察现行GB200机柜系统液冷散热供应链,可分水冷板(Cold Plate)、冷却分配系统(Coolant Distribution Unit,CDU)、分歧管(Manifold)、快接头(Quick Disconnect,QD)和风扇背门(Rear Door Heat Exchanger,RDHx)五大零部件。
CDU为关键系统, 负责调节冷却剂流量至整个系统,确保机柜温度控制在默认TDP范围。TrendForce观察,目前NVIDIA AI方案以Vertiv为主力CDU供应商,奇????、双鸿、台达电和CoolIT等持续测试验证。
2025年GB200出货量估达六万柜,使Blackwell平台成市场主流占NVIDIA高端GPU超过八成
2025年NVIDIA将以HGX、GB200 Rack及MGX等多样组态AI服务器,分攻CSPs及企业型客户,三机型出货比例约5:4:1。HGX平台可较无痛接轨Hopper设计,CSPs或大型企业客户可迅速采用。GB200整柜AI服务器方案将以超大型CSPs为主打,TrendForce预估NVIDIA年底先导入NVL36组态,以求快速进入市场。NVL72因AI服务器整体设计及散热系统较复杂,估2025年推出。
TrendForce表示,NVIDIA大力扩展CSPs用户群体,2025年GB200折算NVL36出货量有望达六万柜,GB200的Blackwell GPU用量可达210万至220万颗。
然而终端客户采GB200 Rack仍有几项变量。TrendForce指NVL72需较完善液冷散热方案,难度也高,液冷机柜设计较适合新建数据中心,但会涉及土地建筑物规划等复杂程序。且CSPs可能不希望受单一供应商绑规格,采HGX或MGX等搭载x86 CPU架构机型,或扩大自研ASIC AI服务器基础设施,以应对更低成本或特定AI应用。
(首图来源:Created by Freepik)
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-07-31 15:45:01
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: