市场近日传出NVIDIA(英伟达)取消B100并转为B200A,但根据TrendForce集邦咨询了解,NVIDIA仍计划在2024年下半年推出B100及B200,供应CSPs(云端服务业者)客户,并另外规划降规版B200A给其他企业型客户,瞄准边缘AI(人工智能)应用。
随着高速运算的需求成长,更有效的AI Server(AI服务器)散热方案也受到重视。根据TrendForce集邦咨询最新AI Server报告,由于NVIDIA(英伟达)将在2024年底前推出新一代平台Blackwell,届时大型CSP(云端服务业者)也会开始建置Blackwell新平台的AI Server数据中心,预估有机会带动液冷散热方案渗透率达10%。
根据TrendForce集邦咨询最新存储器产业分析报告,受惠于位元需求成长、供需结构改善拉升价格,加上HBM(高带宽内存)等高附加价值产品崛起,预估DRAM(内存)及NAND Flash(闪存)产业2024年营收年增幅度将分别增加75%和77%。而2025年产业营收将持续维持成长,DRAM年增约51%、NAND Flash年增长则来到29%,营收将创历史新高,并且推动资本支出回温、带动上游原料需求,只是存储器买方成本压力将随之上升。
根据TrendForce集邦咨询最新发布「AI服务器产业分析报告」指出,2024年大型CSPs(云端服务业者)及品牌客户等对于高阶AI服务器的高度需求未歇,加上CoWoS(基板上晶圆芯片)原厂台积电及HBM(高带宽内存)原厂如SK hynix(SK海力士)、Samsung(三星)及Micron(美光科技)逐步扩产下,于今年第2季后短缺状况大幅缓解,连带使得NVIDIA(英伟达)主力方案H100的交货前置时间(Lead Time)从先前动辄40-50周下降至不及16周,因此TrendForce集邦咨询预估AI服务器第2季出货量将季增近20%,全年出货量上修至167万台,年增率达41.5%。
根据TrendForce集邦咨询最新研究显示,今年上半年AI服务器订单需求稳健增长,下半年英伟达新一代Blackwell GB200服务器以及WoA AI赋能笔电,陆续于第三季进入量产出货阶段,将推升原始设计制造商(ODMs)备货动能逐月增温,预计带动高容值多层陶瓷电容器(MLCC)出货量攀升,进一步推升MLCC平均售价(ASP)。