今天看啥  ›  专栏  ›  智选投研

AI服务器需求推动HBM爆发式增长电话会纪要

智选投研  · 公众号  ·  · 2023-11-20 08:32
要点:英伟达发布AI芯片H200,首次采用HBM3e,拥有141GB显存,4.8TB/秒带宽。与H100相比,H200的推理速度、带宽、显存容量等提升。随着H200 2024Q2 计划交付、B100计划2024年发布,叠加AI发展算力需求持续增加驱动,有望带动HBM产品市场规模快速增长,利好相关材料、经销、设备、封测等环节发展。需求端:带宽为算力提升瓶颈,HBM与大模型相辅相成。HBM突破了内存容量与带宽瓶颈,打破了“内存墙”对算力提升的桎梏,其具备高带宽、低功耗的特点,面对AI大模型千亿、万亿的参数规模,服务器中负责计算的GPU几乎必须搭载HBM。目前全球HBM产能主要用于满足Nvidia和AMD的AI芯片需求。随着大型互联网客户自研AI芯片陆续推出,HBM客户群预计将大幅扩容,HBM对全球半导体市场的影响力将进一步加大。据TrendForced预测,2024年整体HBM营收有望达89亿美元,年增127%。 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照