华泰证券:AI 芯片竞争加剧 英伟达发布 H200 新品迭代提速显著

Zhitong
2023.11.14 23:46
portai
I'm PortAI, I can summarize articles.

多方入局下,AI 芯片竞争已趋白热化。

智通财经 APP 获悉,华泰证券发布研究报告称,头部科技大厂出于削减 TCO、提升研发可控性及集成生态等考量,均陆续自研芯片,他们或将成为英伟达 (NVDA.US) 最大竞争对手。英伟达刚推出 NVIDIA HGX H200,从 HBM3 内存升级到 HBM3e,也是首款采用 HBM3e 的 GPU,相较于前代 H100 展现了显著的性能提升和效率革新。主要针对 AI 计算的两大瓶颈:内存容量与带宽。其旗舰芯片迭代周期也显著加速,从大约两年发布转为一年多版。AWS、谷歌云、微软 Azure 和甲骨文等将成为其主要客户。

华泰证券主要观点如下:

多方入局下,AI 芯片竞争已趋白热化

英伟达 GPU 一直是 AI 训练端首选,华泰证券认为包括谷歌 TPU 和 AMD MI300 系列等少数芯片能与其匹敌。但当算法开始成熟,ASIC 定制芯片凭着专用性和低功耗,能承接部分算力。该机构认认为头部科技大厂出于削减 TCO、提升研发可控性及集成生态等考量,均陆续自研芯片,他们或将成为英伟达最大竞争对手,如特斯拉 Dojo、亚马逊在 18 和 20 年发布的 AI 推理芯片 Inferentia 及训练芯片 Trainium、以及微软或将在 11 月 14 日 Ignite 会议推出的首款自研 AI 芯片 “Athena(雅典娜)”。AI 推理市场规模大,但对算力要求比训练低,目前虽以 CPU 主导,但 GPU/FPGA/ASIC 等也能占到一席位。

英伟达推出 NVIDIA HGX H200,新品迭代提速显著

英伟达于美国时间 11 月 13 日推出 NVIDIA HGX H200。H200 从 HBM3 内存升级到 HBM3e,是首款采用 HBM3e 的 GPU,拥有高达 141GB 的内存容量,及 4.8TB/s 的带宽,对比 H100 的 80GB 和 3.35TB/s 大幅提升。在性能表现方面,H200 重点强化了推理性能和 HPC 性能,有效降低了能耗和整体成本。根据 SemiAnalysis 在 10 月 10 日的报道,英伟达未来 AI 芯片路线图显示,公司计划在明后两年推出 H200、B100 和 X100 等芯片及配套方案。这一策略标志着其旗舰芯片迭代周期的显著加速,即发布间隔从大约两年转变为一年多版,展示了公司的创新能力和领导地位。

NVIDIA HGX H200:性能与效率的双重提升

NVIDIA 的 HGX H200 相较于前代 H100 展现了显著的性能提升和效率革新。在推理应用中,H200 将 Llama 2(700 亿参数的大型语言模型) 的推理速度提高了近一倍。此外,H200 还相对 H100 实现了 TCO(Total Cost of Ownership) 和能耗成本 50% 的降低。内存容量与带宽是限制 AI 计算的主要瓶颈,H200 在加速生成式 AI 和大型语言模型方面更为出色,标志着 NVIDIA 在高性能计算领域迈出了重要一步。成本的减低也将有利于整体 AI 芯片在推理场景的应用的推进。

HGX H200 预计在 24Q2 发货,AWS 等云大厂均为首批用户

H200 能够与 HGX H100 系统的硬件和软件兼容。2023 年 8 月在 SIGGRAPH 大会发布的 GH200 Grace Hopper 超级芯片 (HBM3e 版本) 即为 H200 与 Grace CPU 配合使用。公司也计划两者均于 24Q2 正式出货。除了英伟达自己投资的 CoreWeave、Lambda 和 Vultr 之外,AWS、谷歌云、微软 Azure 和甲骨文,都将成为首批部署基于 H200 实例的供应商。

风险提示:技术落地缓慢;中美竞争加剧;芯片需求不及预期;宏观经济不确定性。