Facing TPU and Trainium? NVIDIA once again publishes a statement to "prove" that GB200 NVL72 can enhance the performance of open-source AI models by up to 10 times

華爾街見聞
2025.12.04 11:29
portai
I'm PortAI, I can summarize articles.

繼公開喊話 “領先行業一代” 及私下反駁空頭觀點後,英偉達最新發布技術博文,稱其 GB200 NVL72 系統可將開源 AI 模型的性能最高提升 10 倍,其系統通過硬件和軟件的協同設計,解決了 MoE 模型在生產環境中的擴展難題,有效消除了傳統部署中的性能瓶頸。

英偉達正面臨來自谷歌 TPU 和亞馬遜 Trainium 等競爭對手的挑戰,為鞏固其 AI 芯片市場主導地位,公司近期展開了一系列密集的技術 “自證” 與公開回應。繼此前通過私函反駁看空觀點、公開宣稱其 GPU 技術 “領先行業一代” 後,英偉達再次發佈技術博文,強調其 GB200 NVL72 系統可將頂尖開源 AI 模型的性能提升最高 10 倍。

12 月 4 日,據媒體報道,英偉達發文稱 GB200 NVL72 系統能夠將頂級開源 AI 模型的性能提升多達 10 倍。該公司在週三的博客文章中重點強調了其服務器系統對混合專家模型(MoE)的優化能力,這些模型包括中國初創公司月之暗面開發的 Kimi K2 Thinking 和 DeepSeek 的 R1 模型。

英偉達一系列技術"自證"被視為對市場擔憂的直接回應。此前有媒體報道稱,英偉達的關鍵客户 Meta 正考慮在其數據中心大規模採用谷歌自研的 AI 芯片——張量處理單元(TPU)。據華爾街見聞,谷歌 TPU 直接挑戰了英偉達在 AI 芯片市場超過 90% 的份額。市場擔心,如果 Meta 這樣的超大規模客户開始轉向谷歌,將意味着英偉達堅不可摧的護城河出現了缺口。

英偉達密集發聲並未改善市場擔憂,公司股價近一個月跌幅已接近 10%。

GB200 NVL72 技術優勢凸顯

英偉達在官方博客中表示,其 GB200 NVL72 系統可以顯著提高領先的開源 AI 模型的性能。博文中詳細闡述了 GB200 NVL72 系統的技術優勢。該系統將 72 顆 NVIDIA Blackwell GPU 集成為一個整體,提供 1.4 exaflops 的 AI 性能和 30TB 的快速共享內存。通過 NVLink Switch 連接,系統內部 GPU 間通信帶寬達到 130TB/s。

在性能測試中,被 Artificial Analysis 排行榜評為最智能開源模型的 Kimi K2 Thinking 在 GB200 NVL72 系統上實現了 10 倍性能提升。DeepSeek-R1 和 Mistral Large 3 等其他頂級 MoE 模型同樣獲得顯著性能改善。

混合專家模型(MoE)已成為前沿 AI 模型的主流選擇。英偉達指出,Artificial Analysis 排行榜前 10 名的開源模型均採用 MoE 架構,包括 DeepSeek-R1、Kimi K2 Thinking 和 Mistral Large 3 等。這種架構模仿人腦工作方式,僅激活處理特定任務所需的專門"專家"模塊,而非調用全部模型參數,這使得 MoE 模型能夠在不成比例增加計算成本的情況下,實現更快速、高效的 token 生成。

英偉達強調,其系統通過硬件和軟件的協同設計,解決了 MoE 模型在生產環境中的擴展難題,有效消除了傳統部署中的性能瓶頸。

雲服務商部署加速落地

英偉達透露,GB200 NVL72 系統正被主要雲服務提供商和英偉達雲合作伙伴部署,包括亞馬遜雲服務、Core42、CoreWeave、Crusoe、谷歌雲、Lambda、微軟 Azure、Oracle 雲基礎設施和 Together AI 等。

CoreWeave 聯合創始人兼首席技術官 Peter Salanki 表示:"在 CoreWeave,我們的客户正在利用我們的平台將專家混合模型投入生產。通過與英偉達的密切合作,我們能夠提供緊密集成的平台。"

Fireworks AI 聯合創始人兼 CEO Lin Qiao 指出:"英偉達 GB200 NVL72 的機架規模設計使 MoE 模型服務效率顯著提升,為大規模 MoE 模型服務設立了新的性能和效率標杆。"據悉,該公司目前已在英偉達 B200 平台上部署 Kimi K2 模型,在 Artificial Analysis 排行榜上實現最高性能表現。