
NVIDIA's Ambition: "AI Native" Completely Disrupts Data Centers

投資數百萬美元購買上一代計算資源,實在太愚蠢了。像最新發布的、人工智能數專用的開發硬件 GH200,只需要不到十分之一的成本和功耗,就能完成同樣的工作。
投資數百萬美元購買上一代計算資源,實在太愚蠢了。像最新發布的、人工智能數專用的開發硬件 GH200,只需要不到十分之一的成本和功耗,就能完成同樣的工作。
英偉達 CEO 黃仁勳在週二的發佈會上這樣説。昨日,英偉達發佈新一代 GH200 Grace Hopper 超級芯片平台,專為加速計算和生成式 AI 時代而打造。
黃仁勳指出,為了滿足生成式 AI 不斷增長的需求,數據中心需要有針對特殊需求的加速計算平台。新的 GH200 芯片平台提供了卓越的內存技術和帶寬,提升無損耗連接 GPU 聚合性能的能力,並且擁有可以在整個數據中心輕鬆部署的服務器設計。
值得一提的是,大模型浪潮來襲,催生各種 AI 原生應用,帶動算力需求激增,專為應對數據密集型人工智能應用的數據中心市場正迅速崛起。
數據中心迎來新變革
據華爾街日報報道,分析師們指出説,隨着老牌雲計算供應商競相為數據中心改裝先進芯片和進行其他升級,以滿足人工智能軟件的需求,一些新興的建設者看到了從零開發新設施的機會。
數據中心類似於一個大型倉庫,配備了多架服務器、網絡和存儲設備,用於存儲和處理數據。與傳統數據中心相比,AI 數據中心擁有更多使用高性能芯片的服務器,因此 AI 數據中心服務器每個機架的平均耗電量可達 50 千瓦或更多,而傳統數據中心每個機架的耗電量大約為 7 千瓦。
這意味着 AI 數據中心需要增建能夠提供更高功率的基礎設施,由於額外的用電量會產生更多的熱量,AI 數據中心還需要其他冷卻方法,如液體冷卻系統,以防止設備過熱。
服務和諮詢公司 Unisys 高級副總裁 Manju Naglapur 指出:
專門建造的人工智能數據中心可容納利用人工智能芯片(如英偉達的 GPU)的服務器,在人工智能應用篩選龐大的數據存儲時,可同時運行多個計算。這些數據中心還配備了光纖網絡和更高效的存儲設備,以支持大規模的人工智能模型。
AI 數據中心是高度專業化的建築,需要投入大量的資金和時間。研究公司 Data Bridge Market Research 數據顯示,到 2029 年,全球人工智能基礎設施市場的支出預計將達到 4225.5 億美元,未來六年的複合年增長率將達到 44%。
DataBank 首席執行官 Raul Martynek 表示,人工智能的部署速度很可能會導致數據中心容量在未來 12 到 24 個月內出現短缺。
AI 算力新秀獲得 23 億美元融資
目前,各路巨頭都在押注 AI 數據中心,“地產標杆” 黑石賣房轉投 AI 數據中心。Meta 也曾表示,將建設一個新的人工智能數據中心。
此前文章提到,AI 算力新秀 CoreWeave,拿英偉達 H100 抵押貸款,獲得債務融資 23 億美元(約 165 億人民幣)。
CoreWeave 表示,這筆資金將用於加快建設人工智能數據中心,這是該公司繼今年 4 月獲得 2.21 億美元和 5 月獲得 2 億美元后的又一次融資。CoreWeave 成立於六年前,目前已有 7 個人工智能數據中心上線,預計到今年年底將翻一番。
CoreWeave 正與英偉達以及 Inflection AI 合作建一個超大型 AI 服務器集羣,目標是運行 2.2 萬塊英偉達 H100。如果建成,將成為全球最大的 AI 服務器集羣。
值得一提的是,根據 CoreWeave 官網宣傳,他們的服務比傳統雲計算廠商便宜 80%。英偉達最新的 HGX H100 服務器,內含 8 張 80G 顯存的 H100 和 1T 內存那種,起步價每小時只要 2.23 美元(16 塊人民幣)。
而相比前代平台,新 GH200 Grace Hopper 平台的雙芯片配置將內存容量提高 3.5 倍,帶寬增加三倍,一個服務器就有 144 個 Arm Neoverse 高性能內核、8 petaflops 的 AI 性能和 282GB 的最新 HBM3e 內存技術。
難怪在這個 LLM 大爆炸的時代,黃仁勳依然大膽放話 “買得越多,省得越多”!
