CPUs are booming, but there are even greater opportunities in the server sector

華爾街見聞
2026.01.29 11:28
portai
I'm PortAI, I can summarize articles.

2026 年,半導體行業面臨 CPU 產能危機,英特爾與 AMD 的服務器 CPU 產能已售罄,計劃漲價 10%-15%。北美五大雲服務商的資本支出將大幅上漲 40%,推動 CPU 需求激增。英特爾高管承認,超大規模客户的需求超出預期,導致供應短缺,需優先保障數據中心客户。CPU 在 AI 時代仍是核心計算單元,儘管 GPU 在 AI 訓練中占主導地位。

2026 年初,半導體行業被一則出人意料的消息震動:技術迭代穩健、市場成熟的 CPU,竟也遭遇了類似存儲芯片的"產能危機"。

根據 KeyBanc 資本市場的數據,由於超大規模雲服務商的瘋狂"掃貨",英特爾與 AMD 在 2026 全年的服務器 CPU 產能已基本售罄。為應對這種極端的供需失衡,兩家公司均計劃將服務器 CPU 價格上調 10% 至 15%,這在傳統上價格升降相對平緩的 CPU 市場實屬罕見。

CPU 產能的罕見緊張背後,是一個不可阻擋的力量在推動。北美五大超大規模雲服務商——谷歌、微軟、亞馬遜、Meta 和甲骨文——在 2026 年的資本支出將同比大幅上漲 40%。這些科技巨頭在瘋狂擴大 AI 基礎設施,而 CPU 作為任何服務器的必需品,成為了他們競爭的目標。

正如滙豐銀行分析師所指出的,隨着 AI 從簡單的助手演進為能夠自主規劃並執行復雜任務的 AI 智能體,對通用計算能力的需求正以前所未有的速度增長,直接推動了 CPU 需求的水漲船高 。

英特爾自身也感受到了這股熱潮。在其 2025 年第四季度財報電話會議上,公司高管承認,過去兩個季度服務器 CPU 的需求,特別是來自超大規模客户的需求,完全超出了他們的預料。這種始料未及的需求激增,導致英特爾面臨供應短缺,並不得不做出艱難的戰略抉擇:優先保障數據中心客户的供應,甚至不惜將部分 PC 產能轉向服務器芯片,這也凸顯了服務器 CPU 市場當前的火熱程度 。

CPU:從計算核心到 AI 時代的總指揮

長期以來,CPU 作為服務器的"大腦",承擔着處理各種通用計算任務的核心角色。它負責運行操作系統、管理內存、協調 I/O 操作,並執行各類應用程序的邏輯運算。在傳統數據中心架構中,CPU 幾乎是唯一的計算單元,其性能直接決定了服務器的整體能力。然而,在以 GPU 為代表的並行計算加速器主導 AI 訓練的時代,CPU 的星光一度顯得有些黯淡。許多人開始質疑:在 AI 時代,CPU 是否已經淪為配角?

答案是否定的。AI 智能體的興起,正賦予 CPU 一個全新的、不可或缺的戰略地位——AI 工作流的"總指揮"。與主要執行大規模並行計算的 AI 模型訓練和推理不同,智能體 AI 的工作模式更為複雜。它需要進行規劃、調用不同的工具或數據庫、與外部 API 交互、並對多個 AI 模型的輸出進行協調和決策。這些任務本質上是串行的、邏輯複雜的,並且需要靈活的資源調度,而這正是 CPU 的傳統強項 。

英特爾 CFO 在財報會議上對此進行了深入闡述:"世界正從人工提示請求轉向由計算機到計算機交互驅動的持續遞歸命令。CPU 作為協調這些流量的核心功能,不僅將推動傳統服務器的更新換代,還將帶來擴大裝機基數的新需求"。換言之,CPU 成為了整個 AI 系統的"中樞神經",負責協調和編排各種專用加速器,將原始的算力轉化為解決實際問題的有效能力。

CPU 市場格局:從一家獨大到兩強爭霸

然而,在相關市場中,競爭格局早已天翻地覆。英特爾曾一度佔據服務器 CPU 市場 97% 的絕對壟斷地位,但 AMD 憑藉其 EPYC 系列處理器的強大產品力,成功上演了一場逆襲。根據 Mercury Research 的數據,截至 2025 年第三季度,英特爾的服務器單位出貨量份額已下滑至 72%,而 AMD 則強勢佔據了近 28% 的份額。在更能反映市場價值的營收份額上,英特爾更是跌至 61%,而 AMD 則攀升至約 39% 。

AMD EPYC 處理器的成功,得益於其在核心數量、性能功耗比上的顯著優勢。從 2017 年中發佈的第一代 EPYC(Naples)開始,AMD 就以更高的核心密度和更優的能效比吸引了對成本和效率極為敏感的雲服務商和大型企業。早期採用者對其性能水平感到驚喜,口碑迅速傳播,使 EPYC 成為市場上不可忽視的力量。

據報道,AMD 的目標是佔據服務器 CPU 市場 50% 的份額,這意味着與英特爾之間的競爭還將持續升級。這場曠日持久的"CPU 戰爭"遠未結束,但一個不爭的事實是,雙頭壟斷的格局已經穩固,市場正在從一家獨大走向兩強爭霸。

然而,當所有人的目光都聚焦於這場"王座之爭"時,一個更強大的顛覆者已在悄然積蓄力量。正如 Bloomberg Intelligence 分析師所指出的:"AI 加速器市場正在經歷結構性轉變,因為傳統 CPU 已無法滿足現代 AI 模型的大規模計算需求"。這一判斷,將我們的視野引向了一個更為廣闊的戰場。

ASIC 的崛起

ASIC,即專用集成電路,是為特定應用而設計的芯片。與 CPU 的"通用性"相對,ASIC 的"專用性"使其能夠在特定任務上實現極致的性能和能效。在 AI 時代,這種為特定算法量身定製的芯片,正成為超大規模雲服務商的新歡。

超大規模廠商轉向 ASIC 的原因主要有三點。首先是成本優化:當 AI 運算規模達到數萬甚至數十萬芯片級別時,通用芯片高昂的採購成本和運營成本(主要是電費)成為巨大負擔,自研或定製 ASIC 可以顯著降低單位算力的成本。其次是性能與能效:通過裁剪掉通用 CPU 中大量非必需的模塊,ASIC 可以將所有晶體管都用於特定的 AI 計算,從而在性能和每瓦性能上實現數量級的提升。第三是架構差異化:自研 ASIC 使雲服務商能夠構建獨特的、與自身軟件和服務深度綁定的硬件生態,形成他人難以複製的競爭壁壘。

各大市場研究機構的預測數據雄辯地證明了這一趨勢。根據 Bloomberg Intelligence 於 2026 年 1 月發佈的報告,雖然 GPU 在未來十年仍將主導 AI 加速器市場,但定製 ASIC 市場的增長將更為迅猛。預計到 2033 年,定製 ASIC 市場規模將達到 1180 億美元,複合年增長率高達 27%,其在整個 AI 加速器市場的份額將從 2024 年的 8% 躍升至 19% 。

Counterpoint Research 於 2026 年 1 月 26 日發佈的報告預測則更為激進。他們預計全球 AI 服務器 ASIC 的出貨量在 2024 到 2027 年間將增長三倍,並將在 2028 年超過數據中心 GPU 的出貨量,屆時全球數據中心 AI 服務器 ASIC 出貨量將超過 1500 萬片。該機構指出,2024-2028 年間,全球前 10 大 AI 超大規模廠商累計將部署超過 4000 萬片 AI 服務器 ASIC 芯片。

市場格局也在發生深刻變化。2024 年,AI 服務器 ASIC 市場由谷歌(64%)和 AWS(36%)主導,呈現雙寡頭格局。但到 2027 年,市場將演變為更加多元化的生態,Meta(MTIA)和微軟(Maia)等玩家也將佔據重要份額 。這一轉變凸顯了超大規模廠商從依賴通用 GPU 轉向內部定製芯片的戰略意圖。

在 ASIC 設計合作伙伴領域,博通預計將保持領先地位,到 2027 年佔據約 60% 的市場份額。該公司通過與谷歌、Meta 和 OpenAI 的合作,牢牢把控着 AI ASIC 市場的主導權。Marvell 則憑藉與 AWS 和微軟的關鍵設計合作,佔據約 20-25% 的市場份額。值得注意的是,聯發科正在進入這一領域,已獲得谷歌 TPU v8x 推理芯片的設計合作,對博通的長期主導地位構成潛在挑戰 。

巨頭的 ASIC 產品

在這場 ASIC 的軍備競賽中,幾大科技巨頭已經推出了足以挑戰行業格局的"巨獸"。

谷歌 TPU 作為 ASIC 領域的先行者,谷歌的 TPU 已經發展到第七代(Ironwood),於 2025 年 4 月發佈。TPU v7 擁有驚人的 4,614 TFLOPs(FP8)的單芯片算力,配備 192GB 的 HBM3e 高帶寬內存,支持超過 100 萬 token 的 KV 緩存,專門為大規模 AI 推理和支持其核心產品 Gemini 大模型而設計。在系統級擴展方面,單個 TPU Pod 可容納 9,216 顆芯片,形成強大的超級計算集羣。

谷歌不僅自用,還通過與博通甚至聯發科的合作,構建了複雜的供應鏈。在即將推出的 TPU v8 系列中,谷歌採用雙供應商策略:博通負責高性能訓練芯片 TPU v8AX "Sunfish",聯發科則獲得推理專用芯片 TPU v8x "Zebrafish"的設計合作,以平衡成本與性能。

Amazon AWS Trainium 是亞馬遜雲服務生態的重要支柱。最新的 Trainium3 採用台積電 3nm 工藝,是 AWS 首款採用該先進製程的 AI 芯片。單芯片集成 8 個 NeuronCore-v4 計算核心,FP8 峯值算力達到 2.52 PFLOPs,配備 144GB HBM3e 內存(12 層堆疊設計),內存帶寬高達 4.9 TB/s,比上一代提升約 70%。

AWS 的目標非常明確:為雲客户提供比通用 GPU 更具成本效益的 AI 訓練選項。其 Trn3 UltraServer 平台可集成多達 144 顆 Trainium3 芯片,總內存容量約 20.7TB,總帶寬約 706 TB/s,峯值 FP8 算力達 362 PFLOPs。與上一代平台相比,整體算力提升 4.4 倍,內存帶寬提升 3.9 倍,能效提升超過 4 倍。據報道,Trainium 已經處理了 AWS 內部超過 60% 的 AI 推理工作負載,超出分析師預期 。

微軟 Maia 在 2026 年初發布的 Maia 200 芯片,直接將矛頭對準了推理市場。微軟宣稱,Maia 200 的 FP4 性能是亞馬遜第三代 Trainium 的 3 倍,也超越了谷歌的 TPU v7,是"任何超大規模廠商中性能最強的第一方芯片" 。這顯示了微軟在自研芯片上追趕並超越對手的決心,也標誌着 AI 推理芯片競爭進入白熱化階段。

Meta MTIA 的自研芯片計劃同樣雄心勃勃。其 MTIA 芯片旨在同時覆蓋訓練和推理,以支持其龐大的推薦系統和未來的元宇宙及 AI 智能體應用。Meta 正與博通等夥伴緊密合作,加速其自研芯片的迭代和部署。據報道,Meta 在 AI 芯片基礎設施上的投入估計高達 100 億美元,並通過收購 Rivos 等舉措,進一步減少對 NVIDIA 的依賴 。

值得注意的是,台積電在這場 ASIC 競賽中扮演着關鍵角色,佔據前 10 大廠商 AI 服務器 ASIC 晶圓製造近 99% 的份額 。這意味着,無論是谷歌、亞馬遜還是微軟,它們的自研芯片最終都依賴於台積電的先進製程能力。

結語

毫無疑問,CPU 在可預見的未來仍然是數據中心不可或缺的組成部分。AI 時代的複雜工作流,特別是智能體 AI 的興起,反而強化了其作為"總指揮"的戰略價值,為其帶來了新的增長動力。英特爾和 AMD 之間的激烈競爭將繼續推動技術進步,為市場提供更強大的通用計算平台。對於這兩家公司而言,服務器 CPU 業務依然是利潤豐厚的核心陣地。

然而,從整個服務器芯片市場的增量和未來潛力來看,最大的機會顯然已經從通用計算轉向了專用計算。超大規模雲服務商對極致性能和成本效益的追求,正在催生一個規模空前、增長迅猛的 ASIC 市場。據預測,到 2030 年,僅數據中心一項就將佔據半導體市場總收入的 50% ,而其中 ASIC 的份額將持續擴大。到 2030 年,超大規模雲服務商和二級雲服務商在 AI 相關資本支出方面的投資將超過 3.5 萬億美元,微軟 2026 年資本支出預計超過 1500 億美元,而 OpenAI 的基礎設施路線圖到 2030 年可能超過 1 萬億美元。

對於半導體產業的關注者而言,這意味着需要將視野從傳統的 CPU 雙雄爭霸,擴展到更廣闊的 AI 加速器領域。在這片新戰場上,主角不僅有英偉達這樣的 GPU 巨頭,更有谷歌、亞馬遜、微軟、Meta 這些科技巨擘,以及它們背後的芯片設計服務公司如博通、Marvell 等。它們之間的合縱連橫、技術競賽和生態構建,將共同定義下一個十年的計算架構。

CPU 的故事遠未結束,但一個由 ASIC 開啓的、更加多元和精彩的服務器芯片新篇章,已經正式拉開帷幕。

風險提示及免責條款

市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。