Is the new model from DeepSeek here?

華爾街見聞
2026.02.11 11:18
portai
I'm PortAI, I can summarize articles.

DeepSeek 正灰度測試新一代模型。部分用户打開 App 後收到更新版本的提示,新版本上下文長度從 128K 擴展至 1M,知識庫更新至 2025 年 5 月,官方 App 顯示或是 V4 正式亮相前的終極灰度版。野村證券報告指出,V4 的核心價值在於通過底層架構創新推動 AI 應用商業化落地,而非顛覆現有 AI 價值鏈。

DeepSeek 正在推進新版本模型的灰度測試,或是 V4 正式亮相前的終極灰度版。

2 月 11 日,部分用户打開 DeepSeek App 後收到更新版本的提示。APP 更新後(1.7.4),用户可體驗到 DeepSeek最新模型。本次升級後,模型上下文長度將從 128K 擴展至 1M,接近提升 10 倍;知識庫更新至 2025 年 5 月,多項核心能力獲得實質性提升。

作者實測發現,DeepSeek 在問答中稱,當前的版本很可能也不是 V4,極有可能是 V3 系列的最終進化形態,或是 V4 正式亮相前的終極灰度版。

野村證券於 2 月 10 日發佈報告稱,預計 2026 年 2 月中旬推出的 DeepSeek V4 模型,不會重現去年 V3 發佈時引發的全球 AI 算力需求恐慌。該行認為,V4 的核心價值在於通過底層架構創新推動 AI 應用商業化落地,而非顛覆現有 AI 價值鏈。

據測評,新版本在複雜任務處理能力上已對齊 Gemini 3 Pro 及 K2.5 等主流閉源模型。野村進一步指出,V4 預計將引入 mHC 與 Engram 兩項創新技術,從算法與工程層面突破算力芯片與內存瓶頸。內部初步測試顯示,V4 在編程任務中的表現已超越 Anthropic Claude 及 OpenAI GPT 系列同代模型。

此次發佈的關鍵意義在於進一步壓縮訓練與推理成本,為全球大語言模型及 AI 應用企業緩解資本開支壓力提供可行路徑。

創新架構針對硬件瓶頸優化

野村證券報告指出,算力芯片性能與 HBM 內存瓶頸,始終是國產大模型產業繞不開的硬約束。即將發佈的 DeepSeek V4 所引入的 mHC(超連接與流形約束超連接)與 Engram 架構,正是從訓練與推理兩個維度,針對上述短板進行系統級優化。

mHC

  • 全稱為 “流形約束超連接”。它旨在解決 Transformer 模型在層數極深時,信息流動的瓶頸和訓練不穩定的問題。

  • 簡單説,它讓神經網絡層之間的 “對話” 更豐富、更靈活,同時通過嚴苛的數學 “護欄” 防止信息被放大或破壞。實驗證明,採用 mHC 的模型在數學推理等任務上表現更優。

Engram

  • 一個 “條件記憶” 模塊。它的設計理念是將 “記憶” 與 “計算” 解耦。

  • 模型中的靜態知識(如實體、固定表達)被專門存儲在一個稀疏的內存表中,這個表可以放在廉價的 DRAM 裏。當需要推理時,再去快速查找。這釋放了昂貴的 GPU 內存(HBM),讓其專注於動態計算。

mHC 技術通過改善訓練穩定性和收斂效率,在一定程度對沖國產芯片在互聯帶寬與計算密度上的代際差距;而 Engram 架構則致力於重構內存調度機制,在 HBM 供應受限的背景下,以更高效的存取策略突破顯存容量與帶寬制約。野村認為,這兩項創新共同構成一套面向國產硬件生態的適配方案,具有明確的工程落地價值。

報告進一步指出,V4 發佈帶來的最直接商業影響,是訓練與推理成本的實質性下降。成本端的優化將有效激發下游應用需求,進而催生新一輪 AI 基礎設施建設週期。在此過程中,中國 AI 硬件廠商有望受益於需求放量與投資前置帶來的雙重拉動。

市場格局從"一家獨大"轉向"羣雄割據"

野村報告回顧了 DeepSeek-V3/R1 發佈一年後的市場格局變化。在 2024 年底,DeepSeek 的兩個模型曾佔據 OpenRouter 上開源模型 Token 使用量的一半以上。

但到 2025 年下半年,隨着更多玩家加入,其市場份額已顯著下降。市場從"一家獨大"走向了"羣雄割據"。V4 面臨的競爭環境遠比一年前複雜。DeepSeek 的"算力管理效率"疊加"性能提升"加速了中國大語言模型與應用發展,也改變了全球競爭格局,推動開源模型更受關注。

軟件公司迎來價值提升機遇

野村認為,全球主要雲服務商正全力追逐通用人工智能,資本開支競賽遠未停歇,因此 V4 預計不會對全球 AI 基礎設施市場造成去年那種級別的衝擊波。

但全球大模型及應用開發商正揹負着日益沉重的資本開支負擔。V4 若能在維持高性能的同時顯著降低訓練與推理成本,將幫助這些企業更快地將技術轉化為收入,緩解盈利壓力。

在應用側,更強大、更高效的 V4 將催生更強大的 AI 智能體。報告觀察到,像阿里通義千問 App 等已經能夠以更自動化的方式執行多步驟任務,AI 智能體正從"對話工具"轉型為能處理複雜任務的"AI 助手"。

這些能執行多任務的智能體需要更頻繁地與底層大模型交互,將消耗更多 Token,進而推高算力需求。因此模型效能的提升不僅不會"殺死軟件",反而為領先的軟件公司創造了價值。野村強調,需要關注那些能率先利用新一代大模型能力打造出顛覆性 AI 原生應用或智能體的軟件公司。它們的增長天花板可能因模型能力的飛躍而被再次推高。