
KNOWLEDGE ATLAS released the new generation flagship model GLM-5, focusing on enhancing programming and intelligent agent capabilities

2 月 11 日,智譜推出新一代旗艦模型 GLM-5,參數規模擴展至 744B,預訓練數據達 28.5T,集成 DeepSeek 稀疏注意力機制。內部評估顯示,其編程任務性能較上代提升超 20%,真實體驗逼近 Claude Opus 4.5;在 BrowseComp 等三項 Agent 評測中均獲開源第一,異步強化學習為核心突破。
2 月 11 日,智譜正式推出新一代旗艦模型 GLM-5,主攻編程與智能體能力,官方稱已實現開源領域最優表現。這是繼 DeepSeek 後,國產 AI 大模型春節檔的又一重要發佈。
GLM-5 參數規模由上一代的 355B 擴展至 744B,激活參數從 32B 提升至 40B。智譜方面證實,此前在全球模型服務平台 OpenRouter 登頂熱度榜首的神秘模型 “Pony Alpha” 即為 GLM-5。
內部評估顯示,GLM-5 在前端、後端、長程任務等編程開發場景中,平均性能較上一代提升超 20%,真實編程體驗逼近 Claude Opus 4.5 水平。該模型已上線 chat.z.ai 平台。此次發佈標誌着國產大模型在技術路徑與能力表現上持續縮小與國際領先水平的差距,為開發者羣體提供了新的開源選擇。
參數規模翻倍 預訓練數據大幅擴容
智譜新一代旗艦模型 GLM-5 在模型架構層面實現關鍵升級。參數規模由上一代 355B(激活 32B)擴展至 744B(激活 40B),預訓練數據量從 23T 提升至 28.5T,更大規模的算力投入驅動通用智能能力顯著增強。
該模型首次引入 DeepSeek 稀疏注意力機制,在保持長文本處理效果無損的前提下,有效降低部署成本並提升 Token 利用效率。該技術路線與 DeepSeek-V3/V3.2 保持一致。
架構配置方面,GLM-5 構建 78 層隱藏層,集成 256 個專家模塊,每次激活 8 個,激活參數約 44B,稀疏度 5.9%,上下文窗口最高支持 202K token。
編程能力顯著提升
新一代旗艦模型 GLM-5 在內部 Claude Code 評估集中表現突出。前端、後端及長程任務等編程開發場景下,該模型較上一代 GLM-4.7 實現全面超越,平均性能提升逾 20%。
GLM-5 能夠以極少人工干預,自主完成 Agentic 長程規劃與執行、後端重構、深度調試等複雜系統工程任務。官方稱,真實編程環境中的使用體感已逼近 Claude Opus 4.5 水平。
智譜將 GLM-5 定位為最新一代旗艦級對話、編程與智能體模型,重點強化其在複雜系統工程與長程 Agent 任務中的處理能力。
智能體能力實現開源最優表現
GLM-5 在 Agent 能力上達成開源 SOTA,多項評測基準中位列開源第一。在 BrowseComp(聯網檢索與信息理解)、MCP-Atlas(大規模端到端工具調用)及τ2-Bench(複雜場景下自動代理工具規劃與執行)三項測試中,GLM-5 均取得最優表現。
為實現能力突破,該模型構建了全新的 “Slime” 訓練框架,支持更大規模模型架構與更復雜的強化學習任務,顯著提升強化學習後訓練流程效率。
此外,智譜提出異步智能體強化學習算法,使模型具備從長程交互中持續學習的能力,有效激發預訓練模型的深層潛力。該機制已成為 GLM-5 的核心技術特色之一。
國產大模型春節檔密集發佈
智譜清言 GLM-5 的發佈,成為國產 AI 大模型春節檔密集競逐的最新註腳。同日晚間,Minimax 亦上線 Minimax 2.5,距離上一版本 2.2 發佈僅間隔一個多月。
此輪發布潮已持續升温。DeepSeek 此前已推出新模型,阿里千問的 Qwen 3.5、字節跳動的 SeeDance 2.0 等產品也於近期相繼亮相。多家廠商不約而同選擇在春節窗口期集中推新,折射出國產大模型賽道競爭正進入白熱化階段。
目前 GLM-5 與 Minimax 2.5 的詳細技術文檔尚未完全披露,其實際性能表現仍有待開發者社區與專業機構的後續驗證。
