12月8日智譜AI發布并開源 GLM-4.6V 系列多模態大模型,沐曦股份曦云C系列GPU完成Day 0適配。
GLM-4.6V 系列多模態大模型共包含兩款模型:
GLM-4.6V(106B-A12B):面向云端與高性能集群場景的基礎版;
GLM-4.6V-Flash(9B):面向本地部署與低延遲應用的輕量版。
作為 GLM 系列在多模態方向上的一次重要迭代,GLM-4.6V 將訓練時上下文窗口提升到 128k tokens,在視覺理解精度上達到同參數規模 SOTA,并首次在模型架構中將Function Call(工具調用)能力原生融入視覺模型,打通從「視覺感知」到「可執行行動(Action)」的鏈路,為真實業務場景中的多模態 Agent 提供統一的技術底座。
1原生多模態工具調用
傳統工具調用大多基于純文本,在面對圖像、視頻、復雜文檔等多模態內容時,需要多次中間轉換,帶來信息損失和工程復雜度。
GLM-4.6V 從設計之初就圍繞「圖像即參數,結果即上下文」,構建了原生多模態工具調用能力:
輸入多模態:圖像、截圖、文檔頁面等可以直接作為工具參數,無需先轉為文字描述再解析,減少鏈路損耗。
輸出多模態:對于工具返回的統計圖表、渲染后網頁截圖、檢索到的商品圖片等結果,模型能夠再次進行視覺理解,將其納入后續推理鏈路。
模型原生支持基于視覺輸入的工具調用,完整打通從感知到理解到執行的閉環。這使得 GLM-4.6V 能夠應對圖文混排輸出、商品識別與好價推薦、以及輔助型 Agent 場景等更復雜的視覺任務。
2同規模開源 SOTA
GLM-4.6V 在 MMBench、MathVista、OCRBench 等30+ 主流多模態評測基準上進行了驗證,較上一代模型取得顯著提升。在同等參數規模下,模型在多模態交互、邏輯推理和長上下文等關鍵能力上取得SOTA表現。

3MXMACA 軟件棧加速國產模型落地
MXMACA 軟件棧作為沐曦股份全棧 GPU 解決方案的核心,在vLLM, sglang 等主流AI推理框架中展現出快速適配的優勢,其 GPU 架構和優化設計和良好的生態兼容性確保了高效、靈活的推理部署。此次沐曦股份曦云 C 系列GPU完成 Day 0 適配智譜 GLM-4.6V 系列多模態大模型再次印證了這一優勢。MXMACA 軟件棧將繼續以開放式架構和持續迭代優化,賦能推理框架、模型、應用開發到運維的全生命周期,助力開發者構建更具競爭力的 AI 產品。
關于沐曦股份
沐曦股份致力于自主研發全棧高性能GPU芯片及計算平臺,為智算、通用計算、云渲染等前沿領域提供高能效、高通用性的算力支撐,助力數字經濟發展。
-
gpu
+關注
關注
28文章
5194瀏覽量
135431 -
沐曦
+關注
關注
1文章
80瀏覽量
1811 -
大模型
+關注
關注
2文章
3648瀏覽量
5179
原文標題:沐曦股份曦云C系列GPU Day 0適配智譜GLM-4.6V
文章出處:【微信號:沐曦MetaX,微信公眾號:沐曦MetaX】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
沐曦股份曦云C系列GPU全面適配通義千問Qwen3.5三款新模型
沐曦股份曦云C系列GPU深度適配通義千問Qwen3.5模型
沐曦股份曦云C系列GPU Day 0適配智譜GLM-4.6V多模態大模型
評論