近日,海光DCU完成Qwen3.5-397B MoE旗艦多模態模型、Qwen3.5-35B-A3B MoE多模態模型全量適配、精度對齊與推理部署驗證。本次適配依托FlagOS專屬vLLM-plugin-FL多芯片插件實現落地。
FlagOS是一款專為異構AI芯片打造的開源、統一系統軟件棧,支持AI模型一次開發即可無縫移植至各類硬件平臺,大幅降低遷移與適配成本。FlagOS專屬vLLM-plugin-FL多芯片插件完美兼容海光DCU芯片,全程無需修改模型接口、推理引擎邏輯與開發者調用代碼,通過底層插件和算子替換實現無縫適配,大幅降低遷移成本,真正做到開箱即用。
目前兩大版本模型在海光DCU算力平臺實現無縫穩定運行,進一步夯實國產算力支撐大模型落地的核心能力,為行業提供開箱即用的國產化部署方案。
高效攻克適配瓶頸,多模態能力完整落地
Qwen3.5-35B-A3B參數350億、激活參數30億,原生支持262144 tokens超長上下文,采用門控Delta網絡融合MoE架構,具備統一視覺/語言理解能力,覆蓋圖像、視頻多模態輸入,在推理、編碼、Agent及視覺理解等核心場景實現全面躍升。
面對如此復雜的模型架構與多模態能力,精度對齊等技術挑戰尤為突出。海光DCU依托底層軟硬件優化實力,基于眾智FlagOS全棧技術支撐,高效攻克適配瓶頸。經驗證,Qwen3.5模型在海光DCU上推理穩定。
零改造部署,降低落地門檻
FlagOS將核心算子、編譯器等組件內置模型框架,加載時自動生效,配合標準化Docker鏡像與一鍵命令,徹底解決環境配置、性能優化等痛點。
開發者可通過官方文檔獲取部署源碼,也可直接拉取魔搭、HuggingFace等社區的海光專屬模型鏡像、文件,無需額外遷移即可快速啟用。遷移版Qwen3.5-FlagOS模型文件、代碼和鏡像,可一鍵直達部署資源:
HuggingFace平臺:
https://huggingface.co/FlagRelease/Qwen3.5-35B-A3B-hygon-FlagOS
魔搭平臺:
https://modelscope.cn/models/FlagRelease/Qwen3.5-35B-A3B-hygon-FlagOS
全棧技術協同,精度性能雙達標
眾智FlagOS構建的統一AI系統軟件棧,為海光DCU提供全鏈路支撐,FlagRelease工具可半自動支撐實現適配、評測、打包全流程,極速推進適配落地,將傳統數周周期壓縮至數天。
經ERQA、AIME、GPQA Diamond等權威評測集驗證,海光DCU適配后的Qwen3.5系列模型,在視覺理解、復雜推理、語言編碼等核心能力上,與原生版本精度完全對齊,無業務效果折損,適配質量達到行業頂尖水平。
此次適配實現“一次開發、多芯復用”,凸顯出國產算力承接高端大模型任務的常態化。海光DCU將持續深耕AI算力軟硬件優化,聯合FlagOS等生態伙伴,拓展更多主流大模型適配場景,打造穩定高效的國產算力底座,助力AI技術規模化、普惠化落地。
-
模型
+關注
關注
1文章
3789瀏覽量
52208 -
DCU
+關注
關注
0文章
18瀏覽量
3186 -
海光信息
+關注
關注
0文章
36瀏覽量
2706
發布評論請先 登錄
阿里云發布新一代千問Qwen3.6-Plus,媲美Claude系列最強模型
天數智芯完成阿里云通義千問Qwen3.5系列多模態模型全量適配
基于NVIDIA GPU加速端點使用千問3.5 VLM開發原生多模態智能體
沐曦股份曦云C系列GPU全面適配通義千問Qwen3.5三款新模型
美格智能高算力AI模組+Qwen3.5,打造端側最強AI智能體
摩爾線程MTT S5000全面適配Qwen3.5三款新模型
阿里巴巴開源全新一代大模型千問Qwen3.5-Plus
沐曦股份曦云C系列GPU深度適配通義千問Qwen3.5模型
海光DCU完成Qwen3.5多模態MoE模型全量適配
評論