国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

愛芯元智邊緣AI芯片AX8850完成Qwen3-VL多模態(tài)大模型適配

愛芯元智AXERA ? 來源:愛芯元智AXERA ? 2025-11-26 13:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

0 TL;DR

已適配 Qwen3-VL-2B/4B/8B 到 AX8850 開發(fā)板和 M.2 算力卡,可在本地完成圖片內容理解和視頻概要生成,可配合“樹莓派5”使用;

預編譯示例已開源(GitHub & HuggingFace),附帶簡易 Gradio 演示界面,方便示例快速測試;

嘗試提供兼容 OpenAI API 的服務,降低已有云端大模型業(yè)務快速遷移到本地;

最快響應延時<0.5 秒;

M.2 板卡功耗<8 w,支持被動散熱,工業(yè)應用場景更可靠穩(wěn)定。

模型 圖片編碼 TTFT 生成速度
Qwen3-VL-2B 130 ms 320 ms 14.1tokens/s
Qwen3-VL-4B 130 ms 670 ms 7.2tokens/s
模型 視頻編碼(8幀) TTFT 生成速度
Qwen3-VL-2B 460 ms 840 ms 14.1tokens/s
Qwen3-VL-4B 460 ms 1880 ms 7.2tokens/s

背景

今年下半年,隨著業(yè)務推廣需求增加,我們的大模型適配工作也有了新方向:不再只追求前沿模型的快速適配,而是更聚焦為銷售團隊提供“能打”的實戰(zhàn)“彈藥”——也就是貼近客戶剛需的、可快速落地的大模型解決方案。

因此,接下來的技術分享會更聚焦在基于我司邊緣 AI 芯片(如AX8850)的實際應用落地,幫助客戶實現(xiàn)從 Demo 到量產的跨越。

其中一個重點場景就是:視頻事件分析

目前很多視頻分析產品采用類似 CLIP 模型,已經能做到快速的單幀事件實時分析,但是對于時序性較高的場景支持并不太好。而通過多模態(tài)大語言模型,正好可以關聯(lián)相鄰幀的在時間軸上的語義特征信息,能夠進一步對某些持續(xù)性的事件進行理解和輸出。

最近 Qwen3-VL 開源了稠密小參數(shù)量的模型 Qwen3-VL-2B、Qwen3-VL-4B,從公開的 Benchmark 上看相比上一個版本 Qwen2.5-VL 系列有明顯的“跑分”優(yōu)勢。我們已完成相關模型的適配,希望對關注端側多模態(tài)大模型部署實現(xiàn)離線視頻分析的開發(fā)者提供一種新的解題思路。

Qwen3-VL

Qwen3-VL 是阿里巴巴通義千問團隊于 2025 年 9 月 24 日 發(fā)布的最新一代多模態(tài)視覺語言模型(Vision-Language Model, VLM),是 Qwen 系列中目前性能最強、能力最全面的開源視覺語言模型。其整體能力接近甚至在多項指標上超越 Gemini 2.5 Pro 和 GPT-5,并在 32 項核心能力測評中刷新開源模型紀錄。

這一代模型實現(xiàn)了全方位的全面升級:更強的文本理解與生成能力、更深入的視覺感知與推理能力、更長的上下文長度、更出色的時空與視頻動態(tài)理解能力,以及更強大的智能體交互能力。

Huggingface 鏈接

https://huggingface.co/Qwen/Qwen3-VL-2B-Instruct

Paper 鏈接:

https://huggingface.co/papers/2505.09388

在線 Demo:

https://huggingface.co/spaces/akhaliq/Qwen3-VL-2B-Instruct

主要特性:

視覺智能體(Visual Agent):可操作 PC/手機圖形用戶界面(GUI)——識別界面元素、理解功能、調用工具并完成任務;

視覺編程增強(Visual Coding Boost):可直接根據(jù)圖像或視頻生成 Draw.io 流程圖、HTML/CSS/JS 代碼;

高級空間感知(Advanced Spatial Perception):能判斷物體位置、視角與遮擋關系;提供更強的 2D 定位能力,并支持 3D 定位,為復雜空間推理和具身智能(embodied AI)奠定基礎;

長上下文與視頻理解(Long Context & Video Understanding):原生支持 256K 上下文長度,可擴展至 1M;能夠完整記憶并實現(xiàn)秒級索引,輕松處理整本書籍或數(shù)小時長的視頻內容;

增強的多模態(tài)推理(Enhanced Multimodal Reasoning):在 STEM/數(shù)學等領域表現(xiàn)卓越——擅長因果分析,能給出邏輯嚴謹、基于證據(jù)的回答;

升級的視覺識別能力(Upgraded Visual Recognition):通過更廣泛、更高品質的預訓練,真正做到“萬物皆可識”——涵蓋名人、動漫角色、商品、地標、動植物等豐富類別;

擴展的 OCR 能力(Expanded OCR):支持語言從 19 種提升至 32 種;在弱光、模糊、傾斜等復雜條件下依然穩(wěn)健;對罕見字、古文字及專業(yè)術語識別更準確;同時顯著提升了對長文檔結構的解析能力;

媲美純文本大模型的文本理解能力(Text Understanding on par with pure LLMs):實現(xiàn)文本與視覺信息的無縫融合,達成無損、統(tǒng)一的理解體驗。

4d150664-c5fd-11f0-8c8f-92fbcf53809c.jpg

模型架構更新

Interleaved-MRoPE:通過魯棒的位置嵌入,在時間、寬度和高度維度上實現(xiàn)全頻段分配,從而增強長時程視頻推理能力;

DeepStack:融合多層級 ViT 特征,以捕捉細粒度細節(jié)并強化圖像與文本的對齊效果;

文本–時間戳對齊:超越 T-RoPE,實現(xiàn)精確的、基于時間戳的事件定位,從而提升視頻時序建模能力。

Benchmark

4d725706-c5fd-11f0-8c8f-92fbcf53809c.jpg

4ddf140e-c5fd-11f0-8c8f-92fbcf53809c.jpg

部署示例

為了更好的進行開發(fā)者社區(qū)技術推廣,因此我們將借助國內外非常成熟的樹莓派生態(tài)產品:樹莓派 5+AXCL 算力卡的形態(tài)進行說明。基于 AX8850 的社區(qū)開發(fā)板同樣也支持部署該實例,本文就不單獨說明了。

默認本文的閱讀者能自行解決訪問 Huggingface 的辦法。

硬件推薦

樹莓派 5 + LLM8850-Card

4e3b1bd2-c5fd-11f0-8c8f-92fbcf53809c.png

樹莓派 5 + Maix4-HAT

4e9485be-c5fd-11f0-8c8f-92fbcf53809c.png

軟件步驟

默認已按照硬件產品的指導文檔完成了硬件及必要的軟件驅動安裝(例如 AXCL 驅動包)。預編譯好的模型和示例已經上傳到 huggingface(或者 hf-mirror)。

https://huggingface.co/AXERA-TECH/Qwen3-VL-2B-Instruct-GPTQ-Int4

如何將原始的模型轉換成 axmodel 并部署,請參考我們的 GitHub 倉庫。

https://github.com/AXERA-TECH/ax-llm/tree/ax-qwen3-vl

(友情提示:除非對該模型有 finetuning 需求的同學,否則我建議一開始不要浪費時間來學習該模型的轉換或者示例代碼的編譯,因為過程比較復雜┓( ′?` )┏)

安裝依賴

請務必完整閱讀 Readme

//代碼開始

cdAXERA-TECH/Qwen3-VL-2B-Instruct-GPTQ-Int4
pipinstall -r requirements.txt

//代碼結束

運行示例

這里我們選擇基于 Gradio WebGUI 的方案

運行 tokenizer 服務

//代碼開始

pythonqwen3_tokenizer.py --port12345--host0.0.0.0

//代碼結束

運行兼容 openai api 的大模型推理服務

//代碼開始

# for axcl, such as RaspberryPi5 + M.2 Card or x86 + M.2 Card
./run_axcl_api.sh
# for ax8850
./run_ax_api.sh

//代碼結束

運行 gradio 腳本

//代碼開始

pythongradio_demo.py

//代碼結束

通過 web 瀏覽器訪問

視頻理解示例

4ef3c434-c5fd-11f0-8c8f-92fbcf53809c.png

總結

隨著 Qwen3-VL-2B 多模態(tài)大模型完成開源發(fā)布,多模態(tài)大模型在端側落地已成事實。在 NAS、NVR 的智能升級改造過程中,必將成為基礎模型。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI芯片
    +關注

    關注

    17

    文章

    2077

    瀏覽量

    36596
  • OpenAI
    +關注

    關注

    9

    文章

    1238

    瀏覽量

    9843
  • 愛芯元智
    +關注

    關注

    1

    文章

    121

    瀏覽量

    5390
  • 大模型
    +關注

    關注

    2

    文章

    3496

    瀏覽量

    5032

原文標題:愛芯分享 | AX8850完成Qwen3-VL適配

文章出處:【微信號:愛芯元智AXERA,微信公眾號:愛芯元智AXERA】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    邊緣AI芯片AX8850完成CosyVoice2大模型適配

    今年下半年,隨著業(yè)務推廣需求增加,我們的大模型適配工作也有了新方向:不再只追求前沿模型的快速適配,而是更聚焦為銷售團隊提供“能打”的實戰(zhàn)“彈藥”——也就是貼近客戶剛需的、可快速落地的大
    的頭像 發(fā)表于 12-11 10:35 ?4608次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b><b class='flag-5'>元</b>智<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b><b class='flag-5'>芯片</b><b class='flag-5'>AX8850</b><b class='flag-5'>完成</b>CosyVoice2大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>

    AI SoC # AX650N詳細介紹:原生支持Transformer架構模型 適用部署DeepSeek R1

    AX650N是智(AXERA)推出的一款高性能邊緣AI
    的頭像 發(fā)表于 03-04 11:15 ?7426次閱讀
    <b class='flag-5'>AI</b> SoC # <b class='flag-5'>愛</b><b class='flag-5'>芯</b><b class='flag-5'>元</b>智<b class='flag-5'>AX</b>650N詳細介紹:原生支持Transformer架構<b class='flag-5'>模型</b> 適用部署DeepSeek R1

    NPU適配Qwen2.5-VL-3B視覺模態(tài)模型

    熟悉NPU的網友很清楚,從去年開始我們在端側模態(tài)模型
    的頭像 發(fā)表于 04-21 10:56 ?2632次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b>通<b class='flag-5'>元</b>NPU<b class='flag-5'>適配</b><b class='flag-5'>Qwen2.5-VL-3</b>B視覺<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    AX8850:以邊緣算力,讓具身智能觸手可及

    ”的創(chuàng)新IC新品推介。受主辦方邀請,智半導體股份有限公司聯(lián)合創(chuàng)始人、副總裁劉建偉帶來了《AX8850:以邊緣算力,讓具身智能觸手可及》
    的頭像 發(fā)表于 05-13 18:16 ?7184次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b><b class='flag-5'>元</b>智<b class='flag-5'>AX8850</b>:以<b class='flag-5'>邊緣</b>算力,讓具身智能觸手可及

    基于米爾瑞微RK3576開發(fā)板的Qwen2-VL-3B模型NPU模態(tài)部署評測

    關鍵詞:瑞微 RK3576、NPU(神經網絡處理器)、端側小語言模型(SLM)、模態(tài) LLM、邊緣
    發(fā)表于 08-29 18:08

    阿里云開源視覺語言大模型Qwen-VL ,支持圖文雙模態(tài)輸入

    據(jù)介紹,Qwen-VL 是支持中英文等多種語言的視覺語言(Vision Language,VL模型。相較于此前的 VL 模型
    的頭像 發(fā)表于 08-25 15:12 ?2811次閱讀
    阿里云開源視覺語言大<b class='flag-5'>模型</b><b class='flag-5'>Qwen-VL</b> ,支持圖文雙<b class='flag-5'>模態(tài)</b>輸入

    2024 WAIC智能芯片模態(tài)模型論壇丨AI處理器助力打造普惠智能

    近日,2024世界人工智能大會在上海召開,智于7月5日在大會上成功舉辦“領未來丨智能芯片
    的頭像 發(fā)表于 07-05 21:15 ?2152次閱讀
    2024 WAIC智能<b class='flag-5'>芯片</b>及<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>論壇丨<b class='flag-5'>愛</b><b class='flag-5'>芯</b>通<b class='flag-5'>元</b><b class='flag-5'>AI</b>處理器助力打造普惠智能

    2024 WAIC智能芯片模態(tài)模型論壇 AI處理器助力打造普惠智能

    國 上海 2024年07月08日——人工智能芯片研發(fā)及基礎算力平臺公司智宣布,7月5日在2024世界人工智能大會上成功舉辦“領未來丨
    的頭像 發(fā)表于 07-15 10:18 ?1114次閱讀
    2024 WAIC智能<b class='flag-5'>芯片</b>及<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>論壇 <b class='flag-5'>愛</b><b class='flag-5'>芯</b>通<b class='flag-5'>元</b><b class='flag-5'>AI</b>處理器助力打造普惠智能

    通義千問發(fā)布第二代視覺語言模型Qwen2-VL

    Qwen2-VL系列模型模態(tài)處理領域取得了突破性進展,于多個權威測評中嶄露頭角,刷新了多項最佳成績記錄,展現(xiàn)出強大的視覺理解與語言交互能力。
    的頭像 發(fā)表于 09-03 16:31 ?1209次閱讀

    智發(fā)布邊緣智能芯片AX8850

    ”為主題,智聯(lián)合創(chuàng)始人、副總裁劉建偉受邀出席,不僅帶來最新算力產品AX8850,也對當下邊緣計算需求對具身智能發(fā)展的推動給出了深層思考
    的頭像 發(fā)表于 05-16 10:59 ?1294次閱讀

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型
    的頭像 發(fā)表于 05-16 16:23 ?810次閱讀

    智攜手靈境聲學推出“聲”音頻解決方案

    Umix AI”全景聲行業(yè)大模型的專屬音頻芯片方案——“聲”。該方案搭載靈境聲學自研的“靈
    的頭像 發(fā)表于 08-01 10:43 ?4530次閱讀

    新品 | LLM-8850 Card, AX8850邊緣設備AI加速卡

    LLM?8850?Card是一款面向邊緣設備的M.2M-KEY2242?AI加速卡,把42?mm的袖珍體積與AxeraAX8850?SoC的24?TOPS?@?INT8算力結合起來,為
    的頭像 發(fā)表于 09-26 18:18 ?599次閱讀
    新品 | LLM-<b class='flag-5'>8850</b> Card, <b class='flag-5'>AX8850</b><b class='flag-5'>邊緣</b>設備<b class='flag-5'>AI</b>加速卡

    Qwen3-VL 4B/8B全面適配,BM1684X成邊緣最佳部署平臺!

    算能BM1684X上完成Qwen3-VL4B/8B模型適配,推理速度13.7/7.2tokens/s,使其成為邊緣部署
    的頭像 發(fā)表于 10-16 18:00 ?1950次閱讀
    <b class='flag-5'>Qwen3-VL</b> 4B/8B全面<b class='flag-5'>適配</b>,BM1684X成<b class='flag-5'>邊緣</b>最佳部署平臺!

    智攜手合作伙伴M5Stack亮相YOLO Vision 2025

    近日,全球計算機視覺領域的權威盛會——YOLO Vision 2025,亞洲首秀在深圳舉行。智攜手合作伙伴M5Stack,以AX8850賦能M.2 2242標準接口算力卡為核心,
    的頭像 發(fā)表于 11-02 09:20 ?531次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b><b class='flag-5'>元</b>智攜手合作伙伴M5Stack亮相YOLO Vision 2025