国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

愛芯通元NPU適配Qwen2.5-VL-3B視覺多模態大模型

愛芯元智AXERA ? 來源:愛芯元智AXERA ? 2025-04-21 10:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Qwen2.5-VL:the new flagship vision-language model of Qwen and also a significant leap from the previous Qwen2-VL.

愛芯通元:以算子為原子指令集的AI計算處理器。高效支持混合精度算法設計和Transformer,為大模型(DeepSeek、Qwen、MiniCPM……)在“云—邊—端”的AI應用提供強力基礎。

https://www.axera-tech.com/Skill/166.html

TLDR

7226b8ba-1bf5-11f0-9310-92fbcf53809c.png

背景

熟悉愛芯通元NPU的網友很清楚,從去年開始我們在端側多模態大模型適配上一直處于主動緊跟的節奏。先后適配了國內最早開源的多模態大模MiniCPM V 2.0,上海人工智能實驗室的書生多模態大模型 InternVL2.5-1B/8B/MPO,Huggingface推出的全球最小多模態大模型SmloVLM-256M。為工業界提供了離線部署多模態大模型(VLM)實現圖片本地高效率理解的可行性方案。

從本文開始,我們將逐漸探索基于VLM的視頻理解方案,讓端側/邊緣設備智能化升級有更大的想象空間。

本文基于Qwen2.5-VL-3B走馬觀花介紹VLM是如何從圖片理解(Image Understand)延伸到視頻理解(Video Understand),并展示基于愛芯通元NPU平臺的最新適配情況,最后“腦洞”一些可能存在的產品落地場景。

Qwen2.5-VL

Qwen2.5-VL是由通義千問團隊開源的視覺多模態大模型。到目前為止已經開源了3B、7B、32B、72B四種尺度,滿足不同算力設備靈活部署。

官方鏈接:https://github.com/QwenLM/Qwen2.5-VL

Huggingface:https://huggingface.co/Qwen/Qwen2.5-VL-3B-Instruct

wKgZO2gFtQOAblEVAAJFWeKIRZE836.jpg

Qwen2.5-VL是Qwen2-VL的版本更新,以下功能更新展示了Qwen2.5-VL在視覺-語言處理領域的強大功能和廣泛應用前景。

增強功能

視覺理解能力:Qwen2.5-VL不僅擅長識別常見的物體如花、鳥、魚和昆蟲,還能高效地分析圖像中的文本、圖表、圖標、圖形和布局;

作為視覺代理的能力:該模型能夠直接充當一個視覺代理,具備推理能力和動態工具指導能力,適用于計算機和手機的使用;

長視頻理解和事件捕捉:Qwen2.5-VL能夠理解超過一小時的視頻內容,并新增了通過精確定位相關視頻段來捕捉事件的能力;

不同格式的視覺定位能力:該模型能通過生成邊界框或點準確地在圖像中定位對象,并提供包含坐標和屬性的穩定JSON輸出;

結構化輸出:針對發票掃描件、表格、表單等數據,Qwen2.5-VL支持其內容的結構化輸出,這在金融、商業等領域具有重要應用價值。

架構更新

為視頻理解進行的動態分辨率和幀率訓練:通過采用動態FPS采樣將動態分辨率擴展到時間維度,使模型能夠在各種采樣率下理解視頻。相應地,我們在時間維度上用ID和絕對時間對齊更新了mRoPE,讓模型能夠學習時間序列和速度,最終獲得定位特定時刻的能力。

跑分情況

7240cfb6-1bf5-11f0-9310-92fbcf53809c.jpg

愛芯通元

愛芯通元是愛芯元智自研的NPU IP品牌。本文基于內置愛芯通元NPUv3架構的愛芯派Pro(AX650N)進行示例展示。

愛芯派Pro

搭載愛芯元智第三代高能效比智能視覺芯片AX650N。集成了八核Cortex-A55 CPU18TOPs@INT8 NPU以及H.264、H.265 編解碼的VPU。接口方面,AX650N支持64bit LPDDR4x,多路MIPI輸入,千兆EthernetUSB、以及HDMI 2.0b輸出,并支持32路1080p@30fps解碼內置高算力和超強編解碼能力,滿足行業對高性能邊緣智能計算的需求。通過內置多種深度學習算法,實現視覺結構化、行為分析、狀態檢測等應用,高效率支持Transformer結構的大模型。提供豐富的開發文檔,方便用戶進行二次開發。

72484d2c-1bf5-11f0-9310-92fbcf53809c.jpg

模型轉換

我們在Huggingface上提供了預編譯好的模型,建議直接使用。

如果有朋友想深入研究如何從Huggingface原生倉庫的safetytensor模型使用Pulsar2 NPU工具鏈轉換生成axmodel模型,請參考我們的開源項目:

https://github.com/AXERA-TECH/Qwen2.5-VL-3B-Instruct.axera

模型部署

預編譯文件

從Huggingface上獲取

https://huggingface.co/AXERA-TECH/Qwen2.5-VL-3B-Instruct

pipinstall -U huggingface_hub
exportHF_ENDPOINT=https://hf-mirror.com
huggingface-cli download --resume-download AXERA-TECH/Qwen2.5-VL-3B-Instruct --local-dir Qwen2.5-VL-3B-Instruct

文件說明

root@ax650:/mnt/qtang/llm-test/Qwen2.5-VL-3B-Instruct# tree -L 1
.
|-- image
|-- main
|-- python
|-- qwen2_5-vl-3b-image-ax650
|-- qwen2_5-vl-3b-video-ax650
|-- qwen2_5-vl-tokenizer
|-- qwen2_tokenizer_image_448.py
|-- qwen2_tokenizer_video_308.py
|-- run_qwen2_5_vl_image.sh
|-- run_qwen2_5_vl_video.sh
`-- video

qwen2_5-vl-3b-image-ax650:存放圖片理解的axmodel文件

qwen2_5-vl-3b-video-ax650:存放視頻理解的axmodel文件

qwen2_tokenizer_image_448.py:適用于圖片理解的tokenizer解析服務

run_qwen2_5_vl_image.sh:圖片理解示例的執行腳本

準備環境

使用transformer庫實現tokenizer解析服務。

pipinstall transformers==4.41.1

圖片理解示例

先啟動適用于圖片理解任務的tokenizer解析服務。

python3qwen2_tokenizer_image_448.py --port12345

7254149a-1bf5-11f0-9310-92fbcf53809c.jpg

運行圖片理解示例

./run_qwen2_5_vl_image.sh

輸入圖片

輸入文本(prompt):描述下圖片

輸出結果

726bdb7a-1bf5-11f0-9310-92fbcf53809c.png

輸入文本(prompt):目標檢測,穿著藍色衣服的人,輸出概率最高的一個結果

輸出結果

72766e14-1bf5-11f0-9310-92fbcf53809c.png

將原始圖片resize到448x448分辨率后,使用返回的坐標信息[188, 18, 311, 278],手動畫框結果還是挺準的。

視頻理解示例

提前將從某一段視頻抽取適當時間戳的8幀。先啟動適用于視頻理解任務的tokenizer解析服務。

pythonqwen2_tokenizer_video_308.py --port12345

7290e24e-1bf5-11f0-9310-92fbcf53809c.jpg

運行視頻理解示例

./run_qwen2_5_vl_video.sh

輸入視頻

輸入文本(prompt):描述下視頻

輸出結果

729d0646-1bf5-11f0-9310-92fbcf53809c.jpg

應用場景探討

視頻理解能結合視頻中時間序列上的信息。能夠更佳準確的理解真實世界的行為語義。

家庭場景:老人摔倒,煙火檢測

工業場景:缺陷檢測,危險行為檢測

車載場景:駕艙內外環境感知

其他場景:穿戴式視覺輔助設備

總結

隨著年初DeepSeek破圈,普通大眾已經接受大模型與日常生活中的萬事萬物進行融合,單純的語言類大模型已經無法滿足大眾的需求,多模態大模型、全模態大模型已經成為今年的主流。

愛芯通元NPU結合原生支持Transformer、高能效比、易用性等技術優勢,將積極適配業界優秀的多模態大模型,提供端&邊大模型高效部署的軟硬件整體解決方案。推動“普惠AI造就美好生活”。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    20250

    瀏覽量

    252192
  • AI
    AI
    +關注

    關注

    91

    文章

    39755

    瀏覽量

    301349
  • 開源
    +關注

    關注

    3

    文章

    4203

    瀏覽量

    46121
  • NPU
    NPU
    +關注

    關注

    2

    文章

    373

    瀏覽量

    21086
  • 大模型
    +關注

    關注

    2

    文章

    3648

    瀏覽量

    5177

原文標題:愛芯分享 | 愛芯通元NPU適配Qwen2.5-VL-3B

文章出處:【微信號:愛芯元智AXERA,微信公眾號:愛芯元智AXERA】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    智邊緣AI芯片AX8850完成Qwen3-VL模態模型適配

    適配 Qwen3-VL-2B/4B/8B 到 AX8850 開發板和 M.2 算力卡,可在本地完成圖片內容理解和視頻概要生成,可配合“樹莓派5”使用。
    的頭像 發表于 11-26 13:57 ?2938次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b><b class='flag-5'>元</b>智邊緣AI芯片AX8850完成<b class='flag-5'>Qwen3-VL</b><b class='flag-5'>多</b><b class='flag-5'>模態</b>大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>

    《電子發燒友電子設計周報》聚焦硬科技領域核心價值 第9期:2025.04.21--2025.04.25

    /jishu_2482732_1_1.html 6、NPU適配Qwen2.5-VL-3B
    發表于 04-25 19:15

    基于米爾瑞微RK3576開發板的Qwen2-VL-3B模型NPU模態部署評測

    模型(如 Qwen2-VL-2B)進行專項優化,token 生成速度達 10+每秒,適配本地化模態交互需求; 算力分配:RK3576 的
    發表于 08-29 18:08

    米爾RK3576部署端側模態輪對話,6TOPS算力驅動30億參數LLM

    qwen2_5_vl_3b_vision_rk3576.rknn 模型(本文)。 核心作用:將輸入圖像壓縮為視覺 token 如 256 個視覺 token,直接輸入至大語言
    發表于 09-05 17:25

    阿里云開源視覺語言大模型Qwen-VL ,支持圖文雙模態輸入

    據介紹,Qwen-VL 是支持中英文等多種語言的視覺語言(Vision Language,VL模型。相較于此前的 VL
    的頭像 發表于 08-25 15:12 ?3090次閱讀
    阿里云開源<b class='flag-5'>視覺</b>語言大<b class='flag-5'>模型</b><b class='flag-5'>Qwen-VL</b> ,支持圖文雙<b class='flag-5'>模態</b>輸入

    通義千問發布第二代視覺語言模型Qwen2-VL

    Qwen2-VL系列模型模態處理領域取得了突破性進展,于多個權威測評中嶄露頭角,刷新了多項最佳成績記錄,展現出強大的視覺理解與語言交互
    的頭像 發表于 09-03 16:31 ?1349次閱讀

    利用OpenVINO部署Qwen2模態模型

    模態模型的核心思想是將不同媒體數據(如文本、圖像、音頻和視頻等)進行融合,通過學習不同模態之間的關聯,實現更加智能化的信息處理。簡單來說,
    的頭像 發表于 10-18 09:39 ?2856次閱讀

    PerfXCloud重磅升級 阿里開源最強視覺語言模型Qwen2-VL-7B強勢上線!

    「重磅通知」 :PerfXCloud 再度華麗升級,現已全面支持迄今為止 最為卓越的開源視覺模型 Qwen2-VL-7B 。這一重大突破將為用戶帶來更加震撼的視覺體驗,進一步拓展創意的
    的頭像 發表于 10-23 11:07 ?1283次閱讀
    PerfXCloud重磅升級  阿里開源最強<b class='flag-5'>視覺</b>語言<b class='flag-5'>模型</b><b class='flag-5'>Qwen2-VL-7B</b>強勢上線!

    利用英特爾OpenVINO在本地運行Qwen2.5-VL系列模型

    近期阿里通義實驗室在 Hugging Face 和 ModelScope 上開源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和 72
    的頭像 發表于 03-12 13:42 ?2605次閱讀
    利用英特爾OpenVINO在本地運行<b class='flag-5'>Qwen2.5-VL</b>系列<b class='flag-5'>模型</b>

    基于MindSpeed MM玩轉Qwen2.5VL模態理解模型

    模態理解模型是讓AI像人類一樣,通過整合多維度信息(如視覺、語言、聽覺等),理解數據背后的語義、情感、邏輯或場景,從而完成推理、決策等任務。
    的頭像 發表于 04-18 09:30 ?3009次閱讀
    基于MindSpeed MM玩轉<b class='flag-5'>Qwen2.5VL</b><b class='flag-5'>多</b><b class='flag-5'>模態</b>理解<b class='flag-5'>模型</b>

    后摩智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時不到1天,后摩智能自研NPU迅速實現Qwen3 系列模型
    的頭像 發表于 05-07 16:46 ?1380次閱讀

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型的訓練
    的頭像 發表于 05-16 16:23 ?978次閱讀

    Qwen3-VL 4B/8B全面適配,BM1684X成邊緣最佳部署平臺!

    算能BM1684X上完成Qwen3-VL4B/8B模型適配,推理速度13.7/7.2tokens/s,使其成為邊緣部署
    的頭像 發表于 10-16 18:00 ?2656次閱讀
    <b class='flag-5'>Qwen3-VL</b> 4<b class='flag-5'>B</b>/8<b class='flag-5'>B</b>全面<b class='flag-5'>適配</b>,BM1684X成邊緣最佳部署平臺!

    格靈深瞳模態模型榮登InfoQ 2025中國技術力量年度榜單

    靈感實驗室聯合LLaVA社區發布的模態模型LLaVA-OneVision-1.5,實現了訓練數據、代碼和模型權重的全鏈路開源,在多項公開
    的頭像 發表于 01-05 10:05 ?503次閱讀

    太初碁:40+AI大模型全覆蓋,新版本即發即適配、上線即可用,實現國產“”速度

    日前,國產AI芯片企業太初(無錫)電子科技有限公司(又稱“太初碁”)完成智譜GLM-5.0、阿里千問Qwen3.5-397B-A17B等大模型的深度適配,截至目前,其已完成包括Dee
    的頭像 發表于 02-25 09:21 ?979次閱讀