国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

手機(jī)識(shí)別模型案例

柴火創(chuàng)客空間 ? 來源:柴火創(chuàng)客空間 ? 2024-11-18 11:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

2023年以ChatGPT為代表的大語言模型橫空出世,它的出現(xiàn)標(biāo)志著自然語言處理領(lǐng)域取得了重大突破。它在文本生成、對(duì)話系統(tǒng)和語言理解等方面展現(xiàn)出了強(qiáng)大的能力,為人工智能技術(shù)的發(fā)展開辟了新的可能性。同時(shí),人工智能技術(shù)正在進(jìn)入各種應(yīng)用領(lǐng)域,在智慧城市、智能制造、智慧醫(yī)療、智慧農(nóng)業(yè)等領(lǐng)域發(fā)揮著重要作用。

本期介紹:模型案例:|手機(jī)識(shí)別模型!

RT-DETR

RT-DETR是基于DETR架構(gòu)的端到端對(duì)象檢測(cè)器,完全消除了對(duì)NMS的需求。通過這樣做,RT-DETR顯著減少了之前基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的對(duì)象檢測(cè)器(如YOLO系列)的延遲。它結(jié)合了強(qiáng)大的主干、混合編碼器和獨(dú)特的查詢選擇器,可以快速準(zhǔn)確地處理特征。

c0fa46fa-9cc0-11ef-a511-92fbcf53809c.png

RT-DETR架構(gòu)的關(guān)鍵組件

Backbone網(wǎng)絡(luò):通常采用高效的卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為特征提取的基礎(chǔ),例如ResNet或EfficientNet,以獲取圖像的多尺度特征。從主干,RT-DETR提取三個(gè)級(jí)別的特征- S3,S4和S5,這些多尺度特征有助于模型理解圖像的高級(jí)和細(xì)粒度細(xì)節(jié)。

c1010922-9cc0-11ef-a511-92fbcf53809c.png

Transformer編碼器-解碼器:RT-DETR中使用了Transformer的編碼器-解碼器結(jié)構(gòu),該混合編碼器包括兩個(gè)主要部分:基于注意力的尺度內(nèi)特征交互(AIFI)和跨尺度特征融合(CCFF)。

基于注意力的尺度內(nèi)特征交互(AIFI)

這個(gè)組件的核心思想是利用自注意力機(jī)制在同一尺度內(nèi)進(jìn)行特征交互。AIFI能夠讓模型有效地捕捉同一尺度特征圖中各個(gè)位置之間的關(guān)系。

具體而言,AIFI通過計(jì)算特征的注意力權(quán)重,使得模型能夠關(guān)注到重要的區(qū)域,并抑制冗余信息,從而增強(qiáng)對(duì)目標(biāo)的定位和表征能力。

這種尺度內(nèi)的交互有助于在相似尺寸的物體之間建立聯(lián)系,提高對(duì)密集目標(biāo)的檢測(cè)能力。

c11d7b70-9cc0-11ef-a511-92fbcf53809c.png

跨尺度特征融合(CCFF)

CCFF負(fù)責(zé)整合來自不同尺度的特征,以便于模型能夠從多層次的信息中獲得更全面的上下文。這一過程通常涉及將來自不同尺度的特征圖進(jìn)行融合,通過卷積操作、上采樣或下采樣等方式,將這些特征進(jìn)行對(duì)齊并結(jié)合在一起。

CCFF不僅允許模型綜合不同尺度特征的優(yōu)勢(shì),還能提高對(duì)各種大小目標(biāo)的檢測(cè)能力。

c13bcf26-9cc0-11ef-a511-92fbcf53809c.png

多尺度特征金字塔:RT-DETR通常會(huì)借助特征金字塔網(wǎng)絡(luò)(FPN)來融合來自不同層次的特征,以加強(qiáng)對(duì)不同大小目標(biāo)的檢測(cè)能力。

目標(biāo)查詢(Object Queries):解碼器使用的目標(biāo)查詢是關(guān)鍵組件,它們用于引導(dǎo)模型對(duì)目標(biāo)的檢測(cè),允許模型在生成檢測(cè)結(jié)果時(shí)關(guān)注不同的潛在目標(biāo)。

類別和邊界框回歸:在解碼器中,RT-DETR通過類別預(yù)測(cè)和邊界框回歸來輸出目標(biāo)的類別和位置。

c14cadd2-9cc0-11ef-a511-92fbcf53809c.png

高效的訓(xùn)練策略:RT-DETR往往結(jié)合了一些改進(jìn)的訓(xùn)練策略,如動(dòng)態(tài)圖損失(Dynamic Loss)和圖像增強(qiáng)技術(shù),以提高模型的收斂速度和檢測(cè)精度。

后處理:如NMS(非極大值抑制)處理步驟,以去除冗余的檢測(cè)框和優(yōu)化最終的檢測(cè)結(jié)果。

手機(jī)識(shí)別模型

該 AI 模型由 Swift yolo 算法生成,專為 Seeed Studio Grove Vision AI (V2) 設(shè)備設(shè)計(jì),能夠高效識(shí)別和檢測(cè)到手機(jī)。

應(yīng)用場(chǎng)景

該模型適用于多種應(yīng)用場(chǎng)景,包括零售、安全、公共空間監(jiān)控和個(gè)人監(jiān)督。

在零售業(yè),該模型可以實(shí)時(shí)監(jiān)控手機(jī)庫存,幫助員工及時(shí)補(bǔ)貨;

在安全方面,它可以幫助識(shí)別和跟蹤丟失或被盜的手機(jī);

在個(gè)人監(jiān)督,很多學(xué)生上課玩手機(jī),可以通過此模型進(jìn)行監(jiān)控。

SenseCraft Al平臺(tái)

SenseCraft Al平臺(tái),是柴火母公司矽遞科技旗下的AI平臺(tái),支持Grove-Vision AI V2、XIAO ESP32S3 Sense和NVIDlA Jetson設(shè)備的模型部署、模型訓(xùn)練和數(shù)據(jù)輸出。

SenseCraft Al平臺(tái)為使用者提供海量模型,簡化模型訓(xùn)練過程并提供專業(yè)的AI視覺工作空間。

c17ce59c-9cc0-11ef-a511-92fbcf53809c.png

在Grove - Vision AI V2模塊上部署模型

1、打開SenseCraft AI平臺(tái),如果第一次使用請(qǐng)先注冊(cè)一個(gè)會(huì)員賬號(hào),還可以設(shè)置語言為中文。

平臺(tái)地址:

https://sensecraft.seeed.cc/ai/#/model

c1971d86-9cc0-11ef-a511-92fbcf53809c.png

2、在頂部單擊【預(yù)訓(xùn)練模型】菜單,在公共AI模型列表中找到【手機(jī)檢測(cè)】模型,單擊此模型圖片,如下圖所示。

c1b560a2-9cc0-11ef-a511-92fbcf53809c.png

3、進(jìn)入【手機(jī)檢測(cè)】模型介紹頁面,單擊右側(cè)的“部署模型”按鈕,如下圖所示。

c1c91c82-9cc0-11ef-a511-92fbcf53809c.png

4、進(jìn)入部署手機(jī)檢測(cè)模型頁面,按提示步驟先連接攝像頭,再連接設(shè)備到電腦USB接口上,最后單擊【連接設(shè)備】按鈕,如下圖所示。

c1ee4d54-9cc0-11ef-a511-92fbcf53809c.png

5、彈出部署模型窗口,單擊“確定”按鈕,如下圖所示。

c2021654-9cc0-11ef-a511-92fbcf53809c.png

6、彈出連接到串行端口窗口,選擇端口號(hào)后單擊“連接”按鈕,如下圖所示。

c20d4362-9cc0-11ef-a511-92fbcf53809c.png

7、開始進(jìn)行模型部署、固件下載、設(shè)備重啟等過程,完成后在預(yù)覽中即可看到當(dāng)前攝像頭視頻內(nèi)容,將攝像頭對(duì)準(zhǔn)手機(jī)圖片查看預(yù)測(cè)效果,如下圖所示。

c210dedc-9cc0-11ef-a511-92fbcf53809c.png

原型設(shè)計(jì)

利用此手機(jī)識(shí)別模型,設(shè)計(jì)一個(gè)桌面手機(jī)監(jiān)控裝置,此裝置在檢測(cè)到有人用手機(jī)時(shí)會(huì)點(diǎn)亮led模塊,也可改為蜂鳴器模塊進(jìn)行報(bào)警,這樣就有了一個(gè)防沉迷手機(jī)檢測(cè)裝置。

c22c8466-9cc0-11ef-a511-92fbcf53809c.png

模型推理演示,請(qǐng)看如下視頻

Grove Al視覺模塊 V2套裝介紹

c2454d66-9cc0-11ef-a511-92fbcf53809c.png

Grove Al視覺模塊 V2

c249730a-9cc0-11ef-a511-92fbcf53809c.png

OV5647-62攝像頭

Grove - Vision Al Module V2是一款拇指大小的人工智能視覺模塊, 配備Himax WiseEye2 HX6538處理器Arm Ethos-U55嵌入式神經(jīng)網(wǎng)絡(luò)加速單元(NPU), 該處理器采用 ArmCortex-M55雙核架構(gòu)。

Arm Ethos-U55 嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)

嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)是一種特別設(shè)計(jì)用于執(zhí)行神經(jīng)網(wǎng)絡(luò)計(jì)算的高效率處理器。它主要基于數(shù)據(jù)驅(qū)動(dòng)并行計(jì)算架構(gòu),特別擅長處理視頻、圖像等大量的多媒體數(shù)據(jù)。NPU模仿了生物神經(jīng)網(wǎng)絡(luò)的架構(gòu),與CPUGPU相比,它能夠通過更少的指令(一條或幾條)完成神經(jīng)元的處理,因此在深度學(xué)習(xí)的處理效率方面具有明顯優(yōu)勢(shì)。

它具有標(biāo)準(zhǔn)的CSI接口, 并與樹莓派相機(jī)兼容。它有一個(gè)內(nèi)置的數(shù)字麥克風(fēng)和SD卡插槽。它非常適用于各種嵌入式視覺項(xiàng)目。

有了SenseCraft Al算法平臺(tái), 經(jīng)過訓(xùn)練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測(cè)應(yīng)用的理想選擇。

主要硬件配置

- 板卡基于WiseEye2 HX6538處理器, 采用雙核ARM Cortex-M55架構(gòu)

- 配備集成Arm Ethos-U55嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU), 兼容的樹莓派相機(jī)

- 板載PDM麥克風(fēng), SD卡插槽, Type-C, Grove接口, 豐富的外設(shè)支持樣機(jī)開發(fā)

- Seeed Studio XIAO的可擴(kuò)展性, SenseCraft Al的現(xiàn)成AI模型用于無代碼部署。

- 支持各種有效的模型, 包括MobilenetV1、MobilenetV2、 Eficientnet-Lite、Yolov5和Yolov8.

寫在最后

SenseCraft-AI平臺(tái)的模型倉數(shù)量還很少,但是好消息是它支持自定義模型上傳并輸出推理結(jié)果,平臺(tái)會(huì)逐漸增加模型倉的數(shù)量和分享有愛好者設(shè)計(jì)的模型倉原型,敬請(qǐng)關(guān)注!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 手機(jī)
    +關(guān)注

    關(guān)注

    36

    文章

    6996

    瀏覽量

    161005
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52101

原文標(biāo)題:模型案例:| 手機(jī)識(shí)別模型!

文章出處:【微信號(hào):ChaiHuoMakerSpace,微信公眾號(hào):柴火創(chuàng)客空間】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【正點(diǎn)原子STM32N647開發(fā)板試用】--人體檢測(cè)模型體驗(yàn)

    STM32N647芯片具有npu的,有0.6tops的算例,可以部署簡單模型, 本次實(shí)驗(yàn)我們體驗(yàn)的是人體識(shí)別模型,該模型來源于:STM32 Model Zoo 工程文件分三部分,我們
    發(fā)表于 02-21 19:44

    Termux手機(jī)攝像頭采集圖像/視頻流 部署 YOLO 模型推理

    Termux手機(jī)攝像頭采集圖像/視頻流 部署 YOLO 模型推理
    的頭像 發(fā)表于 12-14 07:26 ?2847次閱讀

    低成本AI邊緣計(jì)算盒子DIY:基于迅為RK3568和開源模型,輕松玩轉(zhuǎn)智能識(shí)別

    低成本AI邊緣計(jì)算盒子DIY:基于迅為RK3568和開源模型,輕松玩轉(zhuǎn)智能識(shí)別
    的頭像 發(fā)表于 11-12 13:42 ?1760次閱讀
    低成本AI邊緣計(jì)算盒子DIY:基于迅為RK3568和開源<b class='flag-5'>模型</b>,輕松玩轉(zhuǎn)智能<b class='flag-5'>識(shí)別</b>

    如何精準(zhǔn)驅(qū)動(dòng)菜品識(shí)別模型--基于米爾瑞芯微RK3576邊緣計(jì)算盒

    ? 在人工智能與邊緣計(jì)算深度融合的今天,將AI模型高效部署于終端設(shè)備已成為產(chǎn)業(yè)智能化的關(guān)鍵。本文將分享基于米爾MYD-LR3576邊緣計(jì)算盒子部署菜品識(shí)別安卓Demo的實(shí)戰(zhàn)經(jīng)驗(yàn)。該設(shè)備憑借其內(nèi)
    發(fā)表于 10-31 21:19

    米爾RK3576邊緣計(jì)算盒精準(zhǔn)驅(qū)動(dòng)菜品識(shí)別模型性能強(qiáng)悍

    ?在人工智能與邊緣計(jì)算深度融合的今天,將AI模型高效部署于終端設(shè)備已成為產(chǎn)業(yè)智能化的關(guān)鍵。本文將分享基于米爾MYD-LR3576邊緣計(jì)算盒子部署菜品識(shí)別安卓Demo的實(shí)戰(zhàn)經(jīng)驗(yàn)。該設(shè)備憑借其內(nèi)置的強(qiáng)勁
    的頭像 發(fā)表于 10-30 08:05 ?4903次閱讀
    米爾RK3576邊緣計(jì)算盒精準(zhǔn)驅(qū)動(dòng)菜品<b class='flag-5'>識(shí)別</b><b class='flag-5'>模型</b>性能強(qiáng)悍

    迅為RK3568開發(fā)板模型推理測(cè)試實(shí)戰(zhàn)LPRNet?車牌識(shí)別

    迅為RK3568開發(fā)板模型推理測(cè)試實(shí)戰(zhàn)LPRNet 車牌識(shí)別
    的頭像 發(fā)表于 08-25 14:55 ?1310次閱讀
    迅為RK3568開發(fā)板<b class='flag-5'>模型</b>推理測(cè)試實(shí)戰(zhàn)LPRNet?車牌<b class='flag-5'>識(shí)別</b>

    廣和通發(fā)布自研端側(cè)語音識(shí)別模型FiboASR

    7月,全球領(lǐng)先的無線通信模組及AI解決方案提供商廣和通,發(fā)布其自主研發(fā)的語音識(shí)別模型FiboASR。該模型專為端側(cè)設(shè)備上面臨的面對(duì)面實(shí)時(shí)對(duì)話及多人會(huì)議場(chǎng)景深度優(yōu)化,在低延遲語音交互、實(shí)時(shí)語音轉(zhuǎn)錄
    的頭像 發(fā)表于 08-04 11:43 ?1593次閱讀

    基于LockAI視覺識(shí)別模塊:C++人臉識(shí)別

    本文基于RV1106做成的LockAI視覺識(shí)別模塊,采用 LZ-Picodet 模型訓(xùn)練的人臉檢測(cè)模型 LZ-Face,以及ArcFace人臉識(shí)別
    發(fā)表于 07-01 12:01

    基于LockAI視覺識(shí)別模塊:C++人臉識(shí)別

    本文基于RV1106做成的LockAI視覺識(shí)別模塊,采用LZ-Picodet模型訓(xùn)練的人臉檢測(cè)模型LZ-Face,以及ArcFace人臉識(shí)別模型
    的頭像 發(fā)表于 07-01 10:09 ?829次閱讀
    基于LockAI視覺<b class='flag-5'>識(shí)別</b>模塊:C++人臉<b class='flag-5'>識(shí)別</b>

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 YOLO 模型的物體識(shí)別

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 YOLO 模型的物體識(shí)別 本文介紹了正點(diǎn)原子 STM32MP257 開發(fā)板基于 YOLO-v5 模型實(shí)現(xiàn)物體識(shí)別的項(xiàng)目設(shè)計(jì)。 項(xiàng)目介紹
    發(fā)表于 06-21 16:32

    訓(xùn)練完模型后用cls_video.py在canmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒有識(shí)別到是什么情況?

    訓(xùn)練完模型后用cls_video.py在canmvIDE上運(yùn)行,按著步驟操作但是攝像頭沒有識(shí)別到是什么情況啊,沒有框出現(xiàn)
    發(fā)表于 06-10 06:57

    某些安卓手機(jī)無法識(shí)別FX2LP設(shè)備,怎么解決?

    ()” 找到設(shè)備。 閱讀尚未測(cè)試。 Phome #2 (小米):給設(shè)備加電,但屏幕上什么也沒發(fā)生,“getDeviceList ()” 返回空白。 手機(jī)可以識(shí)別我嘗試過的所有其他 USB 設(shè)備,包括在
    發(fā)表于 05-27 06:21

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】人臉識(shí)別

    RetinaFace 模型實(shí)現(xiàn)單張和多張人臉識(shí)別的效果展示。 單張人臉識(shí)別 這里選取了一些影視作品的人物圖片作為識(shí)別樣本,識(shí)別效果如下
    發(fā)表于 04-01 21:46

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】車牌識(shí)別

    和停車場(chǎng)管理中,車牌識(shí)別是一項(xiàng)重要且極具挑戰(zhàn)性的任務(wù)。 車牌識(shí)別網(wǎng)絡(luò) (License Plate Recognition Network, LPRNet) 是一種專門設(shè)計(jì)用于車牌識(shí)別的深度學(xué)習(xí)
    發(fā)表于 04-01 02:45

    請(qǐng)問如何能讓模型的效果更好?

    重現(xiàn)步驟 我用yolov8n訓(xùn)練出的模型,跑出來的識(shí)別是沒有問題的,問題是在部署到開發(fā)板上,無論是穩(wěn)定性還是框的大小以及識(shí)別的準(zhǔn)確性都比較差,再試了幾次訓(xùn)練后的效果還是不好,請(qǐng)問有什么更多的解決辦法
    發(fā)表于 03-11 07:21