国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

STMCube.AI的高級(jí)特性

意法半導(dǎo)體中國(guó) ? 來(lái)源:意法半導(dǎo)體中國(guó) ? 作者:意法半導(dǎo)體中國(guó) ? 2021-10-28 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

STM32Cube.AI意法半導(dǎo)體AI生態(tài)系統(tǒng)的一部分,是STM32Cube的一個(gè)擴(kuò)展包,它可以自動(dòng)轉(zhuǎn)換和優(yōu)化預(yù)先訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型并將生成的優(yōu)化庫(kù)集成到用戶項(xiàng)目中,從而擴(kuò)展了STM32CubeMX的功能。它還提供幾種在桌面PC和STM32上驗(yàn)證神經(jīng)網(wǎng)絡(luò)模型以及測(cè)量模型性能的方法,而無(wú)需用戶手工編寫專門的C語(yǔ)言代碼。

上一篇文章大致介紹了STMCube.AI的基本特性,以及其工作流程。

本文將更深入地介紹它的一些高級(jí)特性。將涉及以下主題:

運(yùn)行時(shí)環(huán)境支持:Cube.AI vs TensorFlow Lite

量化支持

圖形流與存儲(chǔ)布局優(yōu)化

可重定位的二進(jìn)制模型支持

運(yùn)行時(shí)環(huán)境支持:Cube.AI vs TensorFlow Lite

STM32Cube.AI支持兩種針對(duì)不同應(yīng)用需求的運(yùn)行時(shí)環(huán)境:Cube.AI和TensorFlow Lite。作為默認(rèn)的運(yùn)行時(shí)環(huán)境,Cube.AI是專為STM32高度優(yōu)化的機(jī)器學(xué)習(xí)庫(kù)。而TensorFlow Lite for Microcontroller是由谷歌設(shè)計(jì),用于在各種微控制器或其他只有幾KB存儲(chǔ)空間的設(shè)備上運(yùn)行機(jī)器學(xué)習(xí)模型的。其被廣泛應(yīng)用于基于MCU的應(yīng)用場(chǎng)景。STM32Cube.AI集成了一個(gè)特定的流程,可以生成一個(gè)即時(shí)可用的STM32 IDE項(xiàng)目,該項(xiàng)目?jī)?nèi)嵌TensorFlow Lite for Microcontrollers運(yùn)行時(shí)環(huán)境(TFLm)以及相關(guān)的TFLite模型。這可以被看作是Cube.AI運(yùn)行時(shí)環(huán)境的一個(gè)替代方案,讓那些希望擁有一個(gè)跨多個(gè)項(xiàng)目的通用框架的開(kāi)發(fā)人員也有了選擇。

雖然這兩種運(yùn)行時(shí)環(huán)境都是為資源有限的MCU而設(shè)計(jì),但Cube.AI在此基礎(chǔ)上針對(duì)STM32的獨(dú)特架構(gòu)進(jìn)行了進(jìn)一步優(yōu)化。因此,TensorFlow Lite更適合有跨平臺(tái)可移植性需求的應(yīng)用,而Cube.AI則更適合對(duì)計(jì)算速度和內(nèi)存消耗有更高要求的應(yīng)用。

下表展示了兩個(gè)運(yùn)行時(shí)環(huán)境之間的性能比較(基于一個(gè)預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)參考模型)。評(píng)價(jià)指標(biāo)是在STM32上的推斷時(shí)間和內(nèi)存消耗。

f0560440-378b-11ec-82a8-dac502259ad0.png

如表中所示,對(duì)于同一模型,Cube.AI運(yùn)行時(shí)環(huán)境比TFLite運(yùn)行時(shí)環(huán)境節(jié)約了大概20%的flash存儲(chǔ)和約8%的RAM存儲(chǔ)。此外,它的運(yùn)行速度幾乎比TFLite運(yùn)行時(shí)環(huán)境快了2倍。

對(duì)于TFLite模型,用戶可以在STM32Cube.AI的網(wǎng)絡(luò)配置菜單中對(duì)2個(gè)運(yùn)行時(shí)環(huán)境進(jìn)行選擇。

量化支持

量化是一種被廣泛使用的優(yōu)化技術(shù),它將32位浮點(diǎn)模型壓縮為位數(shù)更少的整數(shù)模型,在精度只略微下降的情況下,減少了存儲(chǔ)大小和運(yùn)行時(shí)的內(nèi)存峰值占用,也減少了CPU/MCU的推斷時(shí)間和功耗。量化模型對(duì)整數(shù)張量而不是浮點(diǎn)張量執(zhí)行部分或全部操作。它是面向拓?fù)洹⑻卣饔成淇s減、剪枝、權(quán)重壓縮等各種優(yōu)化技術(shù)的重要組成部分,可應(yīng)用在像MCU一樣資源受限的運(yùn)行時(shí)環(huán)境。

通常有兩種典型的量化方法:訓(xùn)練后量化(PTQ)和量化訓(xùn)練(QAT)。PTQ相對(duì)容易實(shí)現(xiàn),它可以用有限的具有代表性的數(shù)據(jù)集來(lái)量化預(yù)先訓(xùn)練好的模型。而QAT是在訓(xùn)練過(guò)程中完成的,通常具有更高的準(zhǔn)確度。

STM32Cube.AI通過(guò)兩種不同的方式直接或間接地支持這兩種量化方法:

首先,它可以用來(lái)部署一個(gè)由PTQ或QAT過(guò)程生成的TensorFlow Lite量化模型。在這種情況下,量化是由TensorFlow Lite框架完成的,主要是通過(guò)“TFLite converter” utility導(dǎo)出TensorFlow Lite文件。

其次,其命令行接口(CLI)還集成了一個(gè)內(nèi)部的訓(xùn)練后量化(PTQ)的過(guò)程,支持使用不同的量化方案對(duì)預(yù)訓(xùn)練好的Keras模型進(jìn)行量化。與使用TFLite Converter工具相比,該內(nèi)部量化過(guò)程提供了更多的量化方案,并在執(zhí)行時(shí)間和精確度方面有更好的表現(xiàn)。

下表顯示了在STM32上部署量化模型(與原有浮點(diǎn)模型相比)的好處。此表使用FD-MobileNet作為基準(zhǔn)模型,共有12層,參數(shù)大小145k,MACC操作數(shù)24M,輸入尺寸為224x224x3。

f2376d1c-378b-11ec-82a8-dac502259ad0.png

從表中很容易看出,量化模型節(jié)省了約4倍的flash存儲(chǔ)和RAM存儲(chǔ),且運(yùn)行速度提高了約3倍,而精確度僅僅下降了0.7%。

如果已經(jīng)安裝了X-Cube-AI包,用戶可以通過(guò)以下路徑找到關(guān)于如何使用命令行界面(CLI)進(jìn)行量化的教程:

C:UsersusernameSTM32CubeRepositoryPacksSTMicroelectronicsX-CUBE-AI7.0.0Documentationquantization.html。

在文檔的末尾還附上了一個(gè)快速實(shí)踐示例:“量化一個(gè)MNIST模型”。

圖形流與存儲(chǔ)布局優(yōu)化

除了量化技術(shù),STM32Cube.AI還通過(guò)使用其C代碼生成器的優(yōu)化引擎,針對(duì)推理時(shí)間優(yōu)化內(nèi)存使用(RAM & ROM)。該引擎基于無(wú)數(shù)據(jù)集的方法,無(wú)需驗(yàn)證或測(cè)試數(shù)據(jù)集來(lái)應(yīng)用壓縮和優(yōu)化算法

第一種方法:權(quán)重/偏置項(xiàng)壓縮,采用k -均值聚類算法。該壓縮算法僅適用于全連接層。其優(yōu)勢(shì)是壓縮速度快,但是結(jié)果并不是無(wú)損的,最終的精度可能會(huì)受到影響。STM32Cube.AI提供“驗(yàn)證”功能,用于對(duì)所生成的C模型中產(chǎn)生的誤差進(jìn)行評(píng)估。

“壓縮”選項(xiàng)可以在STM32Cube.AI的網(wǎng)絡(luò)配置中激活,如下圖所示:

第二種方法:操作融合,通過(guò)合并層來(lái)優(yōu)化數(shù)據(jù)布局和相關(guān)的計(jì)算核。轉(zhuǎn)換或優(yōu)化過(guò)程中會(huì)刪除一些層(如“Dropout”、“Reshape”),而有些層(如非線性層以及卷積層之后的池化層)會(huì)被融合到前一層中。其好處是轉(zhuǎn)換后的網(wǎng)絡(luò)通常比原始網(wǎng)絡(luò)層數(shù)少,降低了存儲(chǔ)器中的數(shù)據(jù)吞吐需求。

最后一種方法是優(yōu)化的激活項(xiàng)存儲(chǔ)。其在內(nèi)存中定義一個(gè)讀寫塊來(lái)存儲(chǔ)臨時(shí)的隱藏層值(激活函數(shù)的輸出)。此讀寫塊可以被視為推理函數(shù)使用的暫存緩沖區(qū),在不同層之間被重復(fù)使用。因此,激活緩沖區(qū)的大小由幾個(gè)連續(xù)層的最大存儲(chǔ)需求決定。比如,假設(shè)有一個(gè)3層的神經(jīng)網(wǎng)絡(luò),每一層的激活值分別有5KB, 12KB和3KB,那么優(yōu)化后的激活緩沖區(qū)大小將是12KB,而不是20KB。

可重定位的二進(jìn)制模型支持

非可重定位方法(或“靜態(tài)”方法)指的是:生成的神經(jīng)網(wǎng)絡(luò)C文件被編譯并與最終用戶應(yīng)用程序堆棧靜態(tài)鏈接在一起。

如下圖所示,所有對(duì)象(包括神經(jīng)網(wǎng)絡(luò)部分和用戶應(yīng)用程序)根據(jù)不同的數(shù)據(jù)類型被一起鏈接到不同的部分。在這種情況下,當(dāng)用戶想要對(duì)功能進(jìn)行部分更新時(shí)(比如只更新神經(jīng)網(wǎng)絡(luò)部分),將需要對(duì)整個(gè)固件進(jìn)行更新。

相反,可重定位二進(jìn)制模型指定一個(gè)二進(jìn)制對(duì)象,該對(duì)象可以安裝和執(zhí)行在STM32內(nèi)存子系統(tǒng)的任何位置。它是所生成的神經(jīng)網(wǎng)絡(luò)C文件的編譯后的版本,包括前向核函數(shù)以及權(quán)重。其主要目的是提供一種靈活的方法來(lái)更新AI相關(guān)的應(yīng)用程序,而無(wú)需重新生成和刷寫整個(gè)終端用戶固件。

生成的二進(jìn)制對(duì)象是一個(gè)輕量級(jí)插件。它可以從任何地址(位置無(wú)關(guān)的代碼)運(yùn)行,其數(shù)據(jù)也可放置于內(nèi)存中的任何地方(位置無(wú)關(guān)的數(shù)據(jù))。

STM32Cube.AI簡(jiǎn)單而高效的AI可重定位運(yùn)行時(shí)環(huán)境可以將其實(shí)例化并使用它。STM32固件中沒(méi)有內(nèi)嵌復(fù)雜的資源消耗型動(dòng)態(tài)鏈接器,其生成的對(duì)象是一個(gè)獨(dú)立的實(shí)體,運(yùn)行時(shí)不需要任何外部變量或函數(shù)。

下圖的左側(cè)部分是神經(jīng)網(wǎng)絡(luò)的可重定位二進(jìn)制對(duì)象,它是一個(gè)自給自足的獨(dú)立實(shí)體,鏈接時(shí)將被放置于終端用戶應(yīng)用程序的一個(gè)單獨(dú)區(qū)域中(右側(cè)部分)。它可以通過(guò)STM32Cube.AI的可重定位運(yùn)行時(shí)環(huán)境被實(shí)例化以及動(dòng)態(tài)鏈接。因此,用戶在更新AI模型時(shí)只需要更新這部分二進(jìn)制文件。另外,如果有進(jìn)一步的靈活性需求,神經(jīng)網(wǎng)絡(luò)的權(quán)重也可以選擇性地被生成為獨(dú)立的目標(biāo)文件。

可重定位網(wǎng)絡(luò)可以在STM32Cube.AI的高級(jí)設(shè)置中激活

最后,作為意法半導(dǎo)體人工智能生態(tài)系統(tǒng)的核心工具,STM32Cube.AI提供許多基本和高級(jí)功能,以幫助用戶輕松創(chuàng)建高度優(yōu)化和靈活的人工智能應(yīng)用。如需詳細(xì)了解特定解決方案或技術(shù)細(xì)節(jié),請(qǐng)隨時(shí)關(guān)注我們的后續(xù)文章。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • mcu
    mcu
    +關(guān)注

    關(guān)注

    147

    文章

    18925

    瀏覽量

    398151
  • STM32
    +關(guān)注

    關(guān)注

    2309

    文章

    11162

    瀏覽量

    373448
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301404
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52109

原文標(biāo)題:AI技術(shù)專題之五:專為STM32 MCU優(yōu)化的STM32Cube.AI庫(kù)

文章出處:【微信號(hào):STMChina,微信公眾號(hào):意法半導(dǎo)體中國(guó)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用NORDIC AI的好處

    Nordic 的 Edge AI 主要有以下幾個(gè)好處(基于官方資料總結(jié)): 極低功耗、延長(zhǎng)電池壽命 在本地運(yùn)行 AI,減少無(wú)線傳輸次數(shù),而無(wú)線收發(fā)是最耗電的部分。設(shè)備只需上傳“結(jié)果/事件”,而不是
    發(fā)表于 01-31 23:16

    純4G?血版AI小智產(chǎn)品方案 #小智AI #AI方案商 #4G通話 #AI終端產(chǎn)品

    AI
    不太正經(jīng)的攻城獅
    發(fā)布于 :2025年12月21日 14:36:55

    瑞芯微SOC智能視覺(jué)AI處理器

    RK1126B的基礎(chǔ)上,增加了H.264/H.265視頻編碼能力的“全能型”視覺(jué)AI處理器,實(shí)現(xiàn)編解碼+AI分析一體化基礎(chǔ): 完全繼承了RK1126B的所有特性,包括2TOPS NPU和強(qiáng)大的解碼與ISP
    發(fā)表于 12-19 13:44

    VS680 HDMI AI分析解決方案 #目標(biāo)識(shí)別 #視頻翻譯 #AI #芯片

    AI
    深蕾半導(dǎo)體
    發(fā)布于 :2025年11月12日 10:29:33

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識(shí)盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    2)滲透式AI的優(yōu)勢(shì) 5、大型多模態(tài)模型 多模態(tài)模型(LMM)可以被理解成大模型的更高級(jí)版本,不僅可以處理文本,還可以處理和理解多種類型的數(shù)據(jù)模態(tài)。 多模態(tài)模型的關(guān)鍵特性是:它通常能夠同時(shí)集成和解
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    載體,關(guān)鍵是能在能量載體的特征長(zhǎng)度范圍內(nèi)操縱傳輸特性AI發(fā)揮的作用越來(lái)越大了,會(huì)有替代人類的一天嗎?
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+可期之變:從AI硬件到AI濕件

    的不同。隨著AI熱潮的興起,大腦的抽象模型已被提煉成各種的AI算法,并使用半導(dǎo)體芯片技術(shù)加以實(shí)現(xiàn)。 而大腦是一個(gè)由無(wú)數(shù)神經(jīng)元通過(guò)突觸連接而成的復(fù)雜網(wǎng)絡(luò),是極其復(fù)雜和精密的。大腦在本質(zhì)上就是一臺(tái)濕潤(rùn)的軟組織
    發(fā)表于 09-06 19:12

    AI 芯片浪潮下,職場(chǎng)晉升新契機(jī)?

    在科技飛速發(fā)展的當(dāng)下,AI 芯片已然成為眾多行業(yè)變革的核心驅(qū)動(dòng)力。從互聯(lián)網(wǎng)巨頭的數(shù)據(jù)中心,到我們?nèi)粘J褂玫闹悄苁謾C(jī)、智能家居設(shè)備,AI 芯片的身影無(wú)處不在,深刻改變著產(chǎn)品形態(tài)與服務(wù)模式。而對(duì)于身處
    發(fā)表于 08-19 08:58

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    模態(tài)的技術(shù)特性,DeepSeek正加速推動(dòng)AI在金融、政務(wù)、科研及網(wǎng)絡(luò)智能化等關(guān)鍵領(lǐng)域的深度應(yīng)用。 信而泰:AI推理引擎賦能網(wǎng)絡(luò)智能診斷新范式信而泰深度整合DeepSeek-R1大模型系統(tǒng),構(gòu)建了新一代
    發(fā)表于 07-16 15:29

    最新人工智能硬件培訓(xùn)AI基礎(chǔ)入門學(xué)習(xí)課程參考2025版(離線AI語(yǔ)音視覺(jué)識(shí)別篇)

    端側(cè)離線 AI 智能硬件作為 AI 技術(shù)的重要載體之一,憑借其無(wú)需依賴網(wǎng)絡(luò)即可實(shí)現(xiàn)智能功能的特性,在一些網(wǎng)絡(luò)條件受限或?qū)?shù)據(jù)隱私有較高要求的場(chǎng)景中,發(fā)揮著不可或缺的作用。本章基于CSK6大模型語(yǔ)音
    發(fā)表于 07-04 11:14

    AI用芯片電感具備哪些電氣特性

    滿足AI服務(wù)器、智能機(jī)器人、智能控制無(wú)人機(jī)等行業(yè)對(duì)芯片電感的性能要求,科達(dá)嘉自主研發(fā)推出了AI用一體成型電感CSHN系列。產(chǎn)品采用科達(dá)嘉自主研發(fā)的金屬軟磁粉末熱壓成型,具有超低感量、極低直流電阻、高飽和等電氣特性,并采用輕薄型設(shè)
    的頭像 發(fā)表于 06-12 17:50 ?1206次閱讀
    <b class='flag-5'>AI</b>用芯片電感具備哪些電氣<b class='flag-5'>特性</b>?

    邊緣AI MPU深度盤點(diǎn):品牌、型號(hào)與技術(shù)特性全解析

    邊緣AI MPU深度盤點(diǎn):品牌、型號(hào)與技術(shù)特性全解析 隨著邊緣計(jì)算與人工智能的深度融合,邊緣AI MPU(微處理器)已成為支撐物聯(lián)網(wǎng)、智能制造、自動(dòng)駕駛等場(chǎng)景的核心硬件。本文從品牌、型號(hào)、技術(shù)
    的頭像 發(fā)表于 04-30 17:27 ?4125次閱讀

    AI 時(shí)代開(kāi)啟,企業(yè)跟風(fēng)做 AI 產(chǎn)品是明智之舉?

    AI
    華成工控
    發(fā)布于 :2025年04月10日 17:28:44

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計(jì)算與嵌入式開(kāi)發(fā)

    低功耗特性。搭載 Renesas 獨(dú)有的 DRP-AI 加速器,支持 15 Sparse TOPS的 AI 計(jì)算能力,使其在計(jì)算機(jī)視覺(jué)、邊緣 AI 及智能制造等場(chǎng)景中大放異彩。 豐富接
    發(fā)表于 03-19 17:54