国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

樹莓派5上的Gemma 2:如何打造高效的邊緣AI解決方案?

上海晶珩電子科技有限公司 ? 2025-06-20 16:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從數學基礎到邊緣實現,研究團隊: Conecta.ai (ufrn.br)

97dbb308-4db4-11f0-986f-92fbcf53809c.png

摘要

1.引言

2.GEMMA 2:通用集成機器模型算法

2.1 模型架構

2.2 預訓練

2.3 后訓練

3.邊緣AI實現

1. 引言

GEMMA 2(通用集成機器模型算法,第二版)是一個復雜的框架,專為可擴展和靈活的機器學習模型訓練而設計,特別是在分布式和資源受限的環境中。在其前身的基礎上,GEMMA 2引入了增強的功能,適用于監督和無監督學習任務,使其成為人工智能、邊緣計算和數據科學等領域研究人員和從業者的強大工具。

GEMMA 2的核心在于其能夠處理多樣化的數據集和模型架構,同時優化計算效率。這是通過算法設計中的創新實現的,包括支持自適應聚類、多分辨率數據分析和量化技術,確保與微控制器嵌入式系統等資源受限設備的兼容性。

GEMMA 2的主要特點包括:

1.分布式學習:利用并行計算在多個節點上實現更快的訓練和評估。

2.模型壓縮:采用先進的量化和剪枝策略,在不犧牲準確性的情況下減小模型大小。

3.邊緣部署:針對在邊緣設備上部署機器學習模型進行定制優化,確保實時性能和最小能耗。

4.增強的靈活性:支持廣泛的機器學習范式,包括神經網絡、決策樹和集成方法。

5.以用戶為中心的設計:模塊化架構和用戶友好的API,簡化了特定用例的集成和定制。

2 — Gemma 2

Gemma 2模型基于僅解碼器的Transformer架構。我們在表中總結了主要參數和架構選擇。

97ea10ba-4db4-11f0-986f-92fbcf53809c.png

一些架構元素與Gemma模型的第一版相似;即上下文長度為8192個標記,使用旋轉位置嵌入(RoPE)和近似的GeGLU非線性。Gemma 1和Gemma 2之間有幾個元素不同,包括使用更深的網絡。我們在下面總結了關鍵差異。

980025d0-4db4-11f0-986f-92fbcf53809c.png

2.1 模型架構

2.1.1 局部滑動窗口和全局注意力

我們在每一層交替使用局部滑動窗口注意力和全局注意力。局部注意力層的滑動窗口大小設置為4096個標記,而全局注意力層的跨度設置為8192個標記。

2.1.2 Logit軟限制

我們在每個注意力層和最終層對logit進行限制,使其值保持在?soft_cap和+soft_cap之間。更具體地說,我們使用以下函數對logit進行限制:

980b351a-4db4-11f0-986f-92fbcf53809c.png

我們將self-attention層的soft_cap參數設置為50.0,將最終層的soft_cap參數設置為30.0。

2.1.3 使用RMSNorm的后歸一化和前歸一化

為了穩定訓練,我們使用RMSNorm對每個Transformer子層、注意力層和前饋層的輸入和輸出進行歸一化。

2.1.4 分組查詢注意力

這種技術幫助模型更高效地處理信息,特別是在處理大量文本時。它通過將查詢分組在一起,改進了傳統的多頭注意力(MHA),實現了更快的處理,特別是對于大型模型。這就像將一個大任務分成更小、更易管理的部分,使模型能夠更快地理解單詞之間的關系,而不犧牲準確性。

Gemma2ForCausalLM( (model):Gemma2Model( (embed_tokens):Embedding(256000,4608, padding_idx=0) (layers):ModuleList( (0-45):46xGemma2DecoderLayer( (self_attn):Gemma2SdpaAttention( (q_proj):Linear(in_features=4608, out_features=4096, bias=False) (k_proj):Linear(in_features=4608, out_features=2048, bias=False) (v_proj):Linear(in_features=4608, out_features=2048, bias=False) (o_proj):Linear(in_features=4096, out_features=4608, bias=False) (rotary_emb):Gemma2RotaryEmbedding() ) (mlp):Gemma2MLP( (gate_proj):Linear(in_features=4608, out_features=36864, bias=False) (up_proj):Linear(in_features=4608, out_features=36864, bias=False) (down_proj):Linear(in_features=36864, out_features=4608, bias=False) (act_fn):PytorchGELUTanh() ) (input_layernorm):Gemma2RMSNorm() (post_attention_layernorm):Gemma2RMSNorm() (pre_feedforward_layernorm):Gemma2RMSNorm() (post_feedforward_layernorm):Gemma2RMSNorm() ) ) (norm):Gemma2RMSNorm() ) (lm_head):Linear(in_features=4608, out_features=256000, bias=False))

9819d8fe-4db4-11f0-986f-92fbcf53809c.png

2.2 預訓練

簡要概述我們與Gemma 1不同的預訓練部分。

2.2.1 訓練數據

Gemma 2 27B模型在13萬億個主要是英語數據的標記上進行訓練,9B模型在8萬億個標記上進行訓練,2B模型在2萬億個標記上進行訓練。這些標記來自多種數據源,包括網頁文檔、代碼和科學文章。我們的模型不是多模態的,也不是專門為最先進的多語言能力而訓練的。最終的數據混合是通過類似于Gemini 1.0中的方法確定的。

分詞器:使用與Gemma 1和Gemini相同的分詞器:一個帶有數字分割、保留空白和字節級編碼的SentencePiece分詞器。生成的詞匯表有256k個條目。

過濾:使用與Gemma 1相同的數據過濾技術。具體來說,我們過濾預訓練數據集以減少不需要或不安全的話語的風險,過濾掉某些個人信息或其他敏感數據,從預訓練數據混合中凈化評估集,并通過最小化敏感輸出的擴散來減少重復的風險。

2.2.2 知識蒸餾

給定一個用作教師的大型模型,我們通過從教師給出的每個標記x在其上下文xc下的概率PT(x | xc)中進行蒸餾來學習較小的模型。更準確地說,我們最小化教師和學生概率之間的負對數似然:

9844e468-4db4-11f0-986f-92fbcf53809c.png

其中PS是學生的參數化概率。注意,知識蒸餾也在Gemini 1.5中使用過。

2.3 后訓練

對于后訓練,我們將預訓練模型微調為指令調優模型。首先,我們在純文本、僅英語的合成和人工生成的提示-響應對混合上進行監督微調(SFT)。然后,我們在這些模型上應用RLHF,獎勵模型是在僅英語的標記偏好數據上訓練的,策略基于與SFT階段相同的提示。最后,我們對每個階段后獲得的模型進行平均,以提高它們的整體性能。最終的數據混合和后訓練配方,包括調整的超參數,是根據在提高有用性的同時最小化與安全和幻覺相關的模型危害而選擇的。

我們擴展了Gemma 1.1的后訓練數據,使用了內部和外部公共數據的混合。特別是,我們使用了LMSYS-chat-1M中的提示,但沒有使用答案。我們所有的數據都經過下面描述的過濾階段。

監督微調(SFT):我們在合成和真實的提示以及主要由教師(一個更大的模型)合成的響應上運行行為克隆。我們還在學生的分布上從教師那里進行蒸餾。

基于人類反饋的強化學習(RLHF):我們使用與Gemma 1.1類似的RLHF算法,但使用了不同的獎勵模型,該模型比策略大一個數量級。新的獎勵模型也更側重于對話能力,特別是多輪對話。

模型合并:我們對通過使用不同超參數運行我們的流程獲得的不同模型進行平均。

數據過濾:當使用合成數據時,我們運行幾個階段的過濾,以刪除顯示某些個人信息、不安全或有毒模型輸出、錯誤自我識別數據和重復示例的示例。遵循Gemini的方法,我們發現包括鼓勵更好的上下文歸屬、謹慎和拒絕以最小化幻覺的數據子集,可以提高事實性指標的性能,而不會降低模型在其他指標上的性能。

格式化:Gemma 2模型使用與Gemma 1模型相同的控制標記進行微調,但格式化方案不同。注意,模型明確地以標記結束生成,而之前它只是生成。有關這種格式化結構背后的動機,請參閱Gemma 1。

3. 邊緣AI實現

通過這個示例,你可以在樹莓派5上實現機器學習算法。


3.0 收集必要的材料

樹莓派5(帶兼容的電源線)

MicroSD卡(最小32 GB,推薦64 GB或更高)

帶SD卡讀卡器或USB適配器的計算機

HDMI電纜和顯示器/電視

USB鍵盤和鼠標(或如果支持,則使用藍牙

互聯網連接(通過Wi-Fi以太網電纜)

3.1 下載并安裝操作系統

訪問此處了解如何在樹莓派4或5上下載和安裝操作系統。

https://medium.com/p/4dffd65d33ab/edit

3.2 — 安裝Ollama

curl-fsSL https://ollama.com/install.sh | sh

3.3 — 運行gemma2

ollamarun gemma2:2b --verbose

9859beb0-4db4-11f0-986f-92fbcf53809c.png

3.4 —問題結果

問題:解釋Transformer ML架構

98d5816c-4db4-11f0-986f-92fbcf53809c.png

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136931
  • 樹莓派
    +關注

    關注

    122

    文章

    2078

    瀏覽量

    110461
  • 集成機器人
    +關注

    關注

    0

    文章

    3

    瀏覽量

    2921
  • 邊緣AI
    +關注

    關注

    0

    文章

    239

    瀏覽量

    6131
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    樹莓5,Raspberry Pi 5 評測

    85.6°C,僅比沒有散熱的測試低1.2°C。所以,買便宜的散熱片就是浪費錢。我們建議要么買主動散熱,要么等待市場上有適用的定制被動散熱的解決方案。 能給樹莓 5 超頻嗎? 可以。
    發表于 06-19 14:51

    《電子發燒友電子設計周報》聚焦硬科技領域核心價值 第16期:2025.06.16--2025.06.20

    ://www.3532n.com/d/6749562.html 8、樹莓5Gemma 2
    發表于 06-20 19:50

    樹莓5還是香橙5 Pro?兩款熱門開發板的詳細對比

    2.4GHz的處理器,并集成了支持OpenGL和Vulkan的GPU,但在核心架構存在明顯差異: 1)樹莓5 :搭載博通BCM2712處理器,采用4核Cortex-A76架構。內存
    發表于 03-04 19:29

    索尼投資樹莓,共同開發邊緣 AI 解決方案

    索尼半導體解決方案(SSS)今天發布新聞稿,宣布和樹莓公司簽署戰略協作框架,持有后者的少數股權,共同開發邊緣人工智能(Edge AI
    發表于 04-13 15:55

    樹莓的學習設計方案合集

    本文檔的主要內容詳細介紹的是樹莓的學習設計方案合集免費下載包括了:AMG8833 8x8紅外熱像儀傳感器應用附PCB驅動源碼,Arduino與樹莓
    發表于 03-11 08:00 ?12次下載
    <b class='flag-5'>樹莓</b><b class='flag-5'>派</b>的學習設計<b class='flag-5'>方案</b>合集

    高效樹莓UPS

    電子發燒友網站提供《超高效樹莓UPS.zip》資料免費下載
    發表于 07-12 11:15 ?12次下載
    超<b class='flag-5'>高效</b><b class='flag-5'>樹莓</b><b class='flag-5'>派</b>UPS

    樹莓-搭建邊緣計算云平臺

    基于樹莓搭建邊緣計算云平臺
    的頭像 發表于 12-03 00:17 ?2466次閱讀
    <b class='flag-5'>樹莓</b><b class='flag-5'>派</b>-搭建<b class='flag-5'>邊緣</b>計算云平臺

    Hailo聯手樹莓,開創人工智能新紀元

    近日,人工智能處理器領導品牌Hailo正式宣布與樹莓展開深度合作。Hailo將為樹莓推出專用AI套件,支持
    的頭像 發表于 06-06 16:08 ?1875次閱讀

    樹莓 Zero 打造的智能漫游車!

    使用PXFMini和樹莓Zero打造您自己的自主漫游車。本項目所用組件硬件組件ErleRoboticsPXFmini×1樹莓Zero×1
    的頭像 發表于 05-13 16:39 ?1106次閱讀
    用 <b class='flag-5'>樹莓</b><b class='flag-5'>派</b> Zero <b class='flag-5'>打造</b>的智能漫游車!

    樹莓分類器:用樹莓識別不同型號的樹莓

    對準樹莓4,屏幕上會顯示“RaspberryPi4”;對準樹莓Zero時顯示“RaspberryPiZero”,依此類推。組裝在樹莓
    的頭像 發表于 06-13 16:39 ?1300次閱讀
    <b class='flag-5'>樹莓</b><b class='flag-5'>派</b>分類器:用<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>識別不同型號的<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>!

    搭載樹莓CM5:Sfera Labs 工業控制器!

    的可靠性。解決方案樹莓計算模塊5RP2040企業規模中小企業(SME)行業工業自動化,物聯網,邊緣計算SferaLabs是一家意大利公司,
    的頭像 發表于 07-01 17:41 ?700次閱讀
    搭載<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>CM<b class='flag-5'>5</b>:Sfera Labs 工業控制器!

    樹莓5使用YOLO進行物體和動物識別-入門指南

    大家好,接下來會為大家開一個樹莓5和YOLO的專題。內容包括四個部分:在樹莓5
    的頭像 發表于 07-17 17:16 ?2045次閱讀
    在<b class='flag-5'>樹莓</b><b class='flag-5'>派</b><b class='flag-5'>5</b><b class='flag-5'>上</b>使用YOLO進行物體和動物識別-入門指南

    樹莓5開啟YOLO姿態估計識別之旅!

    大家好,接下來會為大家開一個樹莓5和YOLO的連載文章。內容包括四個部分:在樹莓5
    的頭像 發表于 07-18 15:31 ?2491次閱讀
    在<b class='flag-5'>樹莓</b><b class='flag-5'>派</b><b class='flag-5'>5</b><b class='flag-5'>上</b>開啟YOLO姿態估計識別之旅!

    Immich智能相冊在樹莓5高效部署與優化

    將海外廣受歡迎的開源智能相冊項目Immich部署于樹莓5,并通過搭載基于AX650N/AX8850的M.2算力卡,顯著提升了系統算力。借
    的頭像 發表于 10-14 11:30 ?1254次閱讀
    Immich智能相冊在<b class='flag-5'>樹莓</b><b class='flag-5'>派</b><b class='flag-5'>5</b><b class='flag-5'>上</b>的<b class='flag-5'>高效</b>部署與優化

    推理<2ms!Ultralytics最新YOLO26+樹莓+國產AI加速卡實現 500 FPS 端側 AI 性能巔峰!

    關鍵詞:YOLO26、樹莓、國產AI加速卡、M5Stack、邊緣AI速度快、功耗低、純國產,
    的頭像 發表于 01-30 16:11 ?2863次閱讀
    推理<<b class='flag-5'>2</b>ms!Ultralytics最新YOLO26+<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>+國產<b class='flag-5'>AI</b>加速卡實現 500 FPS 端側 <b class='flag-5'>AI</b> 性能巔峰!