国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

DNN(深度神經網絡)在訓練過程中遇到的一些問題

新機器視覺 ? 來源:新機器視覺 ? 2023-02-06 16:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學習已經成為解決許多具有挑戰性的現實世界問題的方法。對目標檢測,語音識別和語言翻譯來說,這是迄今為止表現最好的方法。許多人將深度神經網絡(DNNs)視為神奇的黑盒子,我們放進去一堆數據,出來的就是我們的解決方案!事實上,事情沒那么簡單。

在設計和應用DNN到一個特定的問題上可能會遇到很多挑戰。為了達到現實世界應用所需的性能標準,對數據準備,網絡設計,訓練和推斷等各個階段的正確設計和執行至關重要。

今天給大家講講DNN(深度神經網絡)在訓練過程中遇到的一些問題,然后我們應該怎么去注意它,并學會怎么去訓練它。

1、數據集的準備:

必須要保證大量、高質量且帶有準確標簽的數據,沒有該條件的數據,訓練學習很困難的(但是最近我看了以為作者寫的一篇文章,說明不一定需要大量數據集,也可以訓練的很好,有空和大家來分享其思想---很厲害的想法);

2、數據預處理:

這個不多說,就是0均值和1方差化,其實還有很多方法;

3、Minibatch:

這個有時候還要根據你的硬件設備而定,一般建議用128,8這組,但是128,1也很好,只是效率會非常慢,注意的是:千萬不要用過大的數值,否則很容易過擬合;

4、梯度歸一化:

其實就是計算出來梯度之后,要除以Minibatch的數量,這個可以通過閱讀源碼得知(我之前有寫過SGD);

5、學習率:

① 一般都會有默認的學習率,但是剛開始還是用一般的去學習,然后逐漸的減小它;

② 一個建議值是0.1,適用于很多NN的問題,一般傾向于小一點;但是如果對于的大數據,何凱明老師也說過,要把學習率調到很小,他說0.00001都不為過(如果記得不錯,應該是這么說的);

③ 一個對于調度學習率的建議:如果在驗證集上性能不再增加就讓學習率除以2或者5,然后繼續,學習率會一直變得很小,到最后就可以停止訓練了;

④ 很多人用的一個設計學習率的原則就是監測一個比率(每次更新梯度的norm除以當前weight的norm),如果這個比率在10e-3附近,且小于這個值,學習會很慢,如果大于這個值,那么學習很不穩定,由此會帶來學習失敗。

6、驗證集的使用:

使用驗證集,可以知道什么時候開始降低學習率和什么時候停止訓練;

7、weight初始化:

① 如果你不想繁瑣的話,直接用0.02*randn(num_params)來初始化,當然別的值也可以去嘗試;

② 如果上面那個建議不太好使,那么就依次初始化每一個weight矩陣用init_scale / sqrt(layer_width) * randn,init_scale可以被設置為0.1或者1;

③ 初始化參數對結果的影響至關重要,要引起重視;

④ 在深度網絡中,隨機初始化權重,使用SGD的話一般處理的都不好,這是因為初始化的權重太小了。這種情況下對于淺層網絡有效,但是當足夠深的時候就不行,因為weight更新的時候,是靠很多weight相乘的,越乘越小,類似梯度消失的意思。

8、RNN&&LSTM(這方面沒有深入了解,借用別人的意思):

如果訓練RNN或者LSTM,務必保證gradient的norm被約束在15或者5(前提還是要先歸一化gradient),這一點在RNN和LSTM中很重要;

9、梯度檢查:

檢查下梯度,如果是你自己計算的梯度;如果使用LSTM來解決長時依賴的問題,記得初始化bias的時候要大一點;

10、數據增廣:

盡可能想辦法多的擴增訓練數據,如果使用的是圖像數據,不妨對圖像做一點扭轉,剪切,分割等操作來擴充數據訓練集合;

11、dropout:(先空著,下次我要單獨詳細講解Dropout)

12、評價結果:

評價最終結果的時候,多做幾次,然后平均一下他們的結果。

補充:

1、選擇優化算法

傳統的隨機梯度下降算法雖然適用很廣,但并不高效,最近出現很多更靈活的優化算法,例如Adagrad、RMSProp等,可在迭代優化的過程中自適應的調節學習速率等超參數,效果更佳;

2、參數設置技巧

無論是多核CPU還是GPU加速,內存管理仍然以字節為基本單元做硬件優化,因此將參數設定為2的指數倍,如64,128,512,1024等,將有效提高矩陣分片、張量計算等操作的硬件處理效率;

3、正則優化

除了在神經網絡單元上添加傳統的L1/L2正則項外,Dropout更經常在深度神經網絡應用來避免模型的過擬合。初始默認的0.5的丟棄率是保守的選擇,如果模型不是很復雜,設置為0.2就可以;

4、其他方法

除了上述訓練調優的方法外,還有其他一些常用方法,包括:使用mini-batch learning方法、遷移訓練學習、打亂訓練集順序、對比訓練誤差和測試誤差調節迭代次數、日志可視化觀察等等。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 語音識別
    +關注

    關注

    39

    文章

    1812

    瀏覽量

    116064
  • 數據集
    +關注

    關注

    4

    文章

    1236

    瀏覽量

    26202
  • 深度學習
    +關注

    關注

    73

    文章

    5599

    瀏覽量

    124405

原文標題:基礎入門:“煉丹師”——深度學習訓練技巧

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經網絡的初步認識

    日常生活的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現。什么是神經網絡神經網絡
    的頭像 發表于 12-17 15:05 ?336次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    CNN卷積神經網絡設計原理及MCU200T上仿真測試

    應用廣泛。因為經過MaxPool可以減小卷積核的尺寸,同時又可以保留相應特征,所以主要用來降維。 全連接層:全連接的過程中丟失位置信息,降低了學習過程中的參數敏感度。 RELU激活函數:該函
    發表于 10-29 07:49

    NMSIS神經網絡庫使用介紹

    () riscv_fully_connected_q7()   NS上跑時和arm的神經網絡致,可在github上下載CMSIS的庫,然后加入到自己庫所在的路徑下即可。
    發表于 10-29 06:08

    構建CNN網絡模型并優化的般化建議

    整個模型非常巨大。所以要想實現輕量級的CNN神經網絡模型,首先應該避免嘗試單層神經網絡。 2)減少卷積核的大小:CNN神經網絡是通過權值共享的方式,利用卷積運算從圖像中提取線性紋理。
    發表于 10-28 08:02

    Ubuntu20.04系統訓練神經網絡模型的一些經驗

    本帖欲分享Ubuntu20.04系統訓練神經網絡模型的一些經驗。我們采用jupyter notebook作為開發IDE,以TensorF
    發表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    完成神經網絡量化后,需要將神經網絡部署到硬件加速器上。首先需要將所有權重數據以及輸入數據導入到存儲器內。 仿真環境下,可將其存于個文件
    發表于 10-20 08:00

    神經網絡的并行計算與加速技術

    隨著人工智能技術的飛速發展,神經網絡眾多領域展現出了巨大的潛力和廣泛的應用前景。然而,神經網絡模型的復雜度和規模也不斷增加,這使得傳統的串行計算方式面臨著巨大的挑戰,如計算速度慢、
    的頭像 發表于 09-17 13:31 ?1133次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    如何在機器視覺中部署深度學習神經網絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 討論人工智能(AI)或深度學習時,經常會出現“神經網絡
    的頭像 發表于 09-10 17:38 ?906次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b>學習<b class='flag-5'>神經網絡</b>

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現轉角預測,并采用改進遺傳算法來訓練網絡
    發表于 06-25 13:06

    神經網絡專家系統電機故障診斷的應用

    的診斷誤差。仿真結果驗證了該算法的有效性。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經網絡專家系統電機故障診斷的應用.pdf【免責聲明】本文系網絡轉載,版權歸原作
    發表于 06-16 22:09

    神經網絡RAS異步電機轉速估計的仿真研究

    ,在定程度上擴展了轉速估計范圍。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經網絡RAS異步電機轉速估計的仿真研究.pdf【免責聲明】本文系
    發表于 06-16 21:54

    基于FPGA搭建神經網絡的步驟解析

    本文的目的是神經網絡已經通過python或者MATLAB訓練好的神經網絡模型,將訓練好的模
    的頭像 發表于 06-03 15:51 ?1230次閱讀
    基于FPGA搭建<b class='flag-5'>神經網絡</b>的步驟解析

    FX2LP USB上配置GPIF中斷時遇到一些問題,求解決

    你好,我 FX2LP USB 上配置 GPIF 中斷時遇到一些問題。 我啟用了 INT4 中斷并從 GPIF 中選擇了源 INT4,然后啟用了 GPIF 完成中斷,但我看不到中斷 4 工作。 我該如何做呢?
    發表于 05-06 08:00

    調試ADPD188芯片的過程中用I2C調試過程出現一些問題,求解決

    調試ADPD188芯片的過程中用I2C調試過程出現一些問題,參考官方提供的代碼調試中發現,初始化過不去,抓取波形發現芯片型號對不上了,從芯片外觀看ADPD188bi這個芯片,請問是
    發表于 04-16 06:57

    嵌入式AI技術之深度學習:數據樣本預處理過程中使用合適的特征變換對深度學習的意義

    和模擬切規律,但實際上,這個過程效率非常低,需要消耗大量的存儲空間描述網絡的參數,并且需要大量的數據樣本覆蓋規律可能涉及到的情景。 優秀的數學家們在過往的研究,已經發現和總結出了
    的頭像 發表于 04-02 18:21 ?1522次閱讀