国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深入探討機器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)現(xiàn)狀和瓶頸

產(chǎn)業(yè)大視野 ? 來源:未知 ? 作者:胡薇 ? 2018-10-23 11:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機器學(xué)習(xí)作為工具商業(yè)化較為廣泛的還是在B端,比如一些金融公司會輸出自己的風(fēng)控能力、反作弊能力。在一些高精密工業(yè)領(lǐng)域通過AR+AI的技術(shù),已經(jīng)可以幫助技術(shù)人員迅速測量出儀器的指標(biāo),并將相關(guān)數(shù)據(jù)回傳至控制系統(tǒng)中。大大滴減少了技術(shù)人員手工測量的工作,同時也減少了人工測量數(shù)據(jù)的誤差。

一、機器學(xué)習(xí)的現(xiàn)狀和瓶頸

機器學(xué)習(xí)如今已算是在互聯(lián)網(wǎng)圈家喻戶曉的名詞了。現(xiàn)實生活中其實也早有很多應(yīng)用,什么無人駕駛,人臉識別,智能音響等等。去年七月國家發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,說明人工智能領(lǐng)域已經(jīng)上升到了國家戰(zhàn)略層面。身邊一直羨慕的土豪朋友們五年后的長線股也都已經(jīng)買好了。五年后的事情我不知道,但是對我印象最深的就是去年互聯(lián)網(wǎng)大會,原先人們口中的互聯(lián)網(wǎng)現(xiàn)在都改名叫傳統(tǒng)互聯(lián)網(wǎng)了。當(dāng)我們還在理解什么是機器學(xué)習(xí)的時候,別人已經(jīng)開公司幫人制定解決方案了。

實際上當(dāng)前機器學(xué)習(xí)作為工具商業(yè)化較為廣泛的還是在B端,比如一些金融公司會輸出自己的風(fēng)控能力、反作弊能力。在一些高精密工業(yè)領(lǐng)域通過AR+AI的技術(shù),已經(jīng)可以幫助技術(shù)人員迅速測量出儀器的指標(biāo),并將相關(guān)數(shù)據(jù)回傳至控制系統(tǒng)中。大大滴減少了技術(shù)人員手工測量的工作,同時也減少了人工測量數(shù)據(jù)的誤差。更多的應(yīng)用場景比如安防領(lǐng)域,通過人臉識別技術(shù)可以快速記錄出入人員,從而把非結(jié)構(gòu)化數(shù)據(jù)變成結(jié)構(gòu)化。

不過機器學(xué)習(xí)也并不是在所有領(lǐng)域都能發(fā)揮出巨大作用,起碼是在現(xiàn)在這個階段。機器學(xué)習(xí)很多情況是需要很多標(biāo)注數(shù)據(jù)來供機器進(jìn)行學(xué)習(xí),通過對標(biāo)注數(shù)據(jù)不斷的學(xué)習(xí)和優(yōu)化從而使其建立一個泛化的模型,當(dāng)新的數(shù)據(jù)通過這個模型時機器便會對其進(jìn)行分類或者預(yù)測。

比如說如果要判斷一個病人是否患有血管癌,就需要有大量被標(biāo)注的血管病變數(shù)據(jù)。但這些標(biāo)注數(shù)據(jù)的工作是需要非常有臨床經(jīng)驗的醫(yī)生一個一個的去判斷和標(biāo)注的。一方面是有經(jīng)驗的專家醫(yī)生很少,另一方面對于這類數(shù)據(jù)本身數(shù)量也有限。另外醫(yī)療行業(yè)對于模型的準(zhǔn)確率要求肯定不會亞于無人駕駛。所以不可否認(rèn)機器學(xué)習(xí)的應(yīng)用的確有它的強大之處,但在不同領(lǐng)域中充滿的挑戰(zhàn)也非常多。

二、神經(jīng)網(wǎng)絡(luò)算法

按照慣例,簡單介紹一下神經(jīng)網(wǎng)絡(luò)。

1、神經(jīng)元

人類對事物的感知是通過無數(shù)個神經(jīng)元通過彼此鏈接而形成的一個巨大神經(jīng)網(wǎng)絡(luò),然后每層神經(jīng)元會將接收到的信號經(jīng)過處理后逐層傳遞給大腦,最后再由大腦做出下一步?jīng)Q策。神經(jīng)網(wǎng)絡(luò)算法實際上就是在模仿這一生物原理。

2、監(jiān)督無監(jiān)督

神經(jīng)網(wǎng)絡(luò)算法是屬于有監(jiān)督學(xué)習(xí)的一種。有監(jiān)督學(xué)習(xí)實際上就是需要有大量的被標(biāo)注數(shù)據(jù)供其學(xué)習(xí)。反之無監(jiān)督就是不需要事先對數(shù)據(jù)進(jìn)行標(biāo)注,而是利用算法挖掘數(shù)據(jù)中潛在的規(guī)律,比如一些聚類算法。那么半監(jiān)督學(xué)習(xí),相信也不難理解。

3、權(quán)重參數(shù)

神經(jīng)網(wǎng)絡(luò)算法中的最小單元即為神經(jīng)元,一個神經(jīng)元可能會接受到n個傳遞過來的數(shù)據(jù)。每條數(shù)據(jù)在輸入神經(jīng)元時都需要乘以一個權(quán)重值w,然后將n個數(shù)據(jù)求和,在加上偏置量b。這時得到的值與該神經(jīng)元的閾值進(jìn)行比較,最后在通過激活函數(shù)輸出處理結(jié)果。

4、線性與非線性

實際上算法本身最核心的是一個線性函數(shù)y=wx+b。w為權(quán)重值,b為偏置量,x為輸入數(shù)據(jù),y為輸出數(shù)據(jù)。當(dāng)我們在處理某些數(shù)據(jù)時,理想情況是這些數(shù)據(jù)為線性可分的。這樣只要我們找到這條直線的w和b就可以作為某個模型來對數(shù)據(jù)進(jìn)行分類或預(yù)測了。如下圖:

但事實上大部分的數(shù)據(jù)并不是線性可分的,或者說一條直線無法很好的表達(dá)這些數(shù)據(jù)集。這時候怎么辦呢?這時候一般情況下就會通過增加多個神經(jīng)元以及激活函數(shù)來使模型擬合數(shù)據(jù)集。

5、激活函數(shù)

那么,什么是激活函數(shù)?說白了,激活函數(shù)就是一個能把線性函數(shù)掰彎的函數(shù)。比如下面的這組數(shù)據(jù)我們是無法通過一條直線將紅藍(lán)兩種數(shù)據(jù)分隔開。但是通過激活函數(shù),我們甚至可以將一條直線掰成一個圓。這樣我們就可以將兩組數(shù)據(jù)分隔開了。

所以理論上,我們可以將一條直線做任意的變化使其更加貼近數(shù)據(jù)集,并選取一條最優(yōu)曲線即為我們期望的最終訓(xùn)練模型。那么我們的目標(biāo)就很明確了。

6、優(yōu)化器

但是如何才能找到這么一條曲線?這時候我們可以引入一系列的優(yōu)化算法,比如梯度下降。通過優(yōu)化算法對函數(shù)求導(dǎo)我們可以使模型中的參數(shù)逐漸貼近真實值。同時在優(yōu)化過程中還需要加入損失函數(shù)。

7、損失函數(shù)

什么是損失函數(shù)?損失函數(shù)說白了可以理解成為一個驗收者。損失函數(shù)會去衡量測試數(shù)據(jù)中的結(jié)果與實際值的偏差情況。如果偏差較大就要告訴優(yōu)化函數(shù)繼續(xù)優(yōu)化直到模型完全收斂。常用的損失函數(shù)如:交叉熵、平方差等。

8、過擬合欠擬合

不過需要注意的是,如果我們的曲線完美的擬合了所有數(shù)據(jù),那么這條曲線是否即為我們模型的最優(yōu)曲線呢?答案是否定的。這里我們還需要考慮一個模型泛化的問題。如果我們訓(xùn)練了一個模型,但是這個模型僅能在訓(xùn)練數(shù)據(jù)集中發(fā)揮很大效用,那么它實際的應(yīng)用意義其實并不大。我們需要的是通過這個模型能夠讓我們了解到我們未知的信息,而不是已知的。所以我們并不希望這條曲線能夠穿過所有的數(shù)據(jù),而是讓它盡可能的描繪出這個數(shù)據(jù)集。為了防止模型過擬合可以嘗試增加訓(xùn)練數(shù)據(jù)同時減小模型復(fù)雜度。同樣我們也不可能讓這條曲線完全偏離數(shù)據(jù)集。

三、深度學(xué)習(xí)框架

自己推導(dǎo)算法?自己設(shè)計模型?不存在的…大神們早就幫你封裝好了。安心做一個調(diào)包俠吧。

沒有訓(xùn)練數(shù)據(jù)?沒有測試樣本?不存在的…大神們早就幫你準(zhǔn)備好了。安心做一個調(diào)參狗吧。

什么?還是不知道怎么做?不存在的!下面讓你秒變機器學(xué)習(xí)大神(裝逼狗)。

Keras

機器學(xué)習(xí)的框架這里就不枚舉了,不過Keras還是非常值得提一下。相比Tensorflow,Keras更容易新手上手,封裝的更加高級。建議在嘗試使用框架前先了解或?qū)W習(xí)一下python,然后直接Keras中文文檔吧。

那么如何秒變大神?Keras框架中其實已經(jīng)內(nèi)置了很多預(yù)訓(xùn)練好的模型,如ResNet50圖片分類器。你只需要將下圖中的代碼復(fù)制到你的Keras框架中并運行。然后泡一杯咖啡,想象自己已經(jīng)成為吳恩達(dá)一樣的大神。靜靜的等待著深藏功與名的那一刻的到來。

大概半小時的時間,模型下載安裝完畢。激動人心的時刻終于來臨,趕快來測一下這個模型。從百度上隨便搜索了一張貓的圖片,并將圖片的大小改為224*224像素。然后將圖片放到項目的根目錄中(不要忘記修改代碼中的圖片名稱),最后運行程序。你會發(fā)現(xiàn)模型不僅能識別出來是一只貓,并且還知道是一只波斯貓。驚不驚喜?刺不刺激?是不是有很多小圖片想要嘗試?趕快玩起來吧。

通過對這個模型的封裝以及作為產(chǎn)品經(jīng)理的你,相信也可以YY出很多好玩的應(yīng)用。雖然通過Keras中的預(yù)置模型可以讓我們快速體驗機器學(xué)習(xí)的能力,但是個人建議最好還是自己手動搭建一套簡單的模型會更加幫助理解。Keras是通過Sequential模型線性堆疊網(wǎng)絡(luò)層。其中一些常用的層Keras已經(jīng)封裝好了,同時上面說到的激活函數(shù)、優(yōu)化器、損失函數(shù)等等也都是任君挑選的。所以想要通過Keras搭建自己的模型其實也不難。上述內(nèi)容實際上也只是一個拋磚引玉,至少個人也是通過這些才開始對機器學(xué)習(xí)感興趣的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:【Robot 學(xué)院】機器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)現(xiàn)狀和瓶頸

文章出處:【微信號:robotn,微信公眾號:產(chǎn)業(yè)大視野】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2076次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個手寫數(shù)字識別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1210次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓(xùn)練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1124次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計算與加速技術(shù)

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概念對非專業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?900次閱讀
    如何在<b class='flag-5'>機器</b>視覺中部署深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    一文了解Arm神經(jīng)超級采樣 (Arm Neural Super Sampling, Arm NSS) 深入探索架構(gòu)、訓(xùn)練和推理

    本文將從訓(xùn)練、網(wǎng)絡(luò)架構(gòu)到后處理和推理等方面,深入探討 Arm 神經(jīng)超級采樣 (Arm Neural Super Sampling, Arm NSS) 的工作原理,希望為機器
    的頭像 發(fā)表于 08-14 16:11 ?3037次閱讀

    無刷電機小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實現(xiàn)轉(zhuǎn)角預(yù)測,并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1198次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    感應(yīng)電機智能調(diào)速

    本資料探討了專家系統(tǒng)控制、模糊控制、神經(jīng)網(wǎng)絡(luò)控制、遺傳算法等智能控制算法在感應(yīng)電機控制中的應(yīng)用,以期設(shè)計出與電機參數(shù)無關(guān)或?qū)﹄姍C參數(shù)變化不敏感的控制。主要包括感應(yīng)電機控制現(xiàn)狀和感應(yīng)電機控制一般
    發(fā)表于 05-28 15:53

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計數(shù)據(jù)怎么查看?

    無法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計數(shù)據(jù)
    發(fā)表于 03-06 07:10