国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從零開(kāi)始學(xué)習(xí)用Python構(gòu)建神經(jīng)網(wǎng)絡(luò)

人工智能和機(jī)器人研究院 ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-05-30 08:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

這是一份用于理解深度學(xué)習(xí)內(nèi)部運(yùn)作方式的初學(xué)者指南。作者根據(jù)自己從零開(kāi)始學(xué)習(xí)用 Python 構(gòu)建神經(jīng)網(wǎng)絡(luò)的經(jīng)驗(yàn),編寫(xiě)了一份攻略。內(nèi)容涵蓋神經(jīng)網(wǎng)絡(luò)定義、損失函數(shù)、前向傳播、反向傳播、梯度下降算法,對(duì)于想要了解深度學(xué)習(xí)運(yùn)作原理的各位來(lái)說(shuō),內(nèi)容精彩不可錯(cuò)過(guò)。

動(dòng)機(jī):為了深入了解深度學(xué)習(xí),我決定從零開(kāi)始構(gòu)建神經(jīng)網(wǎng)絡(luò),并且不使用類(lèi)似 Tensorflow 的深度學(xué)習(xí)庫(kù)。我相信,對(duì)于任何有理想的數(shù)據(jù)科學(xué)家而言,理解神經(jīng)網(wǎng)絡(luò)內(nèi)部的運(yùn)作方式都非常重要。

本文涵蓋了我學(xué)到的所有東西,希望你也能從中獲益!

什么是神經(jīng)網(wǎng)絡(luò)?

許多有關(guān)神經(jīng)網(wǎng)絡(luò)的介紹資料會(huì)將神經(jīng)網(wǎng)絡(luò)與大腦進(jìn)行類(lèi)比。但我發(fā)現(xiàn),將神經(jīng)網(wǎng)絡(luò)簡(jiǎn)單地描述為一個(gè)從輸入映射到輸出的數(shù)學(xué)函數(shù)理解起來(lái)更容易。

神經(jīng)網(wǎng)絡(luò)由以下部分組成:

一個(gè)輸入層,x

任意數(shù)量的隱藏層

一個(gè)輸出層,?

每?jī)蓪又g都有一組權(quán)重和偏置,W 和 b

每個(gè)隱藏層都要選擇一個(gè)激活函數(shù) σ。在本文中,我們選用 Sigmoid 激活函數(shù)。

下圖展示了 2 層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)(請(qǐng)注意,在計(jì)算神經(jīng)網(wǎng)絡(luò)層數(shù)的時(shí)候,通常不計(jì)入輸入層)。

二層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

利用 Python 建立神經(jīng)網(wǎng)絡(luò)非常容易。

class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(y.shape)

訓(xùn)練神經(jīng)網(wǎng)絡(luò)

一個(gè)簡(jiǎn)單 2 層神經(jīng)網(wǎng)絡(luò)的輸出 ? 可以表示為:

你可能注意到,在上面的等式當(dāng)中,權(quán)重 W 和偏置 b 是影響輸出 ? 的唯一變量。

自然,權(quán)重和偏差的正確值決定了預(yù)測(cè)的強(qiáng)度。根據(jù)輸入數(shù)據(jù)微調(diào)權(quán)重和偏置的過(guò)程稱(chēng)為神經(jīng)網(wǎng)絡(luò)訓(xùn)練。

訓(xùn)練過(guò)程的每一次迭代包含以下步驟:

計(jì)算預(yù)測(cè)的輸出 ?,稱(chēng)為前向傳播

更新權(quán)重和偏置,稱(chēng)為反向傳播

以下流程圖說(shuō)明了這個(gè)過(guò)程:

前向傳播

正如我們?cè)谏蠄D中所看到的,前向傳播只是一個(gè)簡(jiǎn)單的計(jì)算。對(duì)于一個(gè)基本的 2 層神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)的輸出計(jì)算如下:

我們可以在 Python 代碼中添加一個(gè)前向傳播函數(shù)來(lái)做到這一點(diǎn)。簡(jiǎn)單起見(jiàn),我們假設(shè)偏置為 0。

class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(self.y.shape) def feedforward(self): self.layer1 = sigmoid(np.dot(self.input, self.weights1)) self.output = sigmoid(np.dot(self.layer1, self.weights2))

然而,我們?nèi)匀恍枰环N方法來(lái)評(píng)估我們的預(yù)測(cè)的「優(yōu)秀程度」(即,我們的預(yù)測(cè)與真實(shí)值相差多少?)這就需要用到損失函數(shù)了。

損失函數(shù)

損失函數(shù)有很多種,而我們問(wèn)題的性質(zhì)會(huì)決定我們使用哪種損失函數(shù)。在本文中,我們將采用簡(jiǎn)單的誤差平方和。

誤差平方和,即每個(gè)預(yù)測(cè)值和真實(shí)值之間差值的平均值。這個(gè)差值是取了平方項(xiàng)的,所以我們測(cè)量的是差值的絕對(duì)值。

在訓(xùn)練過(guò)程中,我們的目標(biāo)是找到一組最佳的權(quán)重和偏置,使損失函數(shù)最小化。

反向傳播

現(xiàn)在,我們已經(jīng)找到了預(yù)測(cè)誤差的方法(損失函數(shù)),那么我們需要一種方法將錯(cuò)誤「?jìng)鞑ァ够厝ィ瑥亩聶?quán)重和偏置。

為了確定權(quán)重和偏置調(diào)整的適當(dāng)值,我們需要知道損失函數(shù)對(duì)權(quán)重和偏置的偏導(dǎo)數(shù)。

從微積分的角度來(lái)看,函數(shù)的偏導(dǎo)數(shù)也就是函數(shù)的斜率。

梯度下降算法

如果我們知道了偏導(dǎo)數(shù),我們可以通過(guò)簡(jiǎn)單增加或減少偏導(dǎo)數(shù)(如上圖所示)的方式來(lái)更新權(quán)重和偏置。這就是所謂的梯度下降。

然而,由于損失函數(shù)的方程不包含權(quán)重和偏置,所以我們不能直接計(jì)算損失函數(shù)對(duì)權(quán)重和偏置的偏導(dǎo)數(shù)。因此,我們需要鏈?zhǔn)椒▌t來(lái)幫助計(jì)算。

以上是用于計(jì)算損失函數(shù)對(duì)權(quán)重偏導(dǎo)數(shù)的鏈?zhǔn)椒▌t。簡(jiǎn)單起見(jiàn),我們只展示了一層神經(jīng)網(wǎng)絡(luò)的偏導(dǎo)數(shù)。

唷!這看起來(lái)不大好看,但這能讓我們獲得所需——損失函數(shù)對(duì)權(quán)重的偏導(dǎo)數(shù)(斜率),以便相應(yīng)調(diào)整權(quán)重。

既然我們已經(jīng)有了鏈?zhǔn)椒▌t公式,接下來(lái)我們把反向傳播函數(shù)添加到 Python 代碼中。

class NeuralNetwork: def __init__(self, x, y): self.input = x self.weights1 = np.random.rand(self.input.shape[1],4) self.weights2 = np.random.rand(4,1) self.y = y self.output = np.zeros(self.y.shape) def feedforward(self): self.layer1 = sigmoid(np.dot(self.input, self.weights1)) self.output = sigmoid(np.dot(self.layer1, self.weights2)) def backprop(self): # application of the chain rule to find derivative of the loss function with respect to weights2 and weights1 d_weights2 = np.dot(self.layer1.T, (2*(self.y - self.output) * sigmoid_derivative(self.output))) d_weights1 = np.dot(self.input.T, (np.dot(2*(self.y - self.output) * sigmoid_derivative(self.output), self.weights2.T) * sigmoid_derivative(self.layer1))) # update the weights with the derivative (slope) of the loss function self.weights1 += d_weights1 self.weights2 += d_weights2

整合

既然我們已經(jīng)有了做前向傳播和反向傳播的完整 Python 代碼,我們可以將神經(jīng)網(wǎng)絡(luò)應(yīng)用到一個(gè)示例中,看看它的效果。

我們的神經(jīng)網(wǎng)絡(luò)應(yīng)該能夠習(xí)得理想的權(quán)重集合以表示這個(gè)函數(shù)。請(qǐng)注意,對(duì)于我們來(lái)說(shuō),僅通過(guò)檢查來(lái)計(jì)算權(quán)重并非一件小事。

如果我們將神經(jīng)網(wǎng)絡(luò)進(jìn)行 1500 次迭代,看看會(huì)發(fā)生什么。下圖展示了每次迭代的損失函數(shù)值,我們可以清晰地發(fā)現(xiàn)損失函數(shù)單調(diào)下降到最小值。這與我們前面討論的梯度下降算法是一致的。

讓我們看看神經(jīng)網(wǎng)絡(luò)在進(jìn)行 1500 次迭代后的最終預(yù)測(cè)(輸出):

進(jìn)行 1500 次迭代后的預(yù)測(cè)值

我們成功了!我們的前向傳播和反向傳播算法成功訓(xùn)練了神經(jīng)網(wǎng)絡(luò),且預(yù)測(cè)值收斂到了真實(shí)值。

請(qǐng)注意,預(yù)測(cè)值和真實(shí)值之間還是有一些輕微差異的。這是可取的,因?yàn)樗乐沽诉^(guò)度擬合,并且使得神經(jīng)網(wǎng)絡(luò)具有更強(qiáng)的泛化能力。

下一步

幸運(yùn)的是,我們的探索還沒(méi)有結(jié)束。關(guān)于神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)還有很多需要學(xué)習(xí)的地方。例如:

除了 Sigmoid 函數(shù)之外,我們還可以使用哪些激活函數(shù)?

在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)使用學(xué)習(xí)率

使用卷積進(jìn)行圖像分類(lèi)任務(wù)

最后一點(diǎn)想法

在撰寫(xiě)此文的過(guò)程中,我已經(jīng)學(xué)到了很多,希望本文也能對(duì)你有所幫助。

在沒(méi)有完全了解神經(jīng)網(wǎng)絡(luò)內(nèi)部工作原理的情況下,雖然使用諸如 TensorFlow 和 Keras 之類(lèi)的深度學(xué)習(xí)庫(kù)可以讓我們很容易地建立深度網(wǎng)絡(luò),但我認(rèn)為對(duì)于有抱負(fù)的數(shù)據(jù)科學(xué)家而言,深入理解神經(jīng)網(wǎng)絡(luò)還是大有裨益的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • python
    +關(guān)注

    關(guān)注

    57

    文章

    4876

    瀏覽量

    90025
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5598

    瀏覽量

    124396

原文標(biāo)題:無(wú)需深度學(xué)習(xí)框架,如何從零開(kāi)始用Python構(gòu)建神經(jīng)網(wǎng)絡(luò)

文章出處:【微信號(hào):gh_ecbcc3b6eabf,微信公眾號(hào):人工智能和機(jī)器人研究院】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開(kāi)深度學(xué)習(xí),而深度學(xué)習(xí)則依賴(lài)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物
    的頭像 發(fā)表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    京東拍立淘API開(kāi)發(fā)指南:從零開(kāi)始構(gòu)建圖像搜索應(yīng)用

    京東圖片識(shí)別搜索API(拍立淘)是基于深度學(xué)習(xí)的視覺(jué)搜索服務(wù),通過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征向量,結(jié)合近似最近鄰搜索算法實(shí)現(xiàn)商品精準(zhǔn)匹配?。該技術(shù)解決了傳統(tǒng)文字搜索難以描述商品外觀的痛點(diǎn),支持以圖搜圖的智能購(gòu)物體驗(yàn)?。
    的頭像 發(fā)表于 11-09 17:40 ?2157次閱讀

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問(wèn)題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問(wèn)題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類(lèi)別
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過(guò)實(shí)踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會(huì)在構(gòu)建高準(zhǔn)確率輕量級(jí)CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-28 08:02

    從零開(kāi)始利用NMSIS庫(kù)搭建神經(jīng)網(wǎng)絡(luò)(一)

    環(huán)境:Vivado2021.1、NucleiStudio_IDE_202102-win64 內(nèi)容:從零開(kāi)始利用NMSIS庫(kù)搭建神經(jīng)網(wǎng)絡(luò),這一節(jié)主講基本的NMSIS庫(kù)卷積函數(shù)的解讀。 一、自測(cè)檢查
    發(fā)表于 10-24 13:47

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型 model = models.Sequential()model.add(layers.Conv2D(input_shape=(28, 28, 1), filters=4
    發(fā)表于 10-22 07:03

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲(chóng)的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1198次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1124次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概念對(duì)非專(zhuān)業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?900次閱讀
    如何在機(jī)器視覺(jué)中部署深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    低功耗+AI識(shí)別:基于樹(shù)莓派的 LoRa 神經(jīng)網(wǎng)絡(luò)安防系統(tǒng)!

    這篇博客展示了如何使用樹(shù)莓派上的神經(jīng)網(wǎng)絡(luò)USB插件來(lái)檢測(cè)或“推斷”一個(gè)人的位置,從而構(gòu)建一個(gè)安全系統(tǒng)。Arduino型接收器從零開(kāi)始構(gòu)建,通過(guò)遠(yuǎn)程LoRa射頻協(xié)議從樹(shù)莓派發(fā)射器獲取數(shù)據(jù)
    的頭像 發(fā)表于 06-24 16:24 ?2692次閱讀
    低功耗+AI識(shí)別:基于樹(shù)莓派的 LoRa <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>安防系統(tǒng)!

    神經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專(zhuān)家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問(wèn)題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專(zhuān)家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專(zhuān)家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe
    的頭像 發(fā)表于 06-03 15:51 ?1194次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過(guò)濾器修剪統(tǒng)計(jì)數(shù)據(jù)怎么查看?

    無(wú)法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過(guò)濾器修剪統(tǒng)計(jì)數(shù)據(jù)
    發(fā)表于 03-06 07:10