伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

電子發燒友App

硬聲App

掃碼添加小助手

加入工程師交流群

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示
電子發燒友網>電子資料下載>電子資料>PyTorch教程16.2之情感分析:使用遞歸神經網絡

PyTorch教程16.2之情感分析:使用遞歸神經網絡

2023-06-05 | pdf | 0.20 MB | 次下載 | 免費

資料介紹

與詞相似度和類比任務一樣,我們也可以將預訓練詞向量應用于情感分析。由于第 16.1 節中的 IMDb 評論數據集 不是很大,使用在大規模語料庫上預訓練的文本表示可能會減少模型的過度擬合。作為圖 16.2.1所示的具體示例 ,我們將使用預訓練的 GloVe 模型表示每個標記,并將這些標記表示輸入多層雙向 RNN 以獲得文本序列表示,并將其轉換為情感分析輸出 Maas,2011對于相同的下游應用程序,我們稍后會考慮不同的架構選擇。

https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PJyAB1TZAAKGTdnYvUk151.svg

圖 16.2.1本節將預訓練的 GloVe 提供給基于 RNN 的架構進行情緒分析。

import torch
from torch import nn
from d2l import torch as d2l

batch_size = 64
train_iter, test_iter, vocab = d2l.load_data_imdb(batch_size)
from mxnet import gluon, init, np, npx
from mxnet.gluon import nn, rnn
from d2l import mxnet as d2l

npx.set_np()

batch_size = 64
train_iter, test_iter, vocab = d2l.load_data_imdb(batch_size)

16.2.1。用 RNN 表示單個文本

在文本分類任務中,例如情感分析,變長的文本序列將被轉換為固定長度的類別。在下面的BiRNN類中,雖然文本序列的每個標記都通過嵌入層 ( self.embedding) 獲得其單獨的預訓練 GloVe 表示,但整個序列由雙向 RNN ( self.encoder) 編碼。更具體地說,雙向 LSTM 在初始和最終時間步的隱藏狀態(在最后一層)被連接起來作為文本序列的表示。然后通過具有兩個輸出(“正”和“負”)的全連接層 ( self.decoder) 將該單一文本表示轉換為輸出類別。

class BiRNN(nn.Module):
  def __init__(self, vocab_size, embed_size, num_hiddens,
         num_layers, **kwargs):
    super(BiRNN, self).__init__(**kwargs)
    self.embedding = nn.Embedding(vocab_size, embed_size)
    # Set `bidirectional` to True to get a bidirectional RNN
    self.encoder = nn.LSTM(embed_size, num_hiddens, num_layers=num_layers,
                bidirectional=True)
    self.decoder = nn.Linear(4 * num_hiddens, 2)

  def forward(self, inputs):
    # The shape of `inputs` is (batch size, no. of time steps). Because
    # LSTM requires its input's first dimension to be the temporal
    # dimension, the input is transposed before obtaining token
    # representations. The output shape is (no. of time steps, batch size,
    # word vector dimension)
    embeddings = self.embedding(inputs.T)
    self.encoder.flatten_parameters()
    # Returns hidden states of the last hidden layer at different time
    # steps. The shape of `outputs` is (no. of time steps, batch size,
    # 2 * no. of hidden units)
    outputs, _ = self.encoder(embeddings)
    # Concatenate the hidden states at the initial and final time steps as
    # the input of the fully connected layer. Its shape is (batch size,
    # 4 * no. of hidden units)
    encoding = torch.cat((outputs[0], outputs[-1]), dim=1)
    outs = self.decoder(encoding)
    return outs
class BiRNN(nn.Block):
  def __init__(self, vocab_size, embed_size, num_hiddens,
         num_layers, **kwargs):
    super(BiRNN, self).__init__(**kwargs)
    self.embedding = nn.Embedding(vocab_size, embed_size)
    # Set `bidirectional` to True to get a bidirectional RNN
    self.encoder = rnn.LSTM(num_hiddens, num_layers=num_layers,
                bidirectional=True, input_size=embed_size)
    self.decoder = nn.Dense(2)

  def forward(self, inputs):
    # The shape of `inputs` is (batch size, no. of time steps). Because
    # LSTM requires its input's first dimension to be the temporal
    # dimension, the input is transposed before obtaining token
    # representations. The output shape is (no. of time steps, batch size,
    # word vector dimension)
    embeddings = self.embedding(inputs.T)
    # Returns hidden states of the last hidden layer at different time
    # steps. The shape of `outputs` is (no. of time steps, batch size,
    # 2 * no. of hidden units)
    outputs = self.encoder(embeddings)
    # Concatenate the hidden states at the initial and final time steps as
    # the input of the fully connected layer. Its shape is (batch size,
    # 4 * no. of hidden units)
    encoding = np.concatenate((outputs[0], outputs[-1]), axis=1)
    outs = self.decoder(encoding)
    return outs

讓我們構建一個具有兩個隱藏層的雙向 RNN 來表示用于情感分析的單個文本。

embed_size, num_hiddens, num_layers, devices = 100, 100, 2, d2l.try_all_gpus()
net = BiRNN(len(vocab), embed_size, num_hiddens, num_layers)

def init_weights(module):
  if type(module) == nn.Linear:
    nn.init.xavier_uniform_(module.weight)
  if type(module) == nn.LSTM:
    for param in module._flat_weights_names:
      if "weight" in param:
        nn.init.xavier_uniform_(module._parameters[param])
net.apply(init_weights);
embed_size, num_hiddens, num_layers, devices = 100, 100, 2, d2l.try_all_gpus()
net = BiRNN(len(vocab), embed_size, num_hiddens, num_layers)

net.initialize(init.Xavier(), ctx=devices)

16.2.2。加載預訓練詞向量

embed_size下面我們為詞匯表中的標記加載預訓練的 100 維(需要與 一致)GloVe 嵌入。

glove_embedding = d2l.TokenEmbedding('glove.6b.100d')
Downloading ../data/glove.6B.100d.zip from http://d2l-data.s3-accelerate.amazonaws.com/glove.6B.100d.zip...
glove_embedding = d2l.TokenEmbedding('glove.6b.100d')

打印詞匯表中所有標記的向量形狀。

embeds = glove_embedding[vocab.idx_to_token]
embeds.shape
torch.Size([49346, 100])
embeds = glove_embedding[vocab.idx_to_token]
embeds.shape
(49346, 100)

我們使用這些預訓練的詞向量來表示評論中的標記,并且不會在訓練期間更新這些向量。

net.embedding.weight.data.copy_(embeds)
net.embedding.weight.requires_grad = False
net.embedding.weight.set_data(embeds)
net.embedding.collect_params().setattr('grad_req', 'null')

16.2.3。訓練和評估模型

現在我們可以訓練雙向 RNN 進行情感分析。

lr, num_epochs = 0.01, 5
trainer = torch.optim.Adam(net.parameters(), lr=lr)
loss = nn.CrossEntropyLoss(reduction="none")
d2l.train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, devices)
loss 0.311, train acc 0.872, test acc 0.850
574.5 examples/sec on [device(type='cuda', index=0), device(type='cuda', index=1)]
https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PJ6AJIk8AAECA4Wy71Y322.svg
lr, num_epochs = 0.01, 5
trainer = gluon.Trainer(net.collect_params(), 'adam', {'learning_rate': lr})
loss = gluon.loss.SoftmaxCrossEntropyLoss()
d2l.train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, devices)
loss 0.428, train acc 0.806, test acc 0.791
488.5 examples/sec on [gpu(0), gpu(1)]
https://file.elecfans.com/web2/M00/AA/48/pYYBAGR9PKGAE9v0AAEB8Qpd38M668.svg

我們定義了以下函數來使用經過訓練的模型預測文本序列的情緒net


神經網絡 rnn pytorch
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

下載該資料的人也在下載 下載該資料的人還在閱讀
更多 >

評論

查看更多

下載排行

本周

  1. 1華潤微 CRTD280P06L2-GTO-252 P-MOSFET 規格書 佰祥電子
  2. 1.68 MB  |  1次下載  |  免費
  3. 2矽力杰 Silergy SY8512 降壓穩壓器 規格書 Datasheet 佰祥電子
  4. 1.26 MB  |  1次下載  |  免費
  5. 3矽力杰 Silergy SY8513 降壓穩壓器 規格書 Datasheet 佰祥電子
  6. 1.14 MB  |  1次下載  |  免費
  7. 4矽力杰 Silergy SQ27692 降壓穩壓器 規格書 Datasheet 佰祥電子
  8. 815.51 KB  |  次下載  |  免費
  9. 575寸立式豎屏戶外廣告機規格書
  10. 409.27 KB  |  次下載  |  免費
  11. 6普洛帝顆粒計數器在花粉粒徑檢測中的應用
  12. 937.67 KB  |  次下載  |  免費
  13. 7IS620P系列伺服用戶手冊
  14. 5.69 MB   |  次下載  |  1 積分
  15. 8PCB激光打碼機的功能以及配置要求
  16. 1.51 MB  |  次下載  |  免費

本月

  1. 1EMC PCB設計總結
  2. 0.33 MB   |  11次下載  |  免費
  3. 2PD取電芯片 ECP5702規格書
  4. 0.88 MB   |  4次下載  |  免費
  5. 3氮化鎵GaN FET/GaN HEMT 功率驅動電路選型表
  6. 0.10 MB   |  3次下載  |  免費
  7. 4SY50655 用于高輸入電壓應用的偽固定頻率SSR反激式穩壓器英文資料
  8. 1.01 MB   |  3次下載  |  免費
  9. 5九陽JYCP-21ZD-A主控板電路圖資料
  10. 2.33 MB   |  2次下載  |  10 積分
  11. 6PD取電芯片,可取5/9/12/15/20V電壓ECP5702數據手冊
  12. 0.88 MB   |  2次下載  |  免費
  13. 7SY52341 次級側同步整流英文手冊
  14. 0.94 MB   |  2次下載  |  免費
  15. 8華潤微 CRTE280P06L2-G -60V Trench P-MOSFET 技術參數與應用解析
  16. 1.83 MB  |  2次下載  |  免費

總榜

  1. 1matlab軟件下載入口
  2. 未知  |  935137次下載  |  10 積分
  3. 2開源硬件-PMP21529.1-4 開關降壓/升壓雙向直流/直流轉換器 PCB layout 設計
  4. 1.48MB  |  420064次下載  |  10 積分
  5. 3Altium DXP2002下載入口
  6. 未知  |  233095次下載  |  10 積分
  7. 4電路仿真軟件multisim 10.0免費下載
  8. 340992  |  191464次下載  |  10 積分
  9. 5十天學會AVR單片機與C語言視頻教程 下載
  10. 158M  |  183360次下載  |  10 積分
  11. 6labview8.5下載
  12. 未知  |  81606次下載  |  10 積分
  13. 7Keil工具MDK-Arm免費下載
  14. 0.02 MB  |  73832次下載  |  10 積分
  15. 8LabVIEW 8.6下載
  16. 未知  |  65991次下載  |  10 積分