国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文看懂NLP里的模型框架 Encoder-Decoder和Seq2Seq

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-10 22:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Encoder-Decoder 和 Seq2Seq

機器翻譯、對話機器人、詩詞生成、代碼補全、文章摘要(文本 - 文本)

「文本 - 文本」 是最典型的應用,其輸入序列和輸出序列的長度可能會有較大的差異。

Google 發(fā)表的用Seq2Seq做機器翻譯的論文《Sequence to Sequence Learning with Neural Networks》

語音識別音頻 - 文本)

語音識別也有很強的序列特征,比較適合 Encoder-Decoder 模型。

Google 發(fā)表的使用Seq2Seq做語音識別的論文《A Comparison of Sequence-to-Sequence Models for Speech Recognition》

圖像描述生成(圖片 - 文本)

通俗的講就是「看圖說話」,機器提取圖片特征,然后用文字表達出來。這個應用是計算機視覺和 NLP 的結(jié)合。

圖像描述生成的論文《Sequence to Sequence – Video to Text》

Encoder-Decoder 的缺陷

上文提到:Encoder(編碼器)和 Decoder(解碼器)之間只有一個「向量 c」來傳遞信息,且 c 的長度固定。

為了便于理解,我們類比為「壓縮-解壓」的過程:

將一張 800X800 像素的圖片壓縮成 100KB,看上去還比較清晰。再將一張 3000X3000 像素的圖片也壓縮到 100KB,看上去就模糊了。

Encoder-Decoder 就是類似的問題:當輸入信息太長時,會丟失掉一些信息。

Attention 解決信息丟失問題

Attention 機制就是為了解決「信息過長,信息丟失」的問題。

Attention 模型的特點是 Eecoder 不再將整個輸入序列編碼為固定長度的「中間向量 C」 ,而是編碼成一個向量的序列。

這樣,在產(chǎn)生每一個輸出的時候,都能夠做到充分利用輸入序列攜帶的信息。而且這種方法在翻譯任務中取得了非常不錯的成果。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50098

    瀏覽量

    265399
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23280
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    百度心大模型5.0正式版上線

    今天,在百度心Moment大會現(xiàn)場,心大模型5.0正式版上線。
    的頭像 發(fā)表于 01-23 16:48 ?1291次閱讀

    百度心大模型5.0 Preview榮登LMArena文本榜國內(nèi)第

    12月23日,LMArena大模型競技場發(fā)布最新排名,心新模型ERNIE-5.0-Preview-1203以1451分登上LMArena文本榜,排名國內(nèi)第
    的頭像 發(fā)表于 12-23 15:02 ?543次閱讀

    看懂AI大模型的并行訓練方式(DP、PP、TP、EP)

    才能有效縮短計算時間。搭建并行計算框架般會用到以下幾種常見的并行方式:DataParallelism,數(shù)據(jù)并行PipelineParallelism,流水線并行
    的頭像 發(fā)表于 11-28 08:33 ?1858次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>看懂</b>AI大<b class='flag-5'>模型</b>的并行訓練方式(DP、PP、TP、EP)

    摩爾線程新代大語言模型對齊框架URPO入選AAAI 2026

    近日,摩爾線程在人工智能前沿領(lǐng)域取得重要突破,其提出的新代大語言模型對齊框架——URPO統(tǒng)獎勵與策略優(yōu)化,相關(guān)研究論文已被人工智能領(lǐng)域的國際頂級學術(shù)會議AAAI 2026收錄。這
    的頭像 發(fā)表于 11-17 16:03 ?496次閱讀
    摩爾線程新<b class='flag-5'>一</b>代大語言<b class='flag-5'>模型</b>對齊<b class='flag-5'>框架</b>URPO入選AAAI 2026

    百度心大模型5.0-Preview文本能力國內(nèi)第

    11月8日凌晨,LMArena大模型競技場最新排名顯示,心全新模型ERNIE-5.0-Preview-1022登上文本排行榜全球并列第二、中國第
    的頭像 發(fā)表于 11-11 17:15 ?1471次閱讀

    OK3506-S12 Mini開發(fā)板開箱和基本使用(飛凌嵌入式)

    OK3506-S12 Mini開發(fā)板 圖2 OK3506-S12 Mini開發(fā)板 開發(fā)板簡介 ? ?RK3506J/RK3506B是款高性能的三核Cortex-A7應用處理器,專為智能語音交互、音頻輸入/輸出
    發(fā)表于 11-03 00:57

    【六岳微LY-F335開發(fā)板試用體驗】epwm啟動ADC并在OLED上顯示結(jié)果

    ;添加還是在C2000linker 的include中添加或用工程文件管理器添加,只要將兩個CMD文件加入工程就行,F(xiàn)lash和RAM的CMD文件同時只能個使用(關(guān)鍵是不同同時編譯,可以兩個都添加
    發(fā)表于 09-26 17:32

    寧暢與與百度心大模型展開深度技術(shù)合作

    近日,百度正式開源心大模型4.5系列模型。作為心開源合作伙伴,寧暢在模型開源首日即實現(xiàn)即刻部署,做到“開源即接入、發(fā)布即可用”。據(jù)悉,
    的頭像 發(fā)表于 07-07 16:26 ?871次閱讀

    龍芯中科與心系列模型開展深度技術(shù)合作

    ”解決方案。 強強聯(lián)合!自主架構(gòu)賦能大模型訓練 心大模型 心4.5系列模型均使用飛槳深度學習框架
    的頭像 發(fā)表于 07-02 16:53 ?1351次閱讀

    兆芯率先展開心系列模型深度技術(shù)合作

    對文心系列大模型的快速適配、無縫銜接。 ? 心大模型 ? 心4.5系列開源模型共10款,均使用飛漿深度學習
    的頭像 發(fā)表于 07-01 10:49 ?972次閱讀

    ELF2開發(fā)板的ubuntu系統(tǒng)的ax200 wifi配網(wǎng)

    root@elf2-desktop:/home/elf/Desktop# ls 5.10.209 碰到的很弟弟的問題:我理解是把5.10.209件內(nèi)容復制到/usr/lib/modules,然后重啟
    發(fā)表于 04-18 16:05

    【米爾-全志T536開發(fā)板試用體驗】Wi-Fi連接測試體驗

    ms 64 bytes from 36.152.44.93: seq=1 ttl=51 time=120.037 ms 64 bytes from 36.152.44.93: seq=2 ttl=51
    發(fā)表于 03-18 11:29

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實現(xiàn)代碼有處理DMA請求,這是出于什么考慮?

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實現(xiàn)代碼有處理DMA請求,這是出于什么考慮?求解答!
    發(fā)表于 03-14 09:01

    求助,關(guān)于STM32G070調(diào)用HAL_I2C_Mem_Read_IT測試疑問求解

    HAL_I2C_Slave_Seq_Receive_IT接收內(nèi)存地址后再調(diào)用HAL_I2C_Slave_Seq_Transmit_IT發(fā)送10個數(shù)據(jù); 現(xiàn)象: 從機正常接收,給主機發(fā)送第1個數(shù)據(jù)正常,到第2
    發(fā)表于 03-11 07:00

    嵌入式學習-飛凌嵌入式ElfBoard ELF 1板卡-開發(fā)板適配之USB轉(zhuǎn)網(wǎng)絡

    =2 ttl =64 time =0.470 ms 64 bytes from 192.168.3.102: icmp seq =3 ttl =64 time =0.850 ms 64 bytes
    發(fā)表于 03-07 10:21