国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌開源了一個強大的NLP深度學習框架Lingvo

DPVg_AI_era ? 來源:lq ? 2019-02-27 09:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌近日開源了一個強大的NLP深度學習框架Lingvo,側重于語言相關任務的序列模型,如機器翻譯、語音識別和語音合成。過去兩年來,谷歌已經發表了幾十篇使用Lingvo獲得SOTA結果的論文。

近日,谷歌開源了一個內部 NLP 的秘密武器 ——Lingvo。

這是一個強大的 NLP 框架,已經在谷歌數十篇論文的許多任務中實現 SOTA 性能!

Lingvo 在世界語中意為 “語言”。這個命名暗指了 Lingvo 框架的根源 ——它是使用 TensorFlow 開發的一個通用深度學習框架,側重于語言相關任務的序列模型,如機器翻譯、語音識別和語音合成。

Lingvo 框架在谷歌內部已經獲得青睞,使用它的研究人員數量激增。過去兩年來,谷歌已經發表了幾十篇使用 Lingvo 獲得 SOTA 結果的論文,未來還會有更多。

包括 2016 年機器翻譯領域里程碑式的《谷歌神經機器翻譯系統》論文 (Google’s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation),也是使用 Lingvo。該研究開啟了機器翻譯的新篇章,宣告機器翻譯正式從 IBM 的統計機器翻譯模型 (PBMT,基于短語的機器翻譯),過渡到了神經網絡機器翻譯模型。該系統使得機器翻譯誤差降低了 55%-85% 以上,極大地接近了普通人的翻譯水平。

除了機器翻譯之外,Lingvo 框架也被用于語音識別、語言理解、語音合成、語音 - 文本轉寫等任務。

谷歌列舉了 26 篇使用 Lingvo 框架的 NLP 論文,發表于 ACL、EMNLP、ICASSP 等領域頂會,取得多個 SOTA 結果。全部論文見文末列表。

Lingvo 支持的架構包括傳統的RNN 序列模型、Transformer 模型以及包含 VAE 組件的模型,等等。

谷歌表示:“為了表明我們對研究界的支持并鼓勵可重復的研究工作,我們公開了該框架的源代碼,并開始發布我們論文中使用的模型?!?/p>

此外,谷歌還發布了一篇概述 Lingvo 設計的論文,并介紹了框架的各個部分,同時提供了展示框架功能的高級特性的示例。

相關論文:

https://arxiv.org/pdf/1902.08295.pdf

強悍的貢獻者列表 ——91 位作者!

摘要

Lingvo 是一個 Tensorflow 框架,為協作式深度學習研究提供了一個完整的解決方案,特別側重于sequence-to-sequence模型。Lingvo 模型由靈活且易于擴展的模塊化構建塊組成,實驗配置集中且高度可定制。該框架直接支持分布式訓練和量化推理,包含大量實用工具、輔助函數和最新研究思想的現有實現。論文概述了 Lingvo 的基礎設計,并介紹了框架的各個部分,同時提供了展示框架功能的高級特性的示例。

為協作研究設計、靈活、快速

Lingvo 框架概覽:概述了如何實例化、訓練和導出模型以進行評估和服務。

Lingvo 是在考慮協作研究的基礎下構建的,它通過在不同任務之間共享公共層的實現來促進代碼重用。此外,所有層都實現相同的公共接口,并以相同的方式布局。這不僅可以生成更清晰、更易于理解的代碼,還可以非常簡單地將其他人為其他任務所做的改進應用到自己的任務中。強制實現這種一致性的代價是需要更多的規則和樣板,但是 Lingvo 試圖將其最小化,以確保研究期間的快速迭代時間。

協作的另一個方面是共享可重現的結果。Lingvo 為檢入模型超參數配置提供了一個集中的位置。這不僅可以記錄重要的實驗,還可以通過訓練相同的模型,為其他人提供一種簡單的方法來重現你的結果。

Lingvo 中的任務配置示例。每個實驗的超參數都在它自己的類中配置,與構建網絡的代碼分開,并檢入版本控制。

雖然 Lingvo 最初的重點是 NLP,但它本質上非常靈活,并且研究人員已經使用該框架成功地實現了圖像分割和點云分類等任務的模型。它還支持 Distillation、GANs 和多任務模型。

同時,該框架不犧牲速度,并且具有優化的輸入 pipeline 和快速分布式訓練。

最后,Lingvo 的目的是實現簡單生產,甚至有一條明確定義的為移動推理移植模型的路徑。

使用Lingvo的已發表論文列表

Translation:

The Best of Both Worlds: Combining Recent Advances in Neural Machine Translation.Mia X. Chen, Orhan Firat, Ankur Bapna, Melvin Johnson, Wolfgang Macherey, George Foster, Llion Jones, Mike Schuster, Noam Shazeer, Niki Parmar, Ashish Vaswani, Jakob Uszkoreit, Lukasz Kaiser, Zhifeng Chen, Yonghui Wu, and Macduff Hughes. ACL 2018.

Revisiting Character-Based Neural Machine Translation with Capacity and Compression.Colin Cherry, George Foster, Ankur Bapna, Orhan Firat, and Wolfgang Macherey. EMNLP 2018.

Training Deeper Neural Machine Translation Models with Transparent Attention.Ankur Bapna, Mia X. Chen, Orhan Firat, Yuan Cao and Yonghui Wu. EMNLP 2018.

Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation.Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, ?ukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Technical Report, 2016.

Speech Recognition:

A comparison of techniques for language model integration in encoder-decoder speech recognition.Shubham Toshniwal, Anjuli Kannan, Chung-Cheng Chiu, Yonghui Wu, Tara N. Sainath, Karen Livescu. IEEE SLT 2018.

Deep Context: End-to-End Contextual Speech Recognition.Golan Pundak, Tara N. Sainath, Rohit Prabhavalkar, Anjuli Kannan, Ding Zhao. IEEE SLT 2018.

Speech recognition for medical conversations.Chung-Cheng Chiu, Anshuman Tripathi, Katherine Chou, Chris Co, Navdeep Jaitly, Diana Jaunzeikare, Anjuli Kannan, Patrick Nguyen, Hasim Sak, Ananth Sankar, Justin Tansuwan, Nathan Wan, Yonghui Wu, and Xuedong Zhang. Interspeech 2018.

Compression of End-to-End Models.Ruoming Pang, Tara Sainath, Rohit Prabhavalkar, Suyog Gupta, Yonghui Wu, Shuyuan Zhang, and Chung-Cheng Chiu. Interspeech 2018.

Contextual Speech Recognition in End-to-End Neural Network Systems using Beam Search.Ian Williams, Anjuli Kannan, Petar Aleksic, David Rybach, and Tara N. Sainath. Interspeech 2018.

State-of-the-art Speech Recognition With Sequence-to-Sequence Models.Chung-Cheng Chiu, Tara N. Sainath, Yonghui Wu, Rohit Prabhavalkar, Patrick Nguyen, Zhifeng Chen, Anjuli Kannan, Ron J. Weiss, Kanishka Rao, Ekaterina Gonina, Navdeep Jaitly, Bo Li, Jan Chorowski, and Michiel Bacchiani. ICASSP 2018.

End-to-End Multilingual Speech Recognition using Encoder-Decoder Models.Shubham Toshniwal, Tara N. Sainath, Ron J. Weiss, Bo Li, Pedro Moreno, Eugene Weinstein, and Kanishka Rao. ICASSP 2018.

Multi-Dialect Speech Recognition With a Single Sequence-to-Sequence Model.Bo Li, Tara N. Sainath, Khe Chai Sim, Michiel Bacchiani, Eugene Weinstein, Patrick Nguyen, Zhifeng Chen, Yonghui Wu, and Kanishka Rao. ICASSP 2018.

Improving the Performance of Online Neural Transducer Models.Tara N. Sainath, Chung-Cheng Chiu, Rohit Prabhavalkar, Anjuli Kannan, Yonghui Wu, Patrick Nguyen, and Zhifeng Chen. ICASSP 2018.

Minimum Word Error Rate Training for Attention-based Sequence-to-Sequence Models.Rohit Prabhavalkar, Tara N. Sainath, Yonghui Wu, Patrick Nguyen, Zhifeng Chen, Chung-Cheng Chiu, and Anjuli Kannan. ICASSP 2018.

No Need for a Lexicon? Evaluating the Value of the Pronunciation Lexica inEnd-to-End Models.Tara N. Sainath, Rohit Prabhavalkar, Shankar Kumar, Seungji Lee, Anjuli Kannan, David Rybach, Vlad Schogol, Patrick Nguyen, Bo Li, Yonghui Wu, Zhifeng Chen, and Chung-Cheng Chiu. ICASSP 2018.

Learning hard alignments with variational inference.Dieterich Lawson, Chung-Cheng Chiu, George Tucker, Colin Raffel, Kevin Swersky, and Navdeep Jaitly. ICASSP 2018.

Monotonic Chunkwise Attention.Chung-Cheng Chiu, and Colin Raffel. ICLR 2018.

An Analysis of Incorporating an External Language Model into a Sequence-to-Sequence Model.Anjuli Kannan, Yonghui Wu, Patrick Nguyen, Tara N. Sainath, Zhifeng Chen, and Rohit Prabhavalkar. ICASSP 2018.

Language understanding

Semi-Supervised Learning for Information Extraction from Dialogue.Anjuli Kannan, Kai Chen, Diana Jaunzeikare, and Alvin Rajkomar. Interspeech 2018.

CaLcs: Continuously Approximating Longest Common Subsequence for Sequence Level Optimization.Semih Yavuz, Chung-Cheng Chiu, Patrick Nguyen, and Yonghui Wu. EMNLP 2018.

Speech synthesis

Hierarchical Generative Modeling for Controllable Speech Synthesis.Wei-Ning Hsu, Yu Zhang, Ron J. Weiss, Heiga Zen, Yonghui Wu, Yuxuan Wang, Yuan Cao, Ye Jia, Zhifeng Chen, Jonathan Shen, Patrick Nguyen, Ruoming Pang. Submitted to ICLR 2019.

Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis.Ye Jia, Yu Zhang, Ron J. Weiss, Quan Wang, Jonathan Shen, Fei Ren, Zhifeng Chen, Patrick Nguyen, Ruoming Pang, Ignacio Lopez Moreno, Yonghui Wu. NIPS 2018.

Natural TTS Synthesis By Conditioning WaveNet On Mel Spectrogram Predictions.Jonathan Shen, Ruoming Pang, Ron J. Weiss, Mike Schuster, Navdeep Jaitly, Zongheng Yang, Zhifeng Chen, Yu Zhang, Yuxuan Wang, RJ Skerry-Ryan, Rif A. Saurous, Yannis Agiomyrgiannakis, Yonghui Wu. ICASSP 2018.

On Using Backpropagation for Speech Texture Generation and Voice Conversion.Jan Chorowski, Ron J. Weiss, Rif A. Saurous, Samy Bengio. ICASSP 2018.

Speech-to-text translation

Leveraging weakly supervised data to improve end-to-end speech-to-text translation.Ye Jia, Melvin Johnson, Wolfgang Macherey, Ron J. Weiss, Yuan Cao, Chung-Cheng Chiu, Naveen Ari, Stella Laurenzo, Yonghui Wu. Submitted to ICASSP 2019.

Sequence-to-Sequence Models Can Directly Translate Foreign Speech.Ron J. Weiss, Jan Chorowski, Navdeep Jaitly, Yonghui Wu, and Zhifeng Chen. Interspeech 2017.

https://github.com/tensorflow/lingvo/blob/master/PUBLICATIONS.md

開源地址:

https://github.com/tensorflow/lingvo

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6254

    瀏覽量

    111450
  • 深度學習
    +關注

    關注

    73

    文章

    5599

    瀏覽量

    124411
  • nlp
    nlp
    +關注

    關注

    1

    文章

    491

    瀏覽量

    23282

原文標題:谷歌重磅開源NLP通用框架,20多篇最新論文都用了它

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    軟通動力基于OpenClaw開源框架深度自研端側智能體平臺

    隨著人工智能加速從云端下沉至終端、從被動交互邁向主動執行,端側智能體正成為定義智能硬件體驗的核心引擎。軟通動力基于OpenClaw開源框架深度自研端側智能體平臺,以輕量化推理、本地自主決策、端云協同
    的頭像 發表于 02-27 11:48 ?581次閱讀

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的分支,它會教計算機如何理解口頭和書面形式的人類語言。自然語言處理將計算語言學與機器學習深度
    的頭像 發表于 01-29 14:01 ?401次閱讀
    自然語言處理<b class='flag-5'>NLP</b>的概念和工作原理

    谷歌評論卡,碰碰即可完成谷歌評論 #谷歌評論卡 #NFC標簽 #nfc卡

    谷歌
    深圳市融智興科技有限公司
    發布于 :2026年01月15日 17:02:00

    機器學習深度學習中需避免的 7 常見錯誤與局限性

    無論你是剛入門還是已經從事人工智能模型相關工作段時間,機器學習深度學習中都存在些我們需要時刻關注并銘記的常見錯誤。如果對這些錯誤置之不
    的頭像 發表于 01-07 15:37 ?204次閱讀
    機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>中需避免的 7 <b class='flag-5'>個</b>常見錯誤與局限性

    泰凌微:布局端側AI,產品支持谷歌LiteRT、TVM開源模型

    ?電子發燒友網報道(文/李彎彎)泰凌微近日表示,公司與谷歌在智能家居、音頻等多個領域開展具體項目合作。其與谷歌已從單的遙控器芯片供應,發展為涵蓋音頻、智能家居、端側AI等多領域的深度
    的頭像 發表于 12-15 08:21 ?1w次閱讀

    人工智能AI必備的5款開源軟件推薦!

    開發領域里幾乎“人手必備”的軟件——它們不僅讓學習更輕松,也讓產品更快落地。 、TensorFlow:深度學習界的“老將” 提起智能算法的訓練框架
    的頭像 發表于 11-19 15:35 ?676次閱讀
    人工智能AI必備的5款<b class='flag-5'>開源</b>軟件推薦!

    NVIDIA助力新代機器人開發開源框架

    今年的 ROSCon 在新加坡舉辦,并于 10 月 29 日順利閉幕。大會吸引全球機器人操作系統(ROS)領域開發者的關注。ROS 是目前全球應用最廣泛的機器人開發開源框架。
    的頭像 發表于 11-06 11:55 ?1011次閱讀

    開放原子開源基金會發布150余開源項目應用案例

    。案例覆蓋電力、通信、醫療、教育、金融、交通等10余關系國計民生的關鍵行業,彰顯開源技術在促進產業升級、行業創新方面的強大動力,標志著開源
    的頭像 發表于 07-28 17:10 ?1184次閱讀

    寧暢與與百度文心大模型展開深度技術合作

    近日,百度正式開源文心大模型4.5系列模型。作為文心開源合作伙伴,寧暢在模型開源首日即實現即刻部署,做到“開源即接入、發布即可用”。據悉,文心4.5
    的頭像 發表于 07-07 16:26 ?880次閱讀

    開源電機驅動,免費直播學習!

    開源電機驅動,免費直播學習!
    的頭像 發表于 06-13 10:07 ?1744次閱讀
    <b class='flag-5'>開源</b>電機驅動,免費直播<b class='flag-5'>學習</b>!

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命 Google 發布 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設計。這款功能強大的 AI
    的頭像 發表于 04-12 11:10 ?3770次閱讀
    <b class='flag-5'>谷歌</b>第七代TPU Ironwood<b class='flag-5'>深度</b>解讀:AI推理時代的硬件革命

    百度飛槳框架3.0正式版發布

    、推理等任務都離不開深度學習框架的優化與支撐。 飛槳框架3.0,從設計理念上實現從底層硬件適配到頂層開發體驗的全面進化,在訓練效率、性能、
    的頭像 發表于 04-02 19:03 ?1202次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發布

    嵌入式AI技術之深度學習:數據樣本預處理過程中使用合適的特征變換對深度學習的意義

    ? 作者:蘇勇Andrew 使用神經網絡實現機器學習,網絡的每個層都將對輸入的數據做次抽象,多層神經網絡構成深度學習框架,可以
    的頭像 發表于 04-02 18:21 ?1524次閱讀

    深度解讀英偉達Newton機器人平臺:技術革新與跨界生態構建

    的基礎上,它使機器人能夠學習如何以更高的精度處理復雜的任務,與MuJoCo Playground或 NVIDIA Isaac Lab 等學習框架兼容,這是
    的頭像 發表于 03-20 15:15 ?2867次閱讀
    <b class='flag-5'>深度</b>解讀英偉達Newton機器人平臺:技術革新與跨界生態構建

    開源項目!教你如何制作開源教育機械臂

    前言 我們的計劃始于2016年,當時有簡單的問題:我們如何讓機器人和編程對每個人都可用? 是學習電子和編程的最佳工具之,但使用帶有有線組件的試驗板對初學者來說可能具有挑戰性。為了
    發表于 03-10 11:22