国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

只需一個API,包含了27個預訓練模型

DPVg_AI_era ? 來源:lq ? 2019-07-27 07:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

只需一個API,直接調用BERT, GPT, GPT-2, Transfo-XL, XLNet, XLM等6大框架,包含了27個預訓練模型。簡單易用,功能強大。

One API to rule them all。

前幾日,著名最先進的自然語言處理預訓練模型庫項目pytorch-pretrained-bert改名Pytorch-Transformers重裝襲來,1.0.0版橫空出世。

只需一個API,直接調用BERT, GPT, GPT-2, Transfo-XL, XLNet, XLM等6大框架,包含了27個預訓練模型。

簡單易用,功能強大。目前已經包含了PyTorch實現、預訓練模型權重、運行腳本和以下模型的轉換工具:

BERT,論文:“BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”,論文作者:Jacob Devlin, Ming-Wei Chang, Kenton Lee,Kristina Toutanova

OpenAI 的GPT,論文:“Improving Language Understanding by Generative Pre-Training”,論文作者:Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever

OpenAI的GPT-2,論文:“Language Models are Unsupervised Multitask Learners”,論文作者:Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei,Ilya Sutskever

谷歌和CMU的Transformer-XL,論文:“Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context”,論文作者:Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov.

谷歌和CMU的XLNet,論文:“XLNet: Generalized Autoregressive Pretraining for Language Understanding”,論文作者:Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le

Facebook的XLM,論文:“Cross-lingual Language Model Pretraining”,論文作者:Guillaume Lample,Alexis Conneau

這些實現都在幾個數據集(參見示例腳本)上進行了測試,性能與原始實現相當,例如BERT中文全詞覆蓋在SQuAD數據集上的F1分數為93;OpenAI GPT 在RocStories上的F1分數為88;Transformer-XL在WikiText 103上的困惑度為18.3;XLNet在STS-B的皮爾遜相關系數為0.916。

項目中提供27個預訓練模型,下面是這些模型的完整列表,以及每個模型的簡短介紹。

BERT-base和BERT-large分別是110M和340M參數模型,并且很難在單個GPU上使用推薦的批量大小對其進行微調,來獲得良好的性能(在大多數情況下批量大小為32)。

為了幫助微調這些模型,作者提供了幾種可以在微調腳本中激活的技術 run_bert_classifier.py和run_bert_squad.py:梯度累積(gradient-accumulation),多GPU訓練(multi-gpu training),分布式訓練(distributed training )和16- bits 訓練( 16-bits training)。

注意,這里要使用分布式訓練和16- bits 訓練,你需要安裝NVIDIA的apex擴展。

作者在doc中展示了幾個基于BERT原始實現和擴展的微調示例,分別為:

九個不同GLUE任務的序列級分類器;

問答集數據集SQUAD上的令牌級分類器;

SWAG分類語料庫中的序列級多選分類器;

另一個目標語料庫上的BERT語言模型。

這里僅展示GLUE的結果:

該項目是在Python 2.7和3.5+上測試(例子只在python 3.5+上測試)和PyTorch 0.4.1到1.1.0測試。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 自然語言處理

    關注

    1

    文章

    630

    瀏覽量

    14674
  • pytorch
    +關注

    關注

    2

    文章

    813

    瀏覽量

    14856

原文標題:GitHub超9千星:一個API調用27個NLP預訓練模型

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    訓練到推理:大模型算力需求的新拐點已至

    在大模型產業發展的早期階段,行業焦點主要集中在大模型訓練所需的算力投入。萬億參數大模型
    的頭像 發表于 02-05 16:07 ?840次閱讀
    從<b class='flag-5'>訓練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點已至

    如何獲取易貝EBAY商品詳情 API 返回值說明?

    API獲取商品詳情時,通常會返回JSON或XML格式的響應,這個響應包含了商品的詳細信息。以下是
    的頭像 發表于 11-19 11:57 ?384次閱讀

    API到底是什么?為什么我需要它?

    API (Application Programming Interface):應用程序編程接口。 類比理解:API它不是具體的東西,而是
    的頭像 發表于 11-03 09:34 ?682次閱讀

    如何評價OpenRouter這樣的大模型API聚合平臺?

    我個人認為OpenRouter的商業模式特別優雅,大模型時代的輕資產 “賣水人”。 open router自己不訓練模型,也不買顯卡推理,他做的就是調用別家的API,聚合了各家的
    的頭像 發表于 10-28 10:04 ?488次閱讀

    在Ubuntu20.04系統中訓練神經網絡模型些經驗

    本帖欲分享在Ubuntu20.04系統中訓練神經網絡模型些經驗。我們采用jupyter notebook作為開發IDE,以TensorFlow2為訓練框架,目標是
    發表于 10-22 07:03

    NVMe高速傳輸之擺脫XDMA設計27: 橋設備模型設計

    構造 PCIe Switch 模型。 最小橋設備模型結構如圖 1所示。圖1 最小橋設備模型結構圖 最小橋設備模型包含
    發表于 09-18 09:11

    基于大規模人類操作數據訓練的VLA模型H-RDT

    近年來,機器人操作領域的VLA模型普遍基于跨本體機器人數據集訓練,這類方法存在兩大局限:不同機器人本體和動作空間的差異導致統訓練困難;現
    的頭像 發表于 08-21 09:56 ?1106次閱讀
    基于大規模人類操作數據<b class='flag-5'>預</b><b class='flag-5'>訓練</b>的VLA<b class='flag-5'>模型</b>H-RDT

    運行kmodel模型驗證直報錯怎么解決?

    我這運行kmodel模型驗證直報錯,所以沒法做kmodel模型好壞驗證,不知道怎么解決這個問題,重新訓練
    發表于 06-10 08:02

    FA模型訪問Stage模型DataShareExtensionAbility說明

    DataShareExtensionAbility提供數據庫的讀寫服務。 服務端由FA模型升級到Stage模型后,會導致FA模型的客戶端在API 9(含)之后的版本上無法訪問服務端。
    發表于 06-04 07:53

    如何將FA模型開發的聲明式范式應用切換到Stage模型

    模型切換概述 本文介紹如何將FA模型開發的聲明式范式應用切換到Stage模型,您需要完成如下動作: 工程切換:新建
    發表于 06-04 06:22

    海思SD3403邊緣計算AI數據訓練概述

    模型,將模型轉化為嵌入式AI模型模型升級AI攝像機,進行AI識別應用。 AI訓練模型是不斷迭
    發表于 04-28 11:11

    模型時代的深度學習框架

    量是約為 25.63M,在ImageNet1K數據集上,使用單張消費類顯卡 RTX-4090只需大約35~40小時 ,即可完成ResNet50模型
    的頭像 發表于 04-25 11:43 ?852次閱讀
    大<b class='flag-5'>模型</b>時代的深度學習框架

    用PaddleNLP為GPT-2模型制作FineWeb二進制訓練數據集

    作者:算力魔方創始人/英特爾創新大使劉力 《用PaddleNLP在4060單卡上實踐大模型訓練技術》發布后收到讀者熱烈反響,很多讀者要求進步講解更多的技術細節。本文主要針對大語言
    的頭像 發表于 03-21 18:24 ?4332次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進制<b class='flag-5'>預</b><b class='flag-5'>訓練</b>數據集

    憶聯PCIe 5.0 SSD支撐大模型全流程訓練

    到高頻參數迭代,從模型微調到實時推理,大模型運行的每一個環節都需存儲設備在“硬指標”與“軟實力”間達成平衡。從產品可靠性視角出發,憶聯新代PCIe Gen5 ESSD UH812a/
    的頭像 發表于 03-11 10:26 ?1161次閱讀
    憶聯PCIe 5.0 SSD支撐大<b class='flag-5'>模型</b>全流程<b class='flag-5'>訓練</b>

    訓練好的ai模型導入cubemx不成功怎么處理?

    訓練好的ai模型導入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發表于 03-11 07:18