国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

DeepMind又放福利:開源了一個內部的分布式機器學習庫TF-Replicator

DPVg_AI_era ? 來源:lp ? 2019-03-10 09:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天,DeepMind又放福利:開源了一個內部的分布式機器學習TF-Replicator,可以幫助研究人員將TensorFlow模型輕松部署到GPU、TPU,并實現不同類型加速器之間的無縫切換。

最近AI領域的突破,從AlphaFold到BigGAN再到AlphaStar,一個反復出現的主題是,對方便、可靠的可擴展性的需求。

研究人員已經能夠獲取越來越多計算能力,得以訓練更大的神經網絡,然而,將模型擴展到多個設備并不是一件容易的事情。

今天,DeepMind又將其內部一個秘密武器公之于眾——TF-Replicator,一個可以幫助研究人員將他們的TensorFlow模型輕松部署到GPU、Cloud TPU的分布式機器學習框架,即使他們之前完全沒有使用分布式系統的經驗。

TF-Replicator由DeepMind的研究平臺團隊開發,初衷是為DeepMind的研究人員提供一個簡單的接入TPU的API,現在,TF-Replicator已經是DeepMind內部最廣泛使用的TPU編程接口。

TF-Replicator允許研究人員針對機器學習定位不同的硬件加速器進行,將工作負載擴展到許多設備,并在不同類型的加速器之間無縫切換。

雖然它最初是作為TensorFlow上面的一個庫開發的,但目前TF-Replicator的API已經集成到TensorFlow 2.0新的tf.distribute.Strategy中,作為 tf.distribute.Strategy的一部分開源:

https://www.tensorflow.org/alpha/guide/distribute_strategy

團隊還公開了相關論文:TF-Replicator: Distributed Machine Learning for Researchers,全面描述了這個新框架的技術細節。

https://arxiv.org/abs/1902.00465

接下來,我們將介紹TF-Replicator背后的想法和技術挑戰。

構建一個分布式機器學習庫

雖然TensorFlow為CPU、GPU和TPU設備都提供了直接支持,但是在目標之間切換需要用戶付出大量的努力。這通常涉及為特定的硬件目標專門編寫代碼,將研究想法限制在該平臺的功能上。

一些構建在TensorFlow之上的現有框架,例如Estimators,已經試圖解決這個問題。然而,它們通常針對生產用例,缺乏快速迭代研究思路所需的表達性和靈活性。

我們開發TF-Replicator的初衷是為DeepMind的研究人員提供一個使用TPU的簡單API。TPU為機器學習工作負載提供了可擴展性,實現了許多研究突破,例如使用我們的BigGAN模型實現了最先進的圖像合成。

TensorFlow針對TPU的原生API與針對GPU的方式不同,這造成了使用TPU的障礙。TF-Replicator提供了一個更簡單、更用戶友好的API,隱藏了TensorFlow的TPU API的復雜性。此外,研究平臺團隊與不同機器學習領域的研究人員密切合作,開發了TF-Replicator API,以確保必要的靈活性和易用性。

TF-Replicator API

使用TF-Replicator編寫的代碼與使用TensorFlow中為單個設備編寫的代碼類似,允許用戶自由定義自己的模型運行循環。用戶只需要定義(1)一個公開數據集的輸入函數,以及(2)一個定義其模型邏輯的step函數(例如,梯度下降的單個step):

# Deploying a model with TpuReplicator.repl = tf_replicator.TpuReplicator( num_workers=1, num_tpu_cores_per_worker=8)with repl.context(): model = resnet_model() base_optimizer = tf.train.AdamOptimizer() optimizer = repl.wrap_optimizer(base_optimizer)# ... code to define replica input_fn and step_fn.per_replica_loss = repl.run(step_fn, input_fn)train_op = tf.reduce_mean(per_replica_loss)with tf.train.MonitoredSession() as session: repl.init(session) for i in xrange(num_train_steps): session.run(train_op) repl.shutdown(session)

將計算擴展到多個設備需要設備之間進行通信。在訓練機器學習模型的背景下,最常見的通信形式是累積梯度(accumulate gradients)以用于優化算法,如隨機梯度下降。

因此,我們提供了一種方便的方法來封裝TensorFlow Optimizers,以便在更新模型參數之前在設備之間累積梯度。對于更一般的通信模式,我們提供了類似于MPI的原語,如“all_reduce”和“broadcast”。這些使得實現諸如全局批標準化之類的操作變得非常簡單,這是擴展BigGAN模型訓練的關鍵技術。

輸入數據從主機發送到各個GPU, GPU立即開始處理。當需要在GPU之間交換信息時,它們會在發送數據之前進行同步。

實現

對于多GPU計算,TF-Replicator依賴于“圖內復制”(“in-graph replication)模式,其中每個設備的計算在同一個TensorFlow graph中復制。設備之間的通信是通過連接設備對應子圖中的節點來實現的。在TF-Replicator中實現這一點很具挑戰性,因為在TensorFlow graph中的任何位置都可能發生通信。因此,構造計算的順序至關重要。

我們的第一個想法是在一個單獨的Python線程中同時構建每個設備的子圖。當遇到通信原語時,線程同步,主線程插入所需的跨設備計算。之后,每個線程將繼續構建其設備的計算。

然而,在我們考慮這種方法時,TensorFlow的圖形構建API不是線程安全的,這使得在不同線程中同時構建子圖非常困難。相反,我們使用圖形重寫(graph rewriting)在所有設備的子圖構建完成后插入通信。在構造子圖時,占位符被插入到需要通信的位置。然后,我們跨設備收集所有匹配占位符,并用適當的跨設備計算替換它們。

當TF-Replicator構建一個in-graph replicated計算時,它首先獨立地為每個設備構建計算,并將占位符留給用戶指定的跨設備計算。構建好所有設備的子圖之后,TF-Replicator通過用實際的跨設備計算替換占位符來連接它們。

為AI研究構建一個平臺

通過在TF-Replicator的設計和實現過程中與研究人員密切合作,我們最終構建一個庫,讓用戶能夠輕松地跨多個硬件加速器進行大規模計算,同時讓他們擁有進行前沿AI研究所需的控制和靈活性。

例如,在與研究人員討論之后,我們添加了MPI風格的通信原語,如all-reduce。TF-Replicator和其他共享基礎架構使我們能夠在穩健的基礎上構建越來越復雜的實驗,并在整個DeepMind快速傳播最佳實踐。

在撰寫本文時,TF-Replicator已經成為DeepMind應用最廣泛的TPU編程接口。雖然這個庫本身并不局限于訓練神經網絡,但它最常用來訓練大量數據。例如,BigGAN模型是在一個512核的TPUv3 pod訓練的,batch size為2048。

在采用分布式actor-learner設置的增強學習智能體中,例如我們的重要性加權actor-learner架構,可擴展性是通過讓許多actor通過與環境的交互生成新的體驗來實現的。然后,learner對這些數據進行處理,以改進agent的策略,表示為一個神經網絡。為了應對越來越多的actor,TF-Replicator可以很輕松地將learner分布在多個硬件加速器上。

這些以及更多例子在我們的arXiv論文中有更詳細的描述。

Blog:

https://deepmind.com/blog/tf-replicator-distributed-machine-learning/

Paper:

https://arxiv.org/abs/1902.00465

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107849
  • 機器學習
    +關注

    關注

    66

    文章

    8554

    瀏覽量

    136989
  • DeepMind
    +關注

    關注

    0

    文章

    131

    瀏覽量

    12305

原文標題:你的模型可以輕松使用TPU了!DeepMind 開源分布式機器學習庫TF-Replicator

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    TiDB分布式數據庫運維實踐

    TiDB 是 PingCAP 開發的開源分布式關系型數據,兼容 MySQL 5.7 協議,底層存儲基于 TiKV(分布式 KV 存儲)和 RocksDB。它解決的核心問題是:當單機
    的頭像 發表于 03-04 15:44 ?99次閱讀

    【節能學院】Acrel-1000DP分布式光伏監控系統在奉賢平高食品 4.4MW 分布式光伏中應用

    分布式光伏本地和遠程通信方案,并研究分布式光伏采集模型的構建、多源數據融合估計、面向分布式光伏的有功、無功功率優化控制等關鍵技術,實現對小容量工商業
    的頭像 發表于 08-23 08:04 ?3514次閱讀
    【節能學院】Acrel-1000DP<b class='flag-5'>分布式</b>光伏監控系統在奉賢平高食品 4.4MW <b class='flag-5'>分布式</b>光伏中應用

    分布式光伏發電監測系統技術方案

    分布式光伏發電監測系統技術方案 柏峰【BF-GFQX】、系統目標 :分布式光伏發電監測系統旨在通過智能化的監測手段,實現對分布式光伏電站的全方位、高精度、實時化管理。該系統能
    的頭像 發表于 08-22 10:51 ?3211次閱讀
    <b class='flag-5'>分布式</b>光伏發電監測系統技術方案

    MR30分布式IO在噴繪機器人的應用

    噴繪機器人憑借高效、精確、穩定、節能等優點,在汽車、航空航天、電子等多個行業廣泛應用。本文以 MR30分布式IO在噴繪機器人中的應用為核心,介紹噴繪
    的頭像 發表于 08-15 13:48 ?715次閱讀
    MR30<b class='flag-5'>分布式</b>IO在噴繪<b class='flag-5'>機器</b>人的應用

    鍵部署無損網絡:EasyRoCE助力分布式存儲效能革命

    分布式存儲的性能瓶頸往往在于網絡。如何構建高帶寬、超低時延、零丟包的無損網絡,是釋放分布式存儲全部潛力、賦能企業關鍵業務(如實時數據、
    的頭像 發表于 08-04 11:34 ?1631次閱讀
    <b class='flag-5'>一</b>鍵部署無損網絡:EasyRoCE助力<b class='flag-5'>分布式</b>存儲效能革命

    分布式光伏總出問題?安科瑞分布式光伏監控系統來“救場”

    、分布式光伏的痛點大揭秘 在 “雙碳” 目標的大力推動下,分布式光伏作為綠色能源領域的重要力量,正以前所未有的速度蓬勃發展,越來越多的企業和家庭選擇安裝分布式光伏系統。然而,隨著
    的頭像 發表于 07-16 16:50 ?845次閱讀
    <b class='flag-5'>分布式</b>光伏總出問題?安科瑞<b class='flag-5'>分布式</b>光伏監控系統來“救場”

    Ceph分布式存儲系統解析

    在當今數據爆炸的時代,企業對存儲系統的需求日益增長,傳統的集中式存儲已經無法滿足大規模數據處理的要求。分布式存儲系統應運而生,而Ceph作為開源分布式存儲系統的佼佼者,以其高可用性、高擴展性和統
    的頭像 發表于 07-14 11:15 ?1020次閱讀

    雙電機分布式驅動汽車高速穩定性機電耦合控制

    和控制器的工作強度。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:雙電機分布式驅動汽車高速穩定性機電耦合控制.pdf【免責聲明】本文系網絡轉載,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請第時間告知,刪除內容!
    發表于 06-18 16:37

    曙光存儲領跑中國分布式存儲市場

    近日,賽迪顧問發布《中國分布式存儲市場研究報告(2025)》,指出2024 年中國分布式存儲市場首次超過集中式存儲,規模達 198.2 億元,增速 43.7%。
    的頭像 發表于 05-19 16:50 ?1269次閱讀

    分布式光伏電力問題層出不窮?安科瑞分布式光伏運維系統來“救場”

    分布式光伏電力運維,痛點大揭秘? ? 分布式光伏作為實現綠色能源轉型的關鍵環,近年來在我國得到了迅猛發展。國家能源局數據顯示,截至 2023 年底,中國
    的頭像 發表于 05-07 17:14 ?978次閱讀
    <b class='flag-5'>分布式</b>光伏電力問題層出不窮?安科瑞<b class='flag-5'>分布式</b>光伏運維系統來“救場”

    分布式存儲數據恢復—虛擬機上hbase和hive數據數據恢復案例

    分布式存儲數據恢復環境: 16臺某品牌R730xd服務器節點,每臺服務器節點上有數臺虛擬機。 虛擬機上部署Hbase和Hive數據分布式存儲故障: 數據底層文件被誤
    的頭像 發表于 04-17 11:05 ?730次閱讀

    使用VirtualLab Fusion中分布式計算的AR波導測試圖像模擬

    總計算時間超過31小時。通過使用由8多核PC組成的網絡,提供35客戶端分布式計算,將模擬時間減少到1小時5分鐘。基本模擬任務基本任務
    發表于 04-10 08:48

    分布式光伏發運維系統實際應用案例分享

    和可持續發展的重要推動力量。國家能源局于2025年1月發布分布式光伏發電開發建設管理辦法》,對分布式光伏的分類、上網模式、備案管理、電網接入等進行了詳細規定,未來分布式光伏將進
    的頭像 發表于 04-09 14:46 ?1263次閱讀
    <b class='flag-5'>分布式</b>光伏發運維系統實際應用案例分享

    分布式光伏如何實現防逆流?

    分布式光伏如何實現防逆流
    的頭像 發表于 03-24 13:31 ?839次閱讀
    <b class='flag-5'>分布式</b>光伏如何實現防逆流?

    淺談分布式光伏系統在工業企業的設計及應用

    主要對工業廠區屋頂分布式光伏發電系統的設計及應用進行研究,為工業廠區能源供應提供種全新的解決思路和技術支持。介紹工業廠區屋頂分布式光伏系統及其優勢,分析
    的頭像 發表于 03-21 14:24 ?981次閱讀
    淺談<b class='flag-5'>分布式</b>光伏系統在工業企業的設計及應用