国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA對 NeMo Megatron 框架進行更新 將訓練速度提高 30%

NVIDIA英偉達企業解決方案 ? 來源:NVIDIA英偉達企業解決方案 ? 作者:NVIDIA英偉達企業解 ? 2022-07-30 08:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著大型語言模型(LLM)的規模和復雜性日益增加,NVIDIA 于今日宣布對 NeMo Megatron 框架進行更新,將訓練速度提高 30%。

此次更新包括兩項開創性的技術和一個超參數工具,用于優化和擴展任意數量 GPU 上的 LLM 訓練,這為使用 NVIDIA AI 平臺訓練和部署模型提供了新功能。

BLOOM 是全球最大的開放科學、開放存取多語言模型,具有 1760 億參數。該模型最近在NVIDIA AI 平臺上進行了訓練,支持 46 種語言和 13 種編程語言的文本生成。NVIDIA AI 平臺還提供了最強大的轉換器語言模型,具有 5300 億參數,Megatron-Turing NLG 模型 (MT-NLG) 。

LLMs 的最新進展

LLM 是當今最重要的先進技術之一,涉及從文本中學習的多達數萬億參數。但 LLM 的開發過程昂貴而耗時,需要深厚的技術知識、分布式基礎設施和全棧式方法。

LLM 也大大有助于推動實時內容生成、文本摘要、客服聊天機器人以及對話式AI問答界面的發展。

為了推動 LLM 的發展,人工智能(AI)社區正在繼續對 Microsoft DeepSpeed, Colossal-AI 和Hugging Face BigScience 和 Fairscale 等工具進行創新,這些工具均由 NVIDIA AI 平臺提供支持,包括 Megatron-LM、Apex 和其他 GPU 加速庫。

這些對 NVIDIA AI 平臺的全新優化有助于解決整個堆棧中現有的許多痛點。NVIDIA 期待著與 AI 社區合作,讓每個人都能享受到 LLM 的力量。

更快速構建 LLMs

NeMo Megatron 的最新更新令 GPT-3 模型的訓練速度提高了 30%,這些模型的規模從 220 億到 1 萬億個參數不等。現在使用 1024 個 NVIDIA A100 GPU 只需 24 天就可以訓練一個擁有 1750 億個參數的模型。相比推出新版本之前,獲得結果的時間縮短了 10 天或約 25 萬個小時的 GPU 計算。

NeMo Megatron 是快速、高效、易于使用的端到端容器化框架,它可以用于收集數據、訓練大規模模型、根據行業標準基準評估模型,并且以最高水準的延遲和吞吐性能進行推理。

它讓 LLM 訓練和推理在各種 GPU 集群配置上變得簡單、可復制。目前,早期訪問用戶客戶可在NVIDIA DGX SuperPOD、NVIDIA DGX Foundry 以及 Microsoft Azure 上運行這些功能。對其他云平臺的支持也即將推出。

另外,用戶還可以在 NVIDIA LaunchPad上進行功能試用。LaunchPad 是一項免費計劃,可提供短期內訪問 NVIDIA 加速基礎設施上的動手實驗室目錄的機會。

NeMo Megatron 是 NeMo 的一部分,開源框架 NeMo,用于為對話式 AI、語音 AI 和生物學構建高性能和靈活的應用程序。

兩項加速 LLM 訓練的新技術

此次更新包括兩項用于優化和擴展 LLM 訓練的新技術——序列并行(SP)和選擇性激活重計算(SAR)。

SP 通過注意到變換器層中尚未并行化的區域在序列維度是獨立的,以此擴展張量級模型的并行性。

沿序列維度分割層,可以將算力以及最重要的內激活內存分布到張量并行設備上。激活是分布式的,因此可以將更多的激活保存到反向傳播中,而無需重新計算。

9fb23846-0f4a-11ed-ba43-dac502259ad0.png

圖1. Transformer 層內的并行模式

SAR 通過注意到不同的激活在重計算時需要不同數量的運算,改善了內存限制迫使重新計算部分(但不是所有)激活的情況。

可以只對每個 Transformer 層中占用大量內存,但重新計算成本不高的部分設置檢查點和進行重新計算,而不是針對整個變換器層。

有關更多信息,請參見減少大型 Transformer 模型中的激活重計算: https://arxiv.org/abs/2205.05198

9fcff2f0-0f4a-11ed-ba43-dac502259ad0.png

圖2. 自注意力塊。紅色虛線表示使用選擇性激活重計算的區域

9fe2f8be-0f4a-11ed-ba43-dac502259ad0.png

圖3. 反向傳播中因 SP 和 SAR 的存在而獲得的激活內存量。隨著模型大小的增加,SP 和 SAR 都會產生類似的內存節省,將內存需求減少約 5 倍。

9ff280fe-0f4a-11ed-ba43-dac502259ad0.jpg

圖4. 完全激活重計算和 SP+SAR 的計算開銷。條形圖表示每層的前向、反向和重計算時間細分。基線代表沒有重計算和序列并行時的情況。這些技術有效地減少了所有激活被重計算而不是保存時產生的開銷。最大模型的開銷從 36% 下降到僅為 2%。

運用 LLM 的力量,還需要高度優化的推理策略。用戶可以十分輕松地將訓練好的模型用于推理并使用 P-tuning 和提示調整功能優化不同的用例。

這些功能是輕量化微調的有效替代方案,使 LLM 能夠適應新的用例,而不需要采取微調全部預訓練模型這種繁瑣的方法。在這項技術中,原始模型的參數并沒有被改變,因此避免了與微調模型相關的災難性的“遺忘”問題。

有關更多信息,請參見采用 P-Tuning 解決非英語下游任務: https://developer.nvidia.com/blog/adapting-p-tuning-to-solve-non-english-downstream-tasks/

用于訓練和推理的新超參數工具

在分布式基礎設施中為 LLM 尋找模型配置十分耗時。NeMo Megatron 帶來了超參數工具,它能夠自動找到最佳訓練和推理配置,而不需要修改代碼,這使 LLM 從第一天起就能在訓練中獲得推理收斂性,避免了在尋找高效模型配置上所浪費的時間。

該工具對不同的參數使用啟發法和經驗網格搜索來尋找具有最佳吞吐量的配置,包括數據并行性、張量并行性、管道并行性、序列并行性、微批大小和激活檢查點設置層的數量(包括選擇性激活重計算)。

通過使用超參數工具以及在 NGC 容器上的 NVIDIA 測試,NVIDIA 在 24 小時內就得到了 175B GPT-3 模型的最佳訓練配置(見圖5)。與使用完整激活重計算的通用配置相比,NVIDIA 將吞吐量速度提高了 20%-30%。對于參數超過 200 億的模型,NVIDIA 使用這些最新技術將吞吐量速度進一步提升 10%-20%。

a00102e6-0f4a-11ed-ba43-dac502259ad0.png

圖5. HP 工具在幾個容器上的結果顯示了通過序列并行和選擇性激活重計算實現的速度提升,其中每個節點都是 NVIDIA DGX A100。

超參數工具還可以找到在推理過程中實現最高吞吐量或最低延遲的模型配置。模型可以設置延遲和吞吐量限制,該工具也將推薦合適的配置。

a0224d3e-0f4a-11ed-ba43-dac502259ad0.png

圖6. HP 工具的推理結果顯示每個 GPU 的吞吐量和不同配置的延遲。最佳配置包括高吞吐量和低延時。

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    213

    文章

    31079

    瀏覽量

    222279
  • NVIDIA
    +關注

    關注

    14

    文章

    5594

    瀏覽量

    109754
  • AI
    AI
    +關注

    關注

    91

    文章

    39793

    瀏覽量

    301446

原文標題:NVIDIA AI 平臺大幅提高大型語言模型的性能

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    摩爾線程發布SimuMax v1.1:從仿真工具升級為全棧工作流平臺,助力大模型訓練提效

    的仿真與調優提供系統化支持。 ? 本次更新聚焦三大核心創新:用戶友好的可視化配置界面、智能并行策略搜索,以及融合計算與通信效率建模的System-Config生成流水線。新版本同時提升了對主流訓練框架
    的頭像 發表于 01-09 09:17 ?244次閱讀
    摩爾線程發布SimuMax v1.1:從仿真工具升級為全棧工作流平臺,助力大模型<b class='flag-5'>訓練</b>提效

    NVIDIA推出面向語言、機器人和生物學的全新開源AI技術

    NVIDIA 秉持對開源的長期承諾,推出了面向語言、機器人和生物學的全新開源 AI 技術,為構建開源生態系統做出貢獻,擴展 AI 的普及并推動創新。NVIDIA 正將這些模型、數據和訓練框架
    的頭像 發表于 11-06 11:49 ?1076次閱讀

    在Ubuntu20.04系統中訓練神經網絡模型的一些經驗

    , batch_size=512, epochs=20)總結 這個核心算法中的卷積神經網絡結構和訓練過程,是用來對MNIST手寫數字圖像進行分類的。模型圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層
    發表于 10-22 07:03

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應用開發者都可以構建并部署帶有先進動畫的高精度角色。NVIDIA 開源 Audio2Face 的訓練框架
    的頭像 發表于 10-21 11:11 ?827次閱讀
    <b class='flag-5'>NVIDIA</b>開源Audio2Face模型及SDK

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規模 LLM 推理打造的推理框架,核心目標是突破 NVIDIA 平臺上的推理性能瓶頸。為實現這一目標,其構建了多維度的核心實現路徑:一方面,針對需
    的頭像 發表于 10-21 11:04 ?1177次閱讀

    借助NVIDIA Megatron-Core大模型訓練框架提高顯存使用效率

    隨著模型規模邁入百億、千億甚至萬億參數級別,如何在有限顯存中“塞下”訓練任務,對研發和運維團隊都是巨大挑戰。NVIDIA Megatron-Core 作為流行的大模型訓練
    的頭像 發表于 10-21 10:55 ?1157次閱讀
    借助<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Megatron</b>-Core大模型<b class='flag-5'>訓練</b><b class='flag-5'>框架</b><b class='flag-5'>提高</b>顯存使用效率

    NVIDIA Isaac Lab多GPU多節點訓練指南

    NVIDIA Isaac Lab 是一個適用于機器人學習的開源統一框架,基于 NVIDIA Isaac Sim 開發,其模塊化高保真仿真適用于各種訓練環境,可提供各種物理 AI 功能和
    的頭像 發表于 09-23 17:15 ?2412次閱讀
    <b class='flag-5'>NVIDIA</b> Isaac Lab多GPU多節點<b class='flag-5'>訓練</b>指南

    Votee AI借助NVIDIA技術加速方言小語種LLM開發

    Votee AI 利用 NVIDIA 的 GPU 硬件、NeMo Curator 數據處理軟件、NeMo Framework 模型訓練框架
    的頭像 發表于 08-20 14:21 ?861次閱讀

    NVIDIA Isaac Lab可用環境與強化學習腳本使用指南

    Lab 是一個適用于機器人學習的開源模塊化框架,其模塊化高保真仿真適用于各種訓練環境,Isaac Lab 同時支持模仿學習(模仿人類)和強化學習(在嘗試和錯誤中進行學習),為所有機器人具身提供了靈活的
    的頭像 發表于 07-14 15:29 ?2350次閱讀
    <b class='flag-5'>NVIDIA</b> Isaac Lab可用環境與強化學習腳本使用指南

    NVIDIA推出全新智慧城市AI Blueprint

    面向智慧城市 AI 的 NVIDIA Omniverse Blueprint 集成了 NVIDIA Omniverse、Cosmos、NeMo 和 Metropolis,已被多家領先的獨立軟件供應商 (ISV) 合作伙伴采用,以
    的頭像 發表于 06-16 14:21 ?1189次閱讀

    NVIDIA Isaac Sim與NVIDIA Isaac Lab的更新

    在 COMPUTEX 2025 上,NVIDIA 宣布了機器人仿真參考應用 NVIDIA Isaac Sim 和機器人學習框架 NVIDIA Isaac Lab 的
    的頭像 發表于 05-28 10:06 ?2131次閱讀

    第三屆NVIDIA DPU黑客松開啟報名

    碰撞的絕佳機會。本次競賽采用開放式主題,參與者通過 NVIDIA DOCA 軟件框架構建創新的加速應用程序,充分挖掘 NVIDIA BlueField DPU 在 AI、網絡、存儲和
    的頭像 發表于 05-27 10:16 ?902次閱讀

    ServiceNow攜手NVIDIA構建150億參數超級助手

    Apriel Nemotron 15B 開源大語言模型 (LLM) 使用 NVIDIA NeMoNVIDIA Llama Nemotron 開放數據集以及 ServiceNow 專業領域數據創建而成,并在
    的頭像 發表于 05-12 15:37 ?928次閱讀

    企業使用NVIDIA NeMo微服務構建AI智能體平臺

    已發布的 NeMo 微服務可與合作伙伴平臺集成,作為創建 AI 智能體的構建模塊,使用商業智能與強大的邏輯推理模型 (包括 NVIDIA Llama Nemotron) 處理更多任務。
    的頭像 發表于 04-27 15:05 ?1288次閱讀

    英偉達GTC2025亮點 NVIDIA推出Cosmos世界基礎模型和物理AI數據工具的重大更新

    、Figure AI、Skild AI 是最早采用該技術的公司。 NVIDIA 宣布推出全新 NVIDIA Cosmos 世界基礎模型 (WFM) 的重大更新,該模型引入了開放式、可完全定制的物理 AI 開發
    的頭像 發表于 03-20 19:01 ?1347次閱讀