国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA TensorRT-LLM Roadmap現已在GitHub上公開發布

NVIDIA英偉達企業解決方案 ? 來源:NVIDIA英偉達企業解決方案 ? 2024-11-28 10:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現已在 GitHub 上公開發布!

TensorRT-LLM

持續助力用戶優化推理性能

TensorRT-LLM 可在 NVIDIA GPU 上加速和優化最新的大語言模型(Large Language Models)的推理性能。該開源程序庫在 /NVIDIA/TensorRT-LLM GitHub 資源庫中免費提供。

近期,我們收到了許多用戶的積極反饋,并表示,TensorRT-LLM 不僅顯著提升了性能表現,還成功地將其應用集成到各自的業務中。TensorRT-LLM 強大的性能和與時俱進的新特性,為客戶帶來了更多可能性。

Roadmap 現已公開發布

過往,許多用戶在將 TensorRT-LLM 集成到自身軟件棧的過程中,總是希望能更好地了解 TensorRT-LLM 的 Roadmap。即日起,NVIDIA 正式對外公開 TensorRT-LLM 的 Roadmap ,旨在幫助用戶更好地規劃產品開發方向。

我們非常高興地能與用戶分享,TensorRT-LLM 的 Roadmap 現已在 GitHub 上公開發布。您可以通過以下鏈接隨時查閱:

https://github.com/NVIDIA/TensorRT-LLM

d88235d6-acaa-11ef-93f3-92fbcf53809c.png

圖 1. NVIDIA/TensorRT-LLM GitHub 網頁截屏

這份 Roadmap 將為您提供關于未來支持的功能、模型等重要信息,助力您提前部署和開發。

同時,在 Roadmap 頁面的底部,您可通過反饋鏈接提交問題。無論是問題報告還是新功能建議,我們都期待收到您的寶貴意見。

d8915bb0-acaa-11ef-93f3-92fbcf53809c.png

圖 2.Roadmap 整體框架介紹

利用 TensorRT-LLM

優化大語言模型推理

TensorRT-LLM 是一個用于優化大語言模型(LLM)推理的庫。它提供最先進的優化功能,包括自定義 Attention Kernel、Inflight Batching、Paged KV Caching、量化技術(FP8、INT4 AWQ、INT8 SmoothQuant 等)以及更多功能,以讓你手中的 NVIDIA GPU 能跑出極致推理性能。

TensorRT-LLM 已適配大量的流行模型。通過類似 PyTorch 的 Python API,可以輕松修改和擴展這些模型以滿足自定義需求。以下是已支持的模型列表。

d89b7758-acaa-11ef-93f3-92fbcf53809c.png

我們鼓勵所有用戶定期查閱 TensorRT-LLM Roadmap。這不僅有助于您及時了解 TensorRT-LLM 的最新動態,還能讓您的產品開發與 NVIDIA 的技術創新保持同步。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5592

    瀏覽量

    109711
  • GitHub
    +關注

    關注

    3

    文章

    488

    瀏覽量

    18660
  • LLM
    LLM
    +關注

    關注

    1

    文章

    346

    瀏覽量

    1329

原文標題:NVIDIA TensorRT-LLM Roadmap 現已在 GitHub 上公開發布!

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVIDIA TensorRT Edge-LLM在汽車與機器人行業的落地應用

    大語言模型(LLM)與多模態推理系統正迅速突破數據中心的局限。越來越多的汽車與機器人領域的開發者希望將對話式 AI 智能體、多模態感知系統和高級規劃功能直接部署在端側,因為在這些場景中,低延遲、高可靠性以及離線運行能力至關重要。
    的頭像 發表于 01-14 09:10 ?2958次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b> Edge-<b class='flag-5'>LLM</b>在汽車與機器人行業的落地應用

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規模 LLM 推理打造的推理框架,核心目標是突破 NVIDIA 平臺上的推理性能瓶頸。為實
    的頭像 發表于 10-21 11:04 ?1165次閱讀

    TensorRT-LLM的大規模專家并行架構設計

    之前文章已介紹引入大規模 EP 的初衷,本篇將繼續深入介紹 TensorRT-LLM 的大規模專家并行架構設計與創新實現。
    的頭像 發表于 09-23 14:42 ?1100次閱讀
    <b class='flag-5'>TensorRT-LLM</b>的大規模專家并行架構設計

    大規模專家并行模型在TensorRT-LLM的設計

    DeepSeek-V3 / R1 等模型采用大規模細粒度混合專家模型 (MoE) 架構,大幅提升了開源模型的質量。Llama 4 和 Qwen3 等新發布的開源模型的設計原則也采用了類似的大規模細粒度 MoE 架構。但大規模 MoE 模型為推理系統帶來了新的挑戰,如高顯存需求和專家間負載失衡等。
    的頭像 發表于 09-06 15:21 ?1222次閱讀
    大規模專家并行模型在<b class='flag-5'>TensorRT-LLM</b>的設計

    DeepSeek R1 MTP在TensorRT-LLM中的實現與優化

    TensorRT-LLMNVIDIA Blackwell GPU 創下了 DeepSeek-R1 推理性能的世界紀錄,Multi-Token Prediction (MTP) 實現了大幅提速
    的頭像 發表于 08-30 15:47 ?4445次閱讀
    DeepSeek R1 MTP在<b class='flag-5'>TensorRT-LLM</b>中的實現與優化

    TensorRT-LLM中的分離式服務

    在之前的技術博客中,我們介紹了低延遲[1] 和高吞吐[2] 場景的優化方法。對于生產部署,用戶還關心在滿足特定延遲約束的情況下,每個 GPU 的吞吐表現。本文將圍繞“吞吐量-延遲”性能場景,介紹 TensorRT-LLM 分離式服務的設計理念、使用方法,以及性能研究結果。
    的頭像 發表于 08-27 12:29 ?1745次閱讀
    <b class='flag-5'>TensorRT-LLM</b>中的分離式服務

    超過175款游戲和應用現已支持NVIDIA DLSS 4

    超過 175 款游戲和應用現已支持 DLSS 4,包括《生化危機:安魂曲》(Resident Evil Requiem)、《影之刃零》(Phantom Blade Zero)等支持光線追蹤的大作,升級的 NVIDIA RTX Remix、Project G-Assist
    的頭像 發表于 08-20 14:26 ?1372次閱讀

    Votee AI借助NVIDIA技術加速方言小語種LLM開發

    Votee AI 利用 NVIDIA 的 GPU 硬件、NeMo Curator 數據處理軟件、NeMo Framework 模型訓練框架及 Auto Configurator 優化工具,高效構建
    的頭像 發表于 08-20 14:21 ?856次閱讀

    NVIDIA RTX AI加速FLUX.1 Kontext現已開放下載

    NVIDIA RTX 與 NVIDIA TensorRT 現已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma 3n 現可借助 RTX 和
    的頭像 發表于 07-16 09:16 ?2044次閱讀

    如何在魔搭社區使用TensorRT-LLM加速優化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優化的開源庫,可幫助開發者快速利用最新 LLM 完成應用原型驗證與產
    的頭像 發表于 07-04 14:38 ?2182次閱讀

    NVIDIA Isaac Sim和Isaac Lab現已推出早期開發者預覽版

    NVIDIA 發布了機器人仿真參考應用 Isaac Sim 和機器人學習框架 Isaac Lab 的開發者預覽版。開發者現在可以通過 GitHub
    的頭像 發表于 07-04 14:23 ?1801次閱讀

    NVIDIA Blackwell GPU優化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場景中的性能紀錄

    本文將探討 NVIDIA TensorRT-LLM 如何基于 8 個 NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延遲場景中的性能紀錄:在 GTC 2025
    的頭像 發表于 07-02 19:31 ?3290次閱讀
    <b class='flag-5'>NVIDIA</b> Blackwell GPU優化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場景中的性能紀錄

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發表于 06-12 15:37 ?1869次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT-LLM</b>部署TTS應用的最佳實踐

    使用NVIDIA RTX PRO Blackwell系列GPU加速AI開發

    NVIDIA GTC 推出新一代專業級 GPU 和 AI 賦能的開發者工具—同時,ChatRTX 更新現已支持 NVIDIA NIM,RTX Remix 正式結束測試階段,本月的
    的頭像 發表于 03-28 09:59 ?1300次閱讀

    無法在OVMS運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發表于 03-05 08:07