国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Triton推理服務器簡化人工智能推理

星星科技指導員 ? 來源:NVIDIA ? 作者:Uttara Kumar ? 2022-04-08 16:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能的快速發展正在推高數據集的規模,以及網絡的規模和復雜性。支持人工智能的應用程序,如電子商務產品推薦、基于語音的助手和呼叫中心自動化,需要數十到數百個經過培訓的人工智能模型。推理服務幫助基礎設施管理人員部署、管理和擴展這些模型,并在生產中保證實時服務質量( QoS )。此外,基礎架構經理希望提供和管理用于部署這些 AI 模型的正確計算基礎架構,最大限度地利用計算資源,靈活地放大或縮小規模,以優化部署的運營成本。將人工智能投入生產既是一項推理服務,也是一項基礎設施管理挑戰。

NVIDIA 與谷歌云合作,將 CPUGPU 通用推理服務平臺 NVIDIA Triton Inference Server的功能與谷歌 Kubernetes 引擎( GKE )相結合,使企業更容易將人工智能投入生產。NVIDIA Triton Inference Server 是一個托管環境,用于在安全的谷歌基礎設施中部署、擴展和管理容器化人工智能應用程序。

使用 NVIDIA Triton 推理服務器在谷歌云上的 CPU 和 GPU 上提供推理服務

在企業應用程序中操作 AI 模型帶來了許多挑戰——為在多個框架中培訓的模型提供服務,處理不同類型的推理查詢類型,并構建一個能夠跨 CPU 和 GPU 等多個部署平臺進行優化的服務解決方案。

Triton 推理服務器通過提供一個單一的標準化推理平臺來解決這些挑戰,該平臺可以從任何基于 TensorFlow 、TensorRT、 PyTorch 、 ONNX 運行時、 OpenVINO 或自定義 C ++/ Python 框架的本地存儲或谷歌云的托管存儲在任何基于 GPU 或 CPU 的基礎設施上部署經過培訓的 AI 模型。

圖 1 Triton 部署在 Google Kubernetes 引擎( GKE )上的推理服務器

在 GKE 集群上一鍵部署 NVIDIA Triton 推理服務器

Google Kubernetes Engine ( GKE )上的 Triton 為部署在 CPU 和 GPU 上的 AI 模型提供了通用推理服務平臺,并結合了 Kubernetes 群集管理、負載平衡和基于需求的自動縮放計算的方便性。

使用谷歌市場上新的一鍵式 Triton GKE 推理服務器應用程序,可以將 Triton 無縫部署為 Google Kubernetes Engine ( GKE )管理的集群上的容器化微服務。

GKE 的 Triton 推理服務器應用程序是一個 helm chart 部署程序,可自動安裝和配置 Triton ,以便在具有 NVIDIA GPU 節點池的 GKE 集群上使用,包括 NVIDIA A100 Tensor Core GPU s 和 NVIDIA T4 Tensor Core GPU s ,并利用谷歌云上的 Istio 進行流量進入和負載平衡。它還包括一個水平 pod autoscaler ( HPA ),它依賴堆棧驅動程序自定義度量適配器來監控 GPU 占空比,并根據推理查詢和 SLA 要求自動縮放 GKE 集群中的 GPU 節點。

關于作者

Uttara Kumar 是 NVIDIA 的高級產品營銷經理,專注于 GPU - 云計算中的人工智能加速應用。她非常關心讓每個人都能獲得技術的民主化,讓開發者能夠利用 NVIDIA 數據中心平臺的力量來加快創新步伐。在 NVIDIA 之前,她領導半導體和科學計算軟件公司的軟件產品營銷。她擁有安娜堡密歇根大學的 Eel CTR 工程碩士學位。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    11277

    瀏覽量

    224952
  • 服務器
    +關注

    關注

    14

    文章

    10251

    瀏覽量

    91480
  • 人工智能
    +關注

    關注

    1817

    文章

    50094

    瀏覽量

    265287
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    思必馳場景化推理AI重塑智能交互

    在AI技術從“感知”走向“認知”的今天,推理能力正成為推動人工智能向更高階躍遷的核心引擎。
    的頭像 發表于 12-12 11:31 ?740次閱讀

    使用NVIDIA Grove簡化Kubernetes上的復雜AI推理

    過去幾年,AI 推理的部署已經從單一模型、單一 Pod 演變為復雜的多組件系統。如今,一個模型部署可能包含多個不同的組件——預填充 (prefill)、解碼 (decode)、視覺編碼
    的頭像 發表于 11-14 10:25 ?5268次閱讀
    使用<b class='flag-5'>NVIDIA</b> Grove<b class='flag-5'>簡化</b>Kubernetes上的復雜AI<b class='flag-5'>推理</b>

    如何在NVIDIA Jetson AGX Thor上通過Docker高效部署vLLM推理服務

    繼系統安裝與環境配置后,本期我們將繼續帶大家深入 NVIDIA Jetson AGX Thor 的開發教程之旅,了解如何在 Jetson AGX Thor 上,通過 Docker 高效部署 vLLM 推理服務
    的頭像 發表于 11-13 14:08 ?4112次閱讀
    如何在<b class='flag-5'>NVIDIA</b> Jetson AGX Thor上通過Docker高效部署vLLM<b class='flag-5'>推理</b><b class='flag-5'>服務</b>

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規模 LLM 推理打造的推理框架,核心目標是突破 NVIDIA 平臺上的推理性能瓶頸。為實
    的頭像 發表于 10-21 11:04 ?1165次閱讀

    Lambda采用Supermicro NVIDIA Blackwell GPU服務器集群構建人工智能工廠

    大批量 Supermicro GPU 優化服務器(包括基于 NVIDIA Blackwell 的系統),以擴展其人工智能基礎設施并向客戶交付高性能計算系統。此次合作于今年 6 月率先在俄亥俄州哥倫布市的 Cologix COL4
    的頭像 發表于 08-30 16:55 ?778次閱讀

    NVIDIA Nemotron Nano 2推理模型發布

    NVIDIA 正式推出準確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發表于 08-27 12:45 ?1777次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理</b>模型發布

    利用NVIDIA推理模型構建AI智能

    開放式推理模型能夠更快、更廣泛地進行思考,為客戶服務、網絡安全、制造、物流和機器人等領域的 AI 智能體生成更明智的結果。
    的頭像 發表于 08-13 14:32 ?1585次閱讀
    利用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>模型構建AI<b class='flag-5'>智能</b>體

    信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎技術研究有限公司開發的新一代AI大模型。其核心優勢在于強大的推理引擎能力,融合了自然語言處理(NLP)、深度
    發表于 07-16 15:29

    大模型推理顯存和計算量估計方法研究

    隨著人工智能技術的飛速發展,深度學習大模型在各個領域得到了廣泛應用。然而,大模型的推理過程對顯存和計算資源的需求較高,給實際應用帶來了挑戰。為了解決這一問題,本文將探討大模型推理顯存和計算量的估計
    發表于 07-03 19:43

    ai服務器是什么?與普通服務器有什么區別

    AI服務器并非簡單的硬件堆砌,而是專門為人工智能任務設計的高性能計算系統。其核心目標是高效處理海量數據并行計算(如矩陣乘法、模型推理),并針對AI工作負載(如深度學習訓練、大模型推理
    的頭像 發表于 06-24 16:39 ?4194次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發表于 06-12 15:37 ?1871次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應用的最佳實踐

    AI 推理服務器都有什么?2025年服務器品牌排行TOP10與選購技巧

    根據行業數據,AI推理服務器的性能差異可以達到10倍以上。比如,用普通服務器跑一個700億參數的大模型,可能需要30秒才能出結果,而用頂級服務器可能只需要3秒。這就是為什么選對
    的頭像 發表于 04-09 11:06 ?8571次閱讀
    AI <b class='flag-5'>推理</b><b class='flag-5'>服務器</b>都有什么?2025年<b class='flag-5'>服務器</b>品牌排行TOP10與選購技巧

    推理服務器的7大可靠性指標,寬溫/抗震/EMC防護實測數據分享

    在 AIoT 設備突破百億級的今天,邊緣計算推理服務器已成為智能時代的 "神經末梢"。根據 Gartner 預測,到 2025 年將有 75% 的企業關鍵任務部署在邊緣端。然而,工業級應用場景(如
    的頭像 發表于 04-02 10:43 ?1143次閱讀
    <b class='flag-5'>推理</b><b class='flag-5'>服務器</b>的7大可靠性指標,寬溫/抗震/EMC防護實測數據分享

    國產推理服務器如何選擇?深度解析選型指南與華頡科技實戰案例

    人工智能技術的爆發催生了對推理算力的迫切需求,而進口服務器的高成本與技術依賴性,推動了國產推理服務器的快速發展。據IDC預測,到2025年,
    的頭像 發表于 03-24 17:11 ?1227次閱讀
    國產<b class='flag-5'>推理</b><b class='flag-5'>服務器</b>如何選擇?深度解析選型指南與華頡科技實戰案例

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    Triton 推理服務器的后續產品,NVIDIA Dynamo 是一款全新的 AI 推理服務
    的頭像 發表于 03-20 15:03 ?1231次閱讀