国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA NIM助力企業(yè)高效部署生成式AI模型

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-10-10 09:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺(tái)集成了 NVIDIA NIM,將允許用戶通過 API 調(diào)用來大規(guī)模地部署大語言模型。

在企業(yè)中部署生成式 AI 將變得空前簡(jiǎn)單。

NVIDIA NIM是一套生成式 AI 推理微服務(wù),將支持 KServe 開源軟件,可以自動(dòng)將 AI 模型以云計(jì)算應(yīng)用的規(guī)模運(yùn)行。

NVIDIA NIM 與 KServe 的組合確保了生成式 AI 可以像任何其他大型企業(yè)級(jí)應(yīng)用一樣進(jìn)行部署,還讓用戶能夠通過 Canonical、Nutanix 和 Red Hat 等數(shù)十家公司的平臺(tái)廣泛使用 NIM。

NIM 在 KServe 上的集成將使 NVIDIA 的技術(shù)擴(kuò)展到開源社區(qū)、生態(tài)系統(tǒng)合作伙伴和客戶。借助 NIM,他們可以通過 API 調(diào)用(即現(xiàn)代編程的一鍵式操作)來獲得NVIDIA AI Enterprise軟件平臺(tái)的性能、支持和安全性。

在 Kubernetes 上提供 AI

KServe 最初是基于 Kubernetes 的機(jī)器學(xué)習(xí)工具包 Kubeflow 的一部分。Kubernete 是一個(gè)開源系統(tǒng),用于部署和管理包含大型分布式應(yīng)用組件的軟件容器。

隨著 Kubeflow 在 AI 推理方面的不斷擴(kuò)展,KServe 誕生了,并最終演變成為獨(dú)立的開源項(xiàng)目。

許多公司都為 KServe 軟件做出了貢獻(xiàn)并采用了該軟件。目前,運(yùn)行 KServe 軟件的公司包括亞馬遜云科技、彭博、Canonical、思科、慧與、IBM、Red Hat、Zillow 和 NVIDIA 等。

深入解析 KServe

KServe 本質(zhì)上是 Kubernetes 的擴(kuò)展,它像一個(gè)強(qiáng)大的云應(yīng)用一樣運(yùn)行 AI 推理。它使用標(biāo)準(zhǔn)協(xié)議,以經(jīng)過優(yōu)化的性能運(yùn)行,并支持 PyTorch、Scikit-learn、TensorFlow 和 XGBoost,而用戶無需了解這些 AI 框架的細(xì)節(jié)。

在新的大語言模型(LLM)層出不窮的情況下,該軟件尤其有用。

KServe 讓用戶可以輕松地在模型之間來回切換,測(cè)試哪一個(gè)最符合他們的需求。當(dāng)模型的新版本發(fā)布時(shí),KServe 的 “金絲雀發(fā)布(canary rollouts)” 功能會(huì)自動(dòng)執(zhí)行詳細(xì)驗(yàn)證,并逐步將其部署到生產(chǎn)系統(tǒng)中。

其另一項(xiàng)功能 “GPU 自動(dòng)縮放” 可以隨著服務(wù)需求的起伏來高效地管理模型的部署方式,從而使客戶和服務(wù)提供商獲得最佳體驗(yàn)。

生成式 AI 的 API 調(diào)用

KServe 的優(yōu)勢(shì)現(xiàn)在將通過 NVIDIA NIM 的便捷性提供。

使用 NIM ,只需一個(gè)簡(jiǎn)單的 API 調(diào)用即可應(yīng)對(duì)所有的復(fù)雜性。企業(yè) IT 管理員能夠獲得確保應(yīng)用以最佳性能和效率運(yùn)行所需的指標(biāo),無論應(yīng)用是在他們的數(shù)據(jù)中心還是在遠(yuǎn)程云服務(wù)上,即使是在更改了 AI 模型的情況下。

NIM 讓 IT 專家成為生成式 AI 專家,變革了公司的運(yùn)營。這就是為什么 Foxconn 和 ServiceNow 等眾多企業(yè)都正在部署 NIM 微服務(wù)的原因。

NIM 支持?jǐn)?shù)十個(gè) Kubernetes 平臺(tái)

由于 NIM 與 KServe 的集成,用戶將能夠在數(shù)十個(gè)企業(yè)平臺(tái)上訪問 NIM,比如 Canonical 的 Charmed KubeFlow 和 Charmed Kubernetes、Nutanix GPT-in-a-Box 2.0、Red Hat 的 OpenShift AI 等等。

KServe 貢獻(xiàn)者、Red Hat 首席軟件工程師 Yuan Tang 表示:“Red Hat 一直在與 NVIDIA 合作,以便讓企業(yè)更輕松地使用開源技術(shù)來部署 AI。通過增強(qiáng) KServe 并在 Red Hat OpenShift AI 中增加對(duì) NIM 的支持,我們能夠讓 Red Hat 的客戶更方便地訪問 NVIDIA 的生成式 AI 平臺(tái)。”

“通過將 NVIDIA NIM 推理微服務(wù)與 Nutanix GPT-in-a-Box 2.0 集成,客戶將能夠從云端到邊緣以一致的方式去構(gòu)建可擴(kuò)展、安全、高性能的生成式 AI 應(yīng)用。” Nutanix 工程副總裁 Debojyoti Dutta 表示,其團(tuán)隊(duì)為 KServe 和 Kubeflow 做出了貢獻(xiàn)。

Canonical 的 MLOps 產(chǎn)品經(jīng)理 Andreea Munteanu 表示:“作為一家對(duì) KServe 做出重大貢獻(xiàn)的公司,我們很高興通過 Charmed Kubernetes 和 Charmed Kubeflow 提供 NIM。在我們的共同努力下,用戶將能夠輕松地使用生成式 AI 的全部功能,并使其保持最高的性能和效率。”

數(shù)十家其他軟件提供商都能感受到 NIM 的好處,因?yàn)樗麄兊漠a(chǎn)品中也包含了 KServe。

服務(wù)開源社區(qū)

NVIDIA 一直積極地參與 KServe 項(xiàng)目。正如最近的一篇技術(shù)博客中所提到的,KServe 的開放推理協(xié)議已經(jīng)被用于NVIDIA Triton 推理服務(wù)器,可以幫助用戶跨多個(gè) GPU、框架和操作模式同時(shí)運(yùn)行許多 AI 模型。

基于 KServe,NVIDIA 專注于在多個(gè) GPU 上一次運(yùn)行一個(gè) AI 模型的用例。

作為 NIM 集成的一部分,NVIDIA 計(jì)劃在其開源軟件(包括 Triton 和TensorRT-LLM)的基礎(chǔ)上,成為 KServe 的積極貢獻(xiàn)者。NVIDIA 還是云原生計(jì)算基金會(huì)(CNCF)的活躍成員,該基金會(huì)支持生成式 AI 和其他項(xiàng)目的開源代碼。

立即通過 NVIDIA API 目錄試用 Llama 3 8B 或 Llama 3 70B 大語言模型的 NIM API。全球數(shù)百家 NVIDIA 合作伙伴也正在使用 NIM 來部署生成式 AI。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5592

    瀏覽量

    109719
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    18

    文章

    5647

    瀏覽量

    75009
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39755

    瀏覽量

    301360

原文標(biāo)題:COMPUTEX 2024 | KServe 提供商在云和數(shù)據(jù)中心提供由 NIM 賦能的推理

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    行業(yè)特定的生成 AI 能力如何形成:面向中國企業(yè)的場(chǎng)景化解決方案模型

    隨著生成 AI 在國內(nèi)加速落地,越來越多企業(yè)意識(shí)到:?jiǎn)慰客ㄓ么?b class='flag-5'>模型,并不能覆蓋行業(yè)中的復(fù)雜流程與專業(yè)需求。金融、制造、能源、零售、醫(yī)療等行
    的頭像 發(fā)表于 12-02 09:33 ?443次閱讀

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測(cè)試與驗(yàn)證數(shù)據(jù)
    的頭像 發(fā)表于 12-01 09:25 ?1131次閱讀

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺(tái) NVIDIA Cosmos 中的關(guān)鍵模型——NVIDIA Cosmos Reason-1-7B。
    的頭像 發(fā)表于 07-09 10:17 ?809次閱讀

    NVIDIA技術(shù)助力企業(yè)創(chuàng)建主權(quán)AI智能體

    AI Factory 的經(jīng)驗(yàn)證設(shè)計(jì)將加速基礎(chǔ)設(shè)施與軟件(包括全新 NVIDIA NIM 微服務(wù)和經(jīng)擴(kuò)展的 NVIDIA Blueprint)相結(jié)合,為各國和
    的頭像 發(fā)表于 06-16 14:28 ?1340次閱讀

    使用NVIDIA Earth-2生成AI基礎(chǔ)模型革新氣候建模

    NVIDIA 正通過 cBottle(Climate in a Bottle 的簡(jiǎn)稱)為這項(xiàng)工作帶來新的突破,這是全球首個(gè)專為以公里尺度分辨率模擬全球氣候而設(shè)計(jì)的生成 AI 基礎(chǔ)
    的頭像 發(fā)表于 06-12 15:54 ?1303次閱讀

    Dify攜手亞馬遜云科技加速全球企業(yè)生成AI應(yīng)用規(guī)模化落地

    簡(jiǎn)單易用的AI應(yīng)用開發(fā)平臺(tái)Dify通過深度集成亞馬遜云科技的生成AI技術(shù)與云服務(wù),在保障性能、合規(guī)與全球交付的基礎(chǔ)上,顯著降低企業(yè)
    的頭像 發(fā)表于 06-07 16:00 ?866次閱讀

    企業(yè)部署AI模型怎么做

    當(dāng)下,AI模型已成為驅(qū)動(dòng)決策自動(dòng)化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對(duì)動(dòng)輒數(shù)百億參數(shù)的大模型部署時(shí),常陷入算力不足、響應(yīng)延遲高
    的頭像 發(fā)表于 06-04 09:26 ?885次閱讀

    NVIDIA攜手谷歌云助力企業(yè)引入代理式AI

    谷歌 Gemini 模型即將支持本地部署,可通過搭載 NVIDIA Blackwell 架構(gòu)的基礎(chǔ)設(shè)施,在 Google 分布云上運(yùn)行 NVIDI
    的頭像 發(fā)表于 04-11 16:32 ?1206次閱讀

    如何在RAKsmart服務(wù)器上實(shí)現(xiàn)企業(yè)AI模型部署

    AI模型的訓(xùn)練與部署需要強(qiáng)大的算力支持、穩(wěn)定的網(wǎng)絡(luò)環(huán)境和專業(yè)的技術(shù)管理。RAKsmart作為全球領(lǐng)先的服務(wù)器托管與云計(jì)算服務(wù)提供商,已成為企業(yè)部署
    的頭像 發(fā)表于 03-27 09:46 ?937次閱讀

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長領(lǐng)域提供解決方案,包括企業(yè)級(jí)AI
    的頭像 發(fā)表于 03-26 14:42 ?739次閱讀
    Cognizant將與<b class='flag-5'>NVIDIA</b>合作<b class='flag-5'>部署</b>神經(jīng)人工智能平臺(tái),加速<b class='flag-5'>企業(yè)</b>人工智能應(yīng)用

    英偉達(dá)GTC2025亮點(diǎn):NVIDIA認(rèn)證計(jì)劃擴(kuò)展至企業(yè)存儲(chǔ)領(lǐng)域,加速AI工廠部署

    ,現(xiàn)在已將企業(yè)存儲(chǔ)納入其中,旨在通過加速計(jì)算、網(wǎng)絡(luò)、軟件和存儲(chǔ),助力企業(yè)高效部署 AI 工廠
    的頭像 發(fā)表于 03-21 19:38 ?2053次閱讀

    英偉達(dá)GTC2025亮點(diǎn):Oracle與NVIDIA合作助力企業(yè)加速代理式AI推理

    基礎(chǔ)設(shè)施以及生成 AI 服務(wù)首次實(shí)現(xiàn)集成,以幫助全球企業(yè)組織加速創(chuàng)建代理式 AI 應(yīng)用。 此次 Oracle Cloud Infrast
    的頭像 發(fā)表于 03-21 12:01 ?1426次閱讀
    英偉達(dá)GTC2025亮點(diǎn):Oracle與<b class='flag-5'>NVIDIA</b>合作<b class='flag-5'>助力</b><b class='flag-5'>企業(yè)</b>加速代理式<b class='flag-5'>AI</b>推理

    英偉達(dá)GTC2025亮點(diǎn) NVIDIA推出Cosmos世界基礎(chǔ)模型和物理AI數(shù)據(jù)工具的重大更新

    、Figure AI、Skild AI 是最早采用該技術(shù)的公司。 NVIDIA 宣布推出全新 NVIDIA Cosmos 世界基礎(chǔ)模型 (W
    的頭像 發(fā)表于 03-20 19:01 ?1334次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計(jì)算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成
    發(fā)表于 03-19 15:24 ?577次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作<b class='flag-5'>助力</b><b class='flag-5'>企業(yè)</b>加速代理式 <b class='flag-5'>AI</b> 推理

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺(tái)

    月 18 日 —— ?NVIDIA 今日發(fā)布具有推理功能的開源 Llama Nemotron 模型系列,旨在為開發(fā)者和企業(yè)提供業(yè)務(wù)就緒型基礎(chǔ),助力構(gòu)建能夠獨(dú)立工作或以團(tuán)隊(duì)形式完成復(fù)雜
    發(fā)表于 03-19 09:31 ?390次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開放推理 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>系列,<b class='flag-5'>助力</b>開發(fā)者和<b class='flag-5'>企業(yè)</b>構(gòu)建代理式 <b class='flag-5'>AI</b> 平臺(tái)