国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何在NVIDIA Jetson AGX Thor上部署1200億參數大模型

麗臺科技 ? 來源:麗臺科技 ? 2025-12-26 17:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上一期介紹了如何在NVIDIAJetson AGX Thor上使用 Docker 部署 vLLM 推理服務,以及使用 Chatbox 作為前端調用 vLLM 運行的模型(上期文章鏈接)。本期我們將嘗試能否在 Jetson AGX Thor 上部署并成功運行高達 1,200 億參數量的 gpt-oss-120b 大模型。

gpt-oss-120b 是由 OpenAI 于今年發布的開放權重 AI 模型,采用了廣受歡迎的混合專家模型(MoE)架構和 SwigGLU 激活函數。其注意力層使用 RoPE 技術,上下文規模為 128k,交替使用完整上下文和長度為 128 個 Token 的滑動窗口。模型的精度為 FP4,可運行在 NVIDIA Blackwell 架構 GPU 上。

本期具體內容包括:

vLLM 鏡像下載及容器構建

模型下載與運行

使用 Chatbox 作為前端調用 gpt-oss-120b

Jetson AGX Thor 模型運行資源占用及性能

一、vLLM 鏡像下載及容器構建

參考上期教程,拉取 vLLM 鏡像并構建容器。

1. 在命令行運行docker pull nvcr.io/nvidia/vllm:25.10-py3下載容器。

ccd06dee-dc78-11f0-8c8f-92fbcf53809c.png

2. 下載完成后,運行容器,創建啟動命令。

cd2adb4e-dc78-11f0-8c8f-92fbcf53809c.png

3. 容器創建成功后,使用docker exec -it vllm /bin/bash命令進入此容器。

cdac5778-dc78-11f0-8c8f-92fbcf53809c.png

二、模型下載與運行

1. 在線下載模型并運行

1.1 登錄 Hugging Face,下載 gpt-oss-120b 模型。

容器內執行huggingface-cli login,輸入 Hugging Face 的token,出現“Login successful”即表示登錄成功。

ce050f6c-dc78-11f0-8c8f-92fbcf53809c.png

注:token 獲取方式為注冊并登錄 huggingface.co,點擊右上角用戶頭像 -Access Tokens,然后在新頁面點擊 Create new token,輸入 token name,最后在最下方點擊 Create token,復制并保存即可。

ce942756-dc78-11f0-8c8f-92fbcf53809c.png

cee834e0-dc78-11f0-8c8f-92fbcf53809c.png

cf51fef2-dc78-11f0-8c8f-92fbcf53809c.png

cfab4e76-dc78-11f0-8c8f-92fbcf53809c.png

上下滑動查看圖片

1.2 容器內運行vllm serve openai/gpt-oss-120b,從 Hugging Face 上在線下載模型并開始運行。

d019b2f8-dc78-11f0-8c8f-92fbcf53809c.png

1.3 等待模型文件下載完成后(需科學上網),出現 API 端口號即可進行調用。

d08b6a9c-dc78-11f0-8c8f-92fbcf53809c.png

2. 本地模型運行

上述方法會將模型文件下載至容器的默認目錄,再次運行時將直接調用已下載的文件。為避免容器刪除導致文件丟失,建議將模型文件復制到本地映射的目錄(如 /data)中進行保存。

以在當前路徑舉例,命令行執行以下代碼,即可保存到本地指定目錄:

cp-r models--openai--gpt-oss-120b /data

d1423394-dc78-11f0-8c8f-92fbcf53809c.png

我們將本地模型文件命名為:local/gpt-oss-120b,容器內命令行執行以下命令,即可正常運行本地模型:

vllm serve
/data/models--openai--gpt-oss-120b/snapshots/b5c939de8f754692c1647ca79f
bf85e8c1e70f8a --served-model-name"local/gpt-oss-120b"

d1a10d88-dc78-11f0-8c8f-92fbcf53809c.png

模型運行成功:

d2331d68-dc78-11f0-8c8f-92fbcf53809c.png

三、使用 Chatbox 作為前端調用 gpt-oss-120b

Chatbox AI 是一款 AI 客戶端應用和智能助手,支持眾多先進的 AI 模型和 API,可在 Windows、MacOS、AndroidiOS、Linux 和網頁版上使用。在這里,可以選擇 Chatbox 作為前端調用 vLLM 運行的 gpt-oss-120b 模型,用于本地或在線與 AI 進行對話。

1.參考上期教程,局域網內下載安裝 Chatbox Windows 版本,點擊“設置提供方” — “添加”,輸入模型名稱,再次點擊“添加”。

d29409d4-dc78-11f0-8c8f-92fbcf53809c.png

d2fa6990-dc78-11f0-8c8f-92fbcf53809c.png

d35182ca-dc78-11f0-8c8f-92fbcf53809c.png

上下滑動查看圖片

2. API 主機可輸入 Jetson AGX Thor 主機 IP 以及 vLLM 服務端口號。

(例:http://192.168.23.107:8000)

d3c73db2-dc78-11f0-8c8f-92fbcf53809c.png

3. 選擇 vLLM 運行的模型,點擊“+”。

d41c62d8-dc78-11f0-8c8f-92fbcf53809c.png

d48f5d74-dc78-11f0-8c8f-92fbcf53809c.png

注:這里同樣可以添加前述步驟已保存或通過其他方式獲取的模型文件。

d4e6ab60-dc78-11f0-8c8f-92fbcf53809c.png

4. 點擊“新對話”,右下角選擇該模型即可開啟對話。

d553bee4-dc78-11f0-8c8f-92fbcf53809c.jpg

5. 運行示例

我們在此示例提問一個問題,運行結果如下:

以上視頻已作 3 倍加速處理

四、Jetson AGX Thor 模型運行資源占用及性能

接下來分析運行 gpt-oss-120b 時的資源使用情況。

命令行執行jtop命令,可見加載完模型后,內存占用約為 115G。

d5aa4642-dc78-11f0-8c8f-92fbcf53809c.png

當模型在進行推理任務時,部分 CPU 核心持續滿載,同時 GPU 使用率也維持在 95% 左右的高位。

d624a130-dc78-11f0-8c8f-92fbcf53809c.png

我們使用 AI 生成的腳本,測試了輸入 128 tokens、輸出 128 tokens 且并發數為 1 時的吞吐量。

容器內執行:

# 創建測試腳本
cat > /tmp/test_performance.py <

滑動查看完整代碼

命令行執行:

python /tmp/test_performance.py

d67f33ca-dc78-11f0-8c8f-92fbcf53809c.png

d723eee2-dc78-11f0-8c8f-92fbcf53809c.png

根據上圖的測試結果,在單用戶、輸入 / 輸出長度為 128 tokens、并發數為 1 的條件下,系統吞吐量達到了50.38 tokens / second。這意味著在 Jetson AGX Thor 上能夠流暢運行 1,200 億參數模型。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5592

    瀏覽量

    109715
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135427
  • AI
    AI
    +關注

    關注

    91

    文章

    39755

    瀏覽量

    301354
  • 大模型
    +關注

    關注

    2

    文章

    3648

    瀏覽量

    5179

原文標題:邊緣 AI 實力驗證:NVIDIA Jetson AGX Thor 成功駕馭 1200 億參數大模型

文章出處:【微信號:Leadtek,微信公眾號:麗臺科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVIDIA Jetson AGX Thor Developer Kit開發環境配置指南

    NVIDIA Jetson AGX Thor 專為物理 AI 打造,與上一代產品 NVIDIA Jets
    的頭像 發表于 11-08 09:55 ?7244次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> <b class='flag-5'>AGX</b> <b class='flag-5'>Thor</b> Developer Kit開發環境配置指南

    何在NVIDIA Jetson AGX Thor上通過Docker高效部署vLLM推理服務

    繼系統安裝與環境配置后,本期我們將繼續帶大家深入 NVIDIA Jetson AGX Thor 的開發教程之旅,了解如何在
    的頭像 發表于 11-13 14:08 ?4111次閱讀
    如<b class='flag-5'>何在</b><b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> <b class='flag-5'>AGX</b> <b class='flag-5'>Thor</b>上通過Docker高效<b class='flag-5'>部署</b>vLLM推理服務

    京東和美團已選用NVIDIA Jetson AGX Xavier 平臺

    電商巨頭選用NVIDIA Jetson AGX Xavier打造下一代配送機器人 京東、美團采用NVIDIA AI計算平臺,以滿足大量處理需求
    的頭像 發表于 08-01 14:54 ?1557次閱讀

    Arm方案 基于Arm架構的邊緣側設備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構的邊緣側設備上部署 PyTorch 模型。
    的頭像 發表于 07-28 11:50 ?2871次閱讀

    NVIDIA Jetson的相關資料分享

    Jetson概述爆炸式增長的AI模型的復雜性專為自主機器開發人員設計的AI計算板加快AI處理的SDK“JetPack”概述NVIDIA Jetson
    發表于 11-09 08:26

    NVIDIA Jetson介紹

    首發極術社區如對Arm相關技術感興趣,歡迎私信 aijishu20加入技術微信群。分享內容NVIDIA Jetson是嵌入式計算平臺,具有低功耗、高性能和小體積等特點,可加速各行業的AI應用落地
    發表于 12-14 08:05

    怎么做才能通過Jetson Xavier AGX構建android圖像呢?

    我正在使用 NvidiaJetson Xavier AGX 按照“android 用戶指南”為 imx8 qm Mek 套件構建 android 圖像(android 13)。當我運行命令
    發表于 06-07 08:58

    NVIDIA Jetson AGX Orin提升邊緣AI標桿

    最新發布的 NVIDIA Jetson AGX Orin 提升邊緣 AI 標桿,使我們在最新一輪行業推理基準測試中的領先優勢更加明顯。
    的頭像 發表于 04-09 08:24 ?2550次閱讀

    NVIDIA 推出 Jetson AGX Orin 工業級模塊助力邊緣 AI

    Jetson 邊緣 AI 和機器人平臺 ,您可以在此類復雜的環境中部署 AI 和傳感器融合算法。 NVIDIA 在 COMPUTEX 2023 上發布了全新 Jetson
    的頭像 發表于 06-05 10:45 ?2197次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 <b class='flag-5'>Jetson</b> <b class='flag-5'>AGX</b> Orin 工業級模塊助力邊緣 AI

    利用 NVIDIA Jetson 實現生成式 AI

    的無限可能性。不同于其他嵌入式平臺,Jetson 能夠在本地運行大語言模型(LLM)、視覺 Transformer 和 stable diffusion,包括在 Jetson AGX
    的頭像 發表于 11-07 21:25 ?2347次閱讀
    利用 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> 實現生成式 AI

    NVIDIA Jetson AGX Thor開發者套件概述

    NVIDIA Jetson AGX Thor 開發者套件為您提供出色的性能和可擴展性。它由 NVIDIA Blackwell GPU和128
    的頭像 發表于 08-11 15:03 ?1894次閱讀

    基于 NVIDIA Blackwell 的 Jetson Thor 現已發售,加速通用機器人時代的到來

    ·專為物理 AI 和機器人打造的機器人計算機 NVIDIA Jetson AGX Thor 開發者套件和量產級模組,現已發售。 ·超過 200 萬開發者正在使用
    發表于 08-26 09:28 ?1299次閱讀
    基于 <b class='flag-5'>NVIDIA</b> Blackwell 的 <b class='flag-5'>Jetson</b> <b class='flag-5'>Thor</b> 現已發售,加速通用機器人時代的到來

    NVIDIA Jetson AGX Thor開發者套件重磅發布

    開發者與未來創造者們,準備好迎接邊緣AI的史詩級革新了嗎?NVIDIA以顛覆性技術再次突破極限,正式推出Jetson AGX Thor開發者套件!作為繼傳奇產品
    的頭像 發表于 08-28 14:31 ?1555次閱讀

    通過NVIDIA Jetson AGX Thor實現7倍生成式AI性能

    Jetson Thor 平臺還支持多種主流量化格式,包括 NVIDIA Blackwell GPU 架構的新 NVFP4 格式,有助于進一步優化推理性能。該平臺同時支持推測解碼等新技術,為在邊緣端加速生成式 AI 工作負載提供了
    的頭像 發表于 10-29 16:53 ?1421次閱讀

    NVIDIA Jetson系列開發者套件助力打造面向未來的智能機器人

    NVIDIA Jetson AGX Thor、AGX Orin 以及 Jetson Orin N
    的頭像 發表于 12-13 10:20 ?3054次閱讀