国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

硬件與應用同頻共振,英特爾Day 0適配騰訊開源混元大模型

科技數碼 ? 來源:科技數碼 ? 作者:科技數碼 ? 2025-08-07 14:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今日,騰訊正式發布新一代混元開源大語言模型。英特爾憑借在人工智能領域的全棧技術布局,現已在英特爾? 酷睿? Ultra 平臺上完成針對該模型的第零日(Day 0)部署與性能優化。值得一提的是, 依托于OpenVINO? 構建的 AI 軟件平臺的可擴展性,英特爾助力ISV生態伙伴率先實現應用端Day 0 模型適配,大幅加速了新模型的落地進程,彰顯了 “硬件 + 模型 + 生態” 協同的強大爆發力。

wKgZPGiUSruAOuHGAAPmi2Pxqdg127.png

混元新模型登場:多維度突破,酷睿Ultra平臺Day0適配

騰訊混元宣布開源四款小尺寸模型,參數分別為 0.5B、1.8B、4B、7B,消費級顯卡即可運行,適用于筆記本電腦手機、智能座艙、智能家居等低功耗場景。新開源的4 個模型均屬于融合推理模型,具備推理速度快、性價比高的特點,用戶可根據使用場景靈活選擇模型思考模式——快思考模式提供簡潔、高效的輸出;而慢思考涉及解決復雜問題,具備更全面的推理步驟。

這些模型已在英特爾酷睿 Ultra 平臺實現全面適配,其在 CPUGPU、NPU 三大 AI 運算引擎上都展現了卓越的推理性能表現1。以酷睿 Ultra 2 代 iGPU 平臺為例,7B 參數量模型在 INT4 精度下,吞吐量達 20.93token/s;0.5B 小尺寸模型在 FP16 精度下吞吐量達 68.92token/s。值得一提的是,英特爾對新模型的 NPU 第零日支持已形成常態化能力,為不同參數量模型匹配精準硬件方案,滿足從個人終端到邊緣設備的多樣化需求。

wKgZO2iUSruASarhAAL0-Jy-mDg403.png

OpenVINO:新模型快速落地的“關鍵引擎”

作為英特爾推出的開源深度學習工具套件,OpenVINO 以 “性能優化 + 跨平臺部署” 為核心優勢,可充分釋放英特爾硬件資源潛力,廣泛應用于 AI PC、邊緣 AI 等場景。其核心價值在于能將深度學習模型的推理性能最大化,同時實現跨 CPU、GPU、NPU 等異構硬件的無縫部署。

目前,OpenVINO已支持超過 900 個人工智能模型,涵蓋生成式 AI 領域主流模型結構與算子庫。這樣的模型支持體系,使其能在新模型發布的Day 0,即完成英特爾硬件平臺的適配部署。此次混元模型的快速落地,正是 OpenVINO 技術實力的直接體現 —— 通過其優化能力,混元模型在酷睿 Ultra 平臺的性能得到充分釋放,為用戶帶來即發即用的 AI 體驗。

生態共創:AI技術到應用的“最后一公里”加速

生態合作是英特爾 AI 戰略的核心支柱,驅動人生作為其長期合作伙伴,專注于互聯網客戶端軟件研發及運營,本著“以用戶為中心,以技術為根本,以開放為原則”的理念,長期致力于技術研發和技術創新,為用戶提供優質的服務。其 AIGC 助手軟件,實現本地部署,離線使用,支持文字輸入、語音轉譯,將大模型裝進背包,可隨時隨地與它進行智能對話,還能讓它幫忙解讀文檔,編撰方案。

該應用采用 OpenVINO推理框架,借助其快速適配能力,在混元模型發布當日即完成應用層適配,成為首批支持新模型的應用之一。

目前,驅動人生 AIGC 助手、英特爾AIPC應用專區和多家OEM 應用商店的 AI PC專區均已上線,搭載混元模型的新版本也將在近期推出,用戶可第一時間體驗更智能的交互與服務。這種 “模型發布 - 硬件適配 - 應用落地” 的全鏈條第零日響應,正是英特爾生態協同能力的生動寫照。

AI 的發展離不開模型創新與軟硬件生態協同 —— 模型如同燃料,生態則是驅動前進的引擎。英特爾通過硬件平臺、軟件工具與生態網絡的深度協同,實現對新模型的第零日適配,不僅加速了技術到應用的轉化,更推動著整個 AI 產業的高效創新。未來,英特爾將持續深化與合作伙伴的協同,讓 AI 創新更快走進千行百業與大眾生活。

快速上手指南

第一步,環境準備

通過以下命令可以搭建基于Python的模型部署環境。

wKgZPGiUSryAAd2RAAKux0bLujo206.png

該示例在以下環境中已得到驗證:

硬件環境:

Intel? Core? Ultra 7 258V

iGPU Driver:32.0.101.6972

NPU Driver:32.0.100.4181

Memory: 32GB

操作系統

Windows 11 24H2 (26100.4061)

OpenVINO版本:

openvino 2025.2.0

openvino-genai 2025.2.0.0

openvino-tokenizers 2025.2.0.0

Transformers版本:

https://github.com/huggingface/transformers@4970b23cedaf745f963779b4eae68da281e8c6ca

第二步,模型下載和轉換

在部署模型之前,我們首先需要將原始的PyTorch模型轉換為OpenVINOTM的IR靜態圖格式,并對其進行壓縮,以實現更輕量化的部署和最佳的性能表現。通過Optimum提供的命令行工具optimum-cli,我們可以一鍵完成模型的格式轉換和權重量化任務:

wKgZO2iUSryATn_FAACoK78L0mI507.png

開發者可以根據模型的輸出結果,調整其中的量化參數,包括:

--model:為模型在HuggingFace上的model id,這里我們也提前下載原始模型,并將model id替換為原始模型的本地路徑,針對國內開發者,推薦使用ModelScope魔搭社區作為原始模型的下載渠道,具體加載方式可以參考ModelScope官方指南:https://www.modelscope.cn/docs/models/download

--weight-format:量化精度,可以選擇fp32,fp16,int8,int4,int4_sym_g128,int4_asym_g128,int4_sym_g64,int4_asym_g64

--group-size:權重里共享量化參數的通道數量

--ratio:int4/int8權重比例,默認為1.0,0.6表示60%的權重以int4表,40%以int8表示

--sym:是否開啟對稱量化

此外我們建議使用以下參數對運行在NPU上的模型進行量化,以達到性能和精度的平衡。

wKgZPGiUSr2AadW7AACpjuc5KGg927.png

這里的--backup-precision是指混合量化精度中,8bit參數的量化策略。

第三步,模型部署

目前我們推薦是用openvino-genai來部署大語言以及生成式AI任務,它同時支持Python和C++兩種編程語言,安裝容量不到200MB,支持流式輸出以及多種采樣策略。

GenAI API部署示例

wKgZO2iUSr2AD57AAAq6IUQK--c486.png

其中,'model_dir'為OpenVINOTM IR格式的模型文件夾路徑,'device'為模型部署設備,支持CPU,GPU以及NPU。此外,openvino-genai提供了chat模式的構建方法,通過聲明pipe.start_chat()以及pipe.finish_chat(),多輪聊天中的歷史數據將被以kvcache的形態,在內存中進行管理,從而提升運行效率。

開發者可以通過該該示例的中方法調整chat template,以關閉和開啟thinking模式,具體方式可以參考官方文檔(https://huggingface.co/tencent/Hunyuan-4B-Instruct)。由于目前OpenVINOTM Tokenizer還沒有完全支持Hunyuan-7B-Instruct模型默認的chat template格式,因此我們需要手動替換原始的chat template,對其進行簡化,具體方法如下:

wKgZPGiUSr6APK9lAAUh4VZDeO0463.png

chat模式輸出結果示例:

wKgZO2iUSr6AN5JbAAhZDDvz6u4139.png

關于該示例的后續更新,可以關注OpenVINO notebooks倉庫:https://github.com/openvinotoolkit/openvino_notebooks/tree/latest/notebooks/llm-chatbot

驅動人生應用獲取方式:

驅動人生 AIGC 助手(https://www.160.com/aigc/index.html)

英特爾AIPC應用專區(intel.cn/aipc)

1.通過使用 OpenVINO 框架版本 2025.2.0 在 英特爾? 酷睿? Ultra 7 258V 和 英特爾? 酷睿? Ultra 9 285H 上進行測試獲得了性能數據,計算過程發生在 iGPU 或 NPU 上。測試評估了首 Token 的延遲以及在 int4-mixed、int4-mixed-cw-sym 和 fp16 精度設置下 1K 輸入的平均吞吐量。每項測試在預熱階段后執行三次,并選擇平均值作為報告數據。

性能因使用方式、配置和其他因素而異。請訪問www.Intel.com/PerformanceIndex了解更多信息。

性能結果基于測試時的配置狀態,可能未反映所有公開可用的更新內容。請參閱相關文檔以獲取配置詳情。沒有任何產品或組件能夠保證絕對安全。

您的實際成本和結果可能會有所不同。

相關英特爾技術可能需要啟用相關硬件、軟件或激活服務。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    61

    文章

    10301

    瀏覽量

    180410
  • 人工智能
    +關注

    關注

    1817

    文章

    50094

    瀏覽量

    265256
  • 大模型
    +關注

    關注

    2

    文章

    3648

    瀏覽量

    5176
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    華為昇騰深度適配智譜AI全新開源模型GLM-5

    ,在真實編程場景的使用體驗逼近Claude Opus 4.5,更擅長復雜系統工程與長程Agent任務。昇騰一直同步支持智譜GLM系列模型,此次GLM-5模型一經開源發布,昇騰AI基礎軟硬件
    的頭像 發表于 02-25 14:41 ?647次閱讀
    華為昇騰深度<b class='flag-5'>適配</b>智譜AI全新<b class='flag-5'>開源</b><b class='flag-5'>模型</b>GLM-5

    寒武紀實現對GLM-5的Day 0適配

    的技術積累,寒武紀得以快速實現對 GLM-5 的 Day 0 適配。? 寒武紀一直重視芯片和算法的聯合創新,致力于以軟硬件協同的方式,優化大模型
    的頭像 發表于 02-12 15:07 ?622次閱讀

    曦云C系列GPU Day 0 適配智譜全新一代大模型GLM-5

    智譜AI正式上線并開源全新一代大模型 GLM-5,沐曦股份實現?Day 0 深度適配。 GLM-5目前可于曦云 C 系列(C500/C550
    的頭像 發表于 02-12 10:53 ?792次閱讀
    曦云C系列GPU <b class='flag-5'>Day</b> <b class='flag-5'>0</b> <b class='flag-5'>適配</b>智譜全新一代大<b class='flag-5'>模型</b>GLM-5

    Arm率先適配騰訊HY-1.8B-2Bit模型

    騰訊今日發布了 HY-1.8B-2Bit,這是一款等效參數量僅有 0.3B 的極低比特壓縮模型,有助于移動設備廠商和開發者加速實現生成式 AI 的創新落地。作為全球應用最為廣泛的高
    的頭像 發表于 02-10 17:29 ?1845次閱讀

    沐曦曦云C500/C550 GPU產品適配騰訊圖像3.0圖生圖模型

    近日,騰訊團隊宣布開源圖像3.0圖生圖版本(HunyuanImage 3.0-Instr
    的頭像 發表于 02-02 14:43 ?369次閱讀

    沐曦曦云C500/C550 GPU產品適配騰訊開源翻譯模型1.5版本

    種民漢/方言,除了中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。目前兩個模型均在騰訊官網上線,通過開源
    的頭像 發表于 01-06 14:13 ?369次閱讀
    沐曦曦云C500/C550 GPU產品<b class='flag-5'>適配</b><b class='flag-5'>騰訊</b><b class='flag-5'>混</b><b class='flag-5'>元</b><b class='flag-5'>開源</b>翻譯<b class='flag-5'>模型</b>1.5版本

    壁仞科技壁礪166M產品適配騰訊開源翻譯模型1.5版本

    中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。目前兩個模型均已在騰訊官網上線,在Github和Huggingface等
    的頭像 發表于 01-05 15:39 ?298次閱讀
    壁仞科技壁礪166M產品<b class='flag-5'>適配</b><b class='flag-5'>騰訊</b><b class='flag-5'>混</b><b class='flag-5'>元</b><b class='flag-5'>開源</b>翻譯<b class='flag-5'>模型</b>1.5版本

    沐曦股份曦云C系列GPU Day 0適配智譜GLM-4.6V多模態大模型

    12月8日智譜AI發布并開源 GLM-4.6V 系列多模態大模型,沐曦股份曦云C系列GPU完成Day 0適配
    的頭像 發表于 12-17 14:28 ?617次閱讀
    沐曦股份曦云C系列GPU <b class='flag-5'>Day</b> <b class='flag-5'>0</b><b class='flag-5'>適配</b>智譜GLM-4.6V多模態大<b class='flag-5'>模型</b>

    Arm率先適配騰訊開源模型,助力端側AI創新開發

    本周初,騰訊宣布開源四款小尺寸模型(參數分別為 0.5B、1.8B、4B、7B),可無縫運行于消費級顯卡上。作為全球應用范圍最為廣泛的計
    的頭像 發表于 08-08 09:16 ?1383次閱讀
    Arm率先<b class='flag-5'>適配</b><b class='flag-5'>騰訊</b><b class='flag-5'>混</b><b class='flag-5'>元</b><b class='flag-5'>開源</b><b class='flag-5'>模型</b>,助力端側AI創新開發

    摩爾線程率先支持騰訊-A13B模型

    近日,騰訊正式開源基于專家混合(MoE)架構的大語言模型-A13B。同日,摩爾線程團隊憑借技術前瞻性,率先完成該
    的頭像 發表于 07-04 14:10 ?893次閱讀

    Zephyr RTOS在英特爾處理器N系列的應用

    ZephyrRTOS是一款高度靈活的,專為嵌入式設備設計的輕量級開源實時操作系統,支持包括英特爾 x86在內的多種硬件架構。
    的頭像 發表于 04-29 09:34 ?1191次閱讀
    Zephyr RTOS在<b class='flag-5'>英特爾</b>處理器N系列的應用

    英特爾酷睿Ultra AI PC上部署多種圖像生成模型

    全新英特爾酷睿Ultra 200V系列處理器對比上代Meteor Lake,升級了模塊化結構、封裝工藝,采用全新性能核與能效核、英特爾硬件線程調度器、Xe2微架構銳炫GPU、第四代NPU等,由此也帶來了CPU性能提升18%,GP
    的頭像 發表于 04-02 15:47 ?1484次閱讀
    在<b class='flag-5'>英特爾</b>酷睿Ultra AI PC上部署多種圖像生成<b class='flag-5'>模型</b>

    為什么無法檢測到OpenVINO?工具套件中的英特爾?集成圖形處理單元?

    在 Ubuntu* Desktop 22.04 上安裝了 英特爾? Graphics Driver 版本并OpenVINO? 2023.1。 運行 python 代碼: python -c
    發表于 03-05 08:36

    請問OpenVINO?工具套件英特爾?Distribution是否與Windows? 10物聯網企業版兼容?

    無法在基于 Windows? 10 物聯網企業版的目標系統上使用 英特爾? Distribution OpenVINO? 2021* 版本推斷模型
    發表于 03-05 08:32

    英特爾?獨立顯卡與OpenVINO?工具套件結合使用時,無法運行推理怎么解決?

    使用英特爾?獨立顯卡與OpenVINO?工具套件時無法運行推理
    發表于 03-05 06:56