国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

太強了!AI PC搭載70B大模型,算力狂飆,內存開掛

花茶晶晶 ? 來源:電子發燒友網 ? 作者:黃晶晶 ? 2025-03-24 08:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網報道(文/黃晶晶)AI推理助推了DeepSeek一體機的市場熱度,而AI PC對DeepSeek大模型的支持也將是廣大用戶采購AI PC的參考因素。不同配置的AI PC可支持DeepSeek-R1不同模型。相對來說,DeepSeek-R1 70B大模型或許是日常AI功能的頂格需求,它也是當前高性能AI PC的著力點之一。

AI PC跑大模型

DeepSeek-R1目前已經發布了1.5B/7B/8B/14B/32B/70B/671B共7類不同參數量的大模型版本。適配自然語言處理、內容生成創作等不同的場景需求和功能,相對應的也需要不同級別的硬件性能配置,參數越大所需的計算資源就越大。

根據京東給出的配置參考,個人消費者在日常生活和學習場景中,想要滿足文本生成基礎問題、基礎圖像處理等需求,可選擇1.5B/7B/8B這三類參數量的模型,通過個人筆記本、臺式機就能完成DeepSeek本地部署。

1.5B模型需要最低4G顯卡,可選GTX 1050及以上顯卡,CPU最低4核,內存最低8G。7B/8B模型則需要8G顯卡、CPU最低8核、內存最低16GB。

若要實現多語言處理、AI推理、智能數據分析、專業圖像處理等需求,可選擇DeepSeek-R1 14B/32B模型進行本地化部署,但其對硬件配置有更高要求。其中,14B模式需要16G顯卡、12核CPU和32G內存,至少是RTX4000Ada及以上顯卡。32B模式則需要24G顯卡、16核CPU和64G內存,可選A6000及以上顯卡并行計算。

對于大型企業、高端設計、科研和企業級應用,這類高性能需求場景可選擇70B模型,可完成深度學習、復雜數據分析和高級圖像處理等功能。目前,70B模型可選2個A100 80G顯卡或4個RTX4090顯卡并行,配備32核CPU和128G的內存。

實際上,70B模型進行本地部署已經足夠滿足日常需求,處理器和PC廠商正積極推進AI PC運行大模型的方案。

AMD AI Max+ 395

今年1月CES 2025上,AMD發布代號為“Strix Halo”的銳龍AI Max系列已經可以支持本地化運行700億參數版本的DeepSeek大語言模型(LLM),助力各類生成式AI的應用。

全新的銳龍AI Max系列處理器采用了 Zen 5 CPU 和 RDNA 3.5 GPU 架構,并運用先進的芯粒(chiplets)封裝技術。每個 Zen 5 CPU 核心位于獨立的 CCD 上,最高兩個 CCD 提供 16 個 Zen 5 核心,核顯(iGPU)最高擁有40個RDNA 3.5 計算單元。此外,該處理器還采用 LPDDR5x 內存標準,內存帶寬高達256GB/s,集成 50 TOPS“XDNA 2” NPU,為 Windows 11 AI+ PC 提供領先的 AI 性能,也為新一代AI PC帶來了革命性的突破,為游戲玩家、創作者和普通用戶提供了卓越的性能和強勁的動力。

在AI 性能方面,得益于銳龍AI Max+ 395配備了高達50 TOPS的XDNA 2架構NPU,在 LM Studio 中的 AI 性能比 NVIDIA GeForce RTX 4090 高出 2.2 倍,同時功耗降低了87%。同時得益于銳龍AI Max系列還支持高達128GB的統一內存,其中最高可將96GB用于圖形處理,這也使得搭載該處理器的系統能夠實現無縫、可靠的多任務處理,并支持運行700億參數的超大規模的AI模型,使得該處理器成為了全球首款運行700億參數模型的AI PC處理器。

ROG幻X 2025將首發搭載第三代 AMD AI+ PC 移動處理器——AMD 銳龍 AI Max+ 395。據稱,這是唯一本地流暢運行DeepSeek 70B模型的X86筆記本。全新ROG幻X 2025配備128GB 256bit LPDDR5X 8000MHz統一內存,支持最大96GB動態顯存分配,可實現CPU多任務與集顯圖形處理之間的靈活調用。結合CPU+GPU+NPU總算力可達126 TOPS,可以輕松本地部署AI大模型,流暢運行各類端側AI應用。

Apple M3 Ultra加持新款Mac Studio

前不久,蘋果公司正式推出了其性能最為強大的Mac產品即新款Mac Studio。據介紹,新款Mac Studio憑借其強大的中央處理器、先進的圖形架構、高帶寬的統一內存、極速的固態硬盤以及高效能的神經網絡引擎,能夠輕松應對各種繁重的任務挑戰。無論是進行復雜的數據處理、圖形渲染還是運行大型軟件,新款Mac Studio都能游刃有余。

新款Mac Studio提供了M4 Max和M3 Ultra兩種芯片版本供用戶選擇。其中,M4 Max型號的起售價為16499元,而搭載M3 Ultra芯片的型號起售價則為32999元。M3 Ultra版本的Mac Studio最低配備96GB的統一內存,最高選配512GB。此外,新款Mac Studio還支持最高達16TB的固態硬盤選配。

Mac Studio以強大的性能和滿血內存,其頂配版本可以直接在本地運行deepseek R1671B滿血版大模型。當然其價格高達108749元。

蘋果表示,M3 Ultra是迄今最強大的Apple芯片,由兩塊芯片強強合體,帶來雙倍的中央處理器、圖形處理器、神經網絡引擎和內存帶寬。性能表現突飛猛進,無論是處理龐大的數據集,還是同步進行動畫制作和 3D 場景渲染,各種極限任務都所向披靡。還有最高達 512GB 的統一內存,運行大語言模型 (LLM),僅憑內存就足夠。

小結:

AI PC支持百億級大模型,需要高性能CPU、GPU、NPU的支持,同時也需要大容量的存儲,而一些廠商也開始推進統一內存架構的使用。早前蘋果M系列芯片采用統一內存架構,例如,iMac搭載 M4芯片,M4 芯片配備了最多 10 核中央處理器,包括 4 顆性能核心和最多 6 顆能效核心。支持最多 32GB 統一內存,內存帶寬也提升至 120Gb/s。

英特爾下一代 AI PC旗艦產品Lunar Lake 處理器也將內存封裝在芯片之中,這種設計可顯著提升數據傳輸速度和系統響應時間,有助于降低功耗,還能簡化主板布局。

PC終端跑70B大模型能夠讓用戶體驗更智能更豐富的AI功能,當然成本也是一大因素,一旦到達合適的性價比,支持大參數量的AI PC會成為優中之選。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算力
    +關注

    關注

    2

    文章

    1409

    瀏覽量

    16605
  • 大模型
    +關注

    關注

    2

    文章

    3496

    瀏覽量

    5031
  • AI PC
    +關注

    關注

    0

    文章

    140

    瀏覽量

    693
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    應對端側AI內存、功耗“三堵墻”困境,安謀科技Arm China “周易”X3給出技術錦囊

    AI模型正加速從云端向邊緣與端側滲透,然而,內存、功耗等卻成了制約其規模化落地的“高墻”。專為A
    的頭像 發表于 12-18 13:45 ?97次閱讀
    應對端側<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>、<b class='flag-5'>內存</b>、功耗“三堵墻”困境,安謀科技Arm China “周易”X3給出技術錦囊

    湘軍,讓變成生產

    腦極體
    發布于 :2025年11月25日 22:56:58

    國產AI芯片真能扛住“內卷”?海思昇騰的這波操作藏了多少細節?

    最近行業都在說“AI的命門”,但國產芯片真的能接住這波需求嗎? 前陣子接觸到海思昇騰910B,實測下來有點超出預期——7nm工藝下
    發表于 10-27 13:12

    什么是AI模組?

    未來,騰視科技將繼續深耕AI模組領域,全力推動AI邊緣計算行業的深度發展。隨著AI技術的不斷演進和物聯網應用的持續拓展,騰視科技的
    的頭像 發表于 09-19 15:26 ?1211次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    什么是AI模組?

    未來,騰視科技將繼續深耕AI模組領域,全力推動AI邊緣計算行業的深度發展。隨著AI技術的不斷演進和物聯網應用的持續拓展,騰視科技的
    的頭像 發表于 09-19 15:25 ?477次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    科技上線赤兔推理引擎服務,創新解鎖FP8大模型

    模型輕量化部署方案。用戶通過遠程平臺預置的模型鏡像與AI工具,僅需50%的GPU
    的頭像 發表于 07-30 21:44 ?751次閱讀

    后摩智能發布全新端邊大模型AI芯片

    ,就能讓PC、智能語音設備、機器人等智能移動終端高效運行1.5B70B 參數的本地大模型,真正實現了"高
    的頭像 發表于 07-26 16:09 ?1293次閱讀

    一文看懂AI集群

    最近這幾年,AI浪潮席卷全球,成為整個社會的關注焦點。大家在討論AI的時候,經常會提到AI集群。AI
    的頭像 發表于 07-23 12:18 ?1099次閱讀
    一文看懂<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>集群

    157 TOPS !AIO-OrinNX 主板助力邊緣 AI 應用

    Firefly最新推出NVIDlAJetsonOrin主板,搭載JetsonOrin系列核心模組,最高可達157TOPS,支持大模型私有化部署,為邊緣
    的頭像 發表于 04-02 16:33 ?2820次閱讀
    157 TOPS <b class='flag-5'>算</b><b class='flag-5'>力</b>!AIO-OrinNX 主板助力邊緣 <b class='flag-5'>AI</b> 應用

    DeepSeek推動AI需求:800G光模塊的關鍵作用

    隨著人工智能技術的飛速發展,AI需求正以前所未有的速度增長。DeepSeek等大模型的訓練與推理任務對
    發表于 03-25 12:00

    兆芯全面部署DeepSeek R1大模型

    近日,基于兆芯高性能通用處理器的PC終端、工作站以及服務器成功實現DeepSeek-R1-Distill模型(1.5B/7B/32B/
    的頭像 發表于 02-25 13:45 ?885次閱讀

    IBM在watsonx.ai平臺推出DeepSeek R1蒸餾模型

    IBM近日宣布了一項重要更新,為其企業級AI開發平臺watsonx.ai引入了DeepSeek R1的Llama 3.1 8B和Llama 3.3 70b蒸餾版本。這一舉措旨在通過先進
    的頭像 發表于 02-14 10:21 ?905次閱讀

    國家超互聯網平臺上線多款AI模型

    模型均具備強大的推理能力。更令人振奮的是,平臺還計劃在不久的將來推出更大容量的32B70B版本,以滿足用戶對更高性能AI模型的需求。 De
    的頭像 發表于 02-06 14:50 ?643次閱讀

    科技云報到:要更要“利”,“精裝”觸發大模型產業新變局?

    科技云報到:要更要“利”,“精裝”觸發大模型產業新變局?
    的頭像 發表于 01-16 10:24 ?850次閱讀

    魔方上本地部署Phi-4模型

    ?作者:魔方創始人/英特爾邊緣計算創新大使 劉 前面我們分享了《Meta重磅發布Llama 3.3 70B:開源AI
    的頭像 發表于 01-15 11:05 ?802次閱讀
    在<b class='flag-5'>算</b><b class='flag-5'>力</b>魔方上本地部署Phi-4<b class='flag-5'>模型</b>