国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

新火種AI|算力不足,小模型成AI模型發展下個方向?

新火種 ? 來源:新火種 ? 作者:新火種 ? 2024-04-23 21:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:一號

編輯:美美

大模型不是AI的唯一出路,把模型做小也是本事。

這段時間,AI模型界是真的熱鬧,新的模型不斷涌現,不管是開源還是閉源,都在刷新成績。就在前幾天,Meta就上演了一出“重奪開源鐵王座”的好戲。發布了Llama 3 8B和70B兩個版本,在多項指標上都超越了此前開源的Grok-1和DBRX,成為了新的開源大模型王者。

wKgaomYntYWALO4kAAF9o0JhNoc638.jpg

并且Meta還透露,之后還將推出400B版本的Llama 3,它的測試成績可是在很多方面上都追上了OpenAI閉源的GPT-4,讓很多人都直呼,開源版的GPT-4就要來了。盡管在參數量上來看,相比Llama 2,Llama 3并沒有特別大的提升,但是在某些表現上,Llama 3最小的8B版本都比Llama 2 70B要好。可見,模型性能的提升,并非只有堆參數這一種做法。

Llama 3重回開源之王

當地時間4月18日,“真·OpenAI”——Meta跑出了目前最強的開源大模型Llama 3。本次Meta共發布了兩款開源的Llama 3 8B和Llama 3 70B模型。根據Meta的說法,這兩個版本的Llama 3是目前同體量下,性能最好的開源模型。并且在某些數據集上,Llama 3 8B的性能比Llama 2 70B還要強,要知道,這兩者的參數可是相差了一個數量級。

wKgZomYntYWAVtnWAAB9WAUVD7g495.jpg

能夠做到這點,可能是因為Llama 3的訓練效率要高3倍,它基于超過15T token訓練,這比Llama 2數據集的7倍還多。在MMLU、ARC、DROP等基準測試中,Llama 3 8B在九項測試中領先于同行,Llama 3 70B也同樣擊敗了Gemini 1.5 Pro和Claude 3 Sonnet。

wKgaomYntYaAMuX1AABjhtgBFLk869.jpg

盡管在參數量上并沒有特別大的提升,但毫無疑問,Llama 3的性能已經得到了很大的進步,可以說是用相近的參數量獲得了更好的性能,這可能是在算力資源短期內無法滿足更大規模運算的情況下所作出的選擇,但這體現了AI模型的研發并非只有堆砌參數這一條“大力出奇跡”的道路。

把大模型做小正成業內共識

實際上,在Llama 3之間的兩位開源王者,Grok-1和DBRX也致力于把模型做小。和以往的大模型,使用一個模型解決一切問題的方式不同,Grok-1和DBRX都采用了MoE架構(專家模型架構),在面對不同問題的時候,調用不同的小模型來解決,實現在節省算力的情況下,保證回答的質量。

而微軟也在Llama 3發布后沒幾天,就出手截胡,展示了Phi-3系列小模型的技術報告。在這份報告中,僅3.8B參數的Phi-3-mini在多項基準測試中都超過了Llama 3 8B,并且為了方便開源社區使用,還特意把它設計成了與Llama系列兼容的結構。更夸張的是,微軟的這個模型,在手機上也能直接跑,經4bit量化后的phi-3-mini在iPhone 14 pro和iPhone 15使用的蘋果A16芯片上能夠跑到每秒12 token,這也就意味著,現在手機上能本地運行的最佳開源模型,已經做到了ChatGPT水平。

wKgaomYntYeAedOdAAH625X7FZ0117.jpg

而除了mini杯外,微軟也一并發布了小杯和中杯,7B參數的Phi-3-small和14B參數的Phi-3-medium。在技術報告中,微軟也說了,去年研究團隊就發現,單純堆砌參數量并非提升模型性能的唯一路徑,反而是精心設計訓練的數據,尤其是利用大模型本身去生成合成數據,并配合嚴格過濾的高質量數據,能夠讓中小模型的能力大幅躍升,所以他們也說,Textbooks are all you need,教科書級別的高質量數據才是重要的。

wKgZomYntYeACrYjAAAqb2tDS8k509.jpg

AI模型發展正著力于擺脫限制

英偉達乘著AI的東風,成為行業內說一不二,當之無愧的“賣鏟子的人”,各家AI公司都將英偉達的GPU視為“硬通貨”,以致于誰囤有更多的英偉達的GPU,誰的AI實力就強。但英偉達的GPU的交付并未能始終跟上市場的需求。

因此,很多AI公司開始另謀出路,要么找其他的GPU生產商,要么決定自己研發AI芯片。即使你囤夠了英偉達的GPU,也還有其他限制,OpenAI在前段時間就被爆出,因為訓練GPT-6,差點把微軟的電網搞癱瘓。馬斯克也曾說過,當前限制AI發展的主要因素是算力資源,但在未來,電力會成為限制AI發展的另一阻礙。

wKgaomYntYiAPtWZAAF4Lc468Mk068.jpg

顯然,如果持續“大力出奇跡”,通過堆砌參數量來實現AI性能的提升,那么以上這些問題遲早會遇到,但是如果把大模型做小,使用較小的參數量,實現同樣或者更好的性能,那么將可以顯著減少對算力資源的需求,進而減少對電力資源的消耗,從而讓AI在有限資源的情況下,得到更好的發展。

因此,接下來,誰能在將模型做小的同時,還能實現性能的增長,也是實力的體現。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39793

    瀏覽量

    301403
  • 算力
    +關注

    關注

    2

    文章

    1532

    瀏覽量

    16742
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    華為發布AI容器技術Flex:ai平均利用率提升30%

    決方案。 ? 當前,AI產業正處于高速發展的黃金時期,海量需求如潮水般涌來。然而,資源利
    的頭像 發表于 11-26 08:31 ?7602次閱讀

    國產AI芯片真能扛住“內卷”?海思昇騰的這波操作藏了多少細節?

    最近行業都在說“AI的命門”,但國產芯片真的能接住這波需求嗎? 前陣子接觸到海思昇騰910B,實測下來有點超出預期——7nm工藝下
    發表于 10-27 13:12

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區
    發表于 10-14 07:14

    什么是AI模組?

    未來,騰視科技將繼續深耕AI模組領域,全力推動AI邊緣計算行業的深度發展。隨著AI技術的不斷
    的頭像 發表于 09-19 15:26 ?1704次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    什么是AI模組?

    未來,騰視科技將繼續深耕AI模組領域,全力推動AI邊緣計算行業的深度發展。隨著AI技術的不斷
    的頭像 發表于 09-19 15:25 ?823次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    實例,從而保持高計算效率。 2、Q算法 Q項目將大模型功能與A*和Q-learning等復雜算法結合,進一步推動了AI領域的蓬勃發展,標志著向AGI方向邁出了重要的一步。 可能達到的高
    發表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升還是智力

    體現在: 1、收益遞減 大模型的基礎的需要極大的,這首先源于昂貴的高性能AI芯片,然后是寶貴的電力、水等與環境相關的資源。 收益遞減體現在: ①
    發表于 09-14 14:04

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內容總覽

    是展望未來的AGI芯片,并探討相關的發展和倫理話題。 各章的目錄名稱如下: 第1章 大模型浪潮下,AI芯片的需求與挑戰免費 第2章 實現深度學習AI芯片的創新方法與架構 第3章
    發表于 09-05 15:10

    科技上線赤兔推理引擎服務,創新解鎖FP8大模型

    模型輕量化部署方案。用戶通過遠程平臺預置的模型鏡像與AI工具,僅需50%的GPU
    的頭像 發表于 07-30 21:44 ?908次閱讀

    網絡的“神經突觸”:AI互聯技術如何重構分布式訓練范式

    ? 電子發燒友網綜合報道 隨著AI技術迅猛發展,尤其是大型語言模型的興起,對于的需求呈現出爆炸性增長。這不僅推動了智
    的頭像 發表于 06-08 08:11 ?7441次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>網絡的“神經突觸”:<b class='flag-5'>AI</b>互聯技術如何重構分布式訓練范式

    企業部署AI模型怎么做

    當下,AI模型已成為驅動決策自動化、服務智能化與產品創新的核心引擎。然而,企業面對動輒數百億參數的大模型部署時,常陷入
    的頭像 發表于 06-04 09:26 ?886次閱讀

    AI原生架構升級:RAKsmart服務器在超大規模模型訓練中的突破

    近年來,隨著千億級參數模型的崛起,AI訓練對的需求呈現指數級增長。傳統服務器架構在應對分布式訓練、高并發計算和顯存優化等場景時逐漸顯露瓶頸。而RAKsmart為超大規模
    的頭像 發表于 04-24 09:27 ?790次閱讀

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    套件2.0,打造了一整套圍繞AI開發效率與落地路徑展開的“系統性解法”,為開發者提供了AI應用開發工具全家桶。同時,全新升級的旗艦5G智能體AI芯片天璣9400+也為智能體化用戶體驗提供了牢固的
    發表于 04-13 19:52

    DeepSeek推動AI需求:800G光模塊的關鍵作用

    隨著人工智能技術的飛速發展AI需求正以前所未有的速度增長。DeepSeek等大模型的訓練與推理任務對
    發表于 03-25 12:00

    接棒,慧榮科技以主控技術突破AI存儲極限

    ? 過去的AI模型通常走大磚飛的路子,通過疊加更強的,來推動AI
    的頭像 發表于 03-19 01:29 ?2832次閱讀
    存<b class='flag-5'>力</b>接棒<b class='flag-5'>算</b><b class='flag-5'>力</b>,慧榮科技以主控技術突破<b class='flag-5'>AI</b>存儲極限