国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

特斯拉前AI總監(jiān)Andrej Karpathy:大模型有內(nèi)存限制,這個妙招挺好用!

CVer ? 來源:機器之心 ? 2023-09-04 15:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Andrej Karpathy 用通俗易懂的語言介紹了 speculative execution。

「如今,LLM(大語言模型)并不是單點突破的 —— 而是需要多個重要組件有效協(xié)同工作的系統(tǒng)。Speculative decoding 是幫助我們從系統(tǒng)角度思考的一個很好的例子。」愛丁堡大學博士生符堯表示道。

58f1639a-4a73-11ee-97a6-92fbcf53809c.png

符堯上述觀點評論的是特斯拉AI 總監(jiān)、年初重回 OpenAI 的 Andrej Karpathy 剛剛發(fā)布的一條推特。

人形機器人公司 1X Technologies 的 AI 副總裁 Eric Jang 評價道:「Karpathy 很好的解釋了 LLM 的 speculative execution。其他自回歸模型可能會以類似的方式加速。連續(xù)(擴散)模型可能從 K 步中獲益較少(可能在第 1 步后偏離猜測),但可以將其應用于 VQ-latents 的離散代碼。」

590ef96e-4a73-11ee-97a6-92fbcf53809c.png

看完上述評價,我們大概也了解了,Karpathy 說的「Speculative execution」,這是優(yōu)化技術(shù)的一類,采用這個技術(shù)的計算機系統(tǒng)會根據(jù)現(xiàn)有信息,利用空轉(zhuǎn)時間提前執(zhí)行一些將來可能用得上,也可能用不上的指令。如果指令執(zhí)行完成后發(fā)現(xiàn)用不上,系統(tǒng)會拋棄計算結(jié)果,并回退執(zhí)行期間造成的副作用(如緩存)。

為了讓大家更好的理解 Karpathy 的內(nèi)容。我們先介紹一下「Speculative decoding」方法,對后續(xù)理解更加有益,其主要用于加速大模型的推理。據(jù)了解,GPT-4 泄密報告也提到了 OpenAI 線上模型推理使用了它(不確定是否 100%)。

關(guān)于「Speculative decoding」,已有幾篇重要文獻可供參考,這也是 Karpathy 為了寫這則推特所參考的論文,包括谷歌今年 1 月發(fā)表的論文《Fast Inference from Transformers via Speculative Decoding》、DeepMind 今年 2 月發(fā)表的論文《Accelerating Large Language Model Decoding with Speculative Sampling》,以及谷歌等機構(gòu) 2018 年的論文《Blockwise Parallel Decoding for Deep Autoregressive Models 》 。

簡單來說,「Speculative decoding」使用兩個模型:一個是原始目標模型稱為大模型,另一個是比原始模型小得多的近似模型稱為小模型。主要思想是先讓小模型提前解碼多個 token 進行猜測,并將它們作為單個 batch 輸入到一個大模型中進行審核修正,其效果和直接用大模型解碼等價。如果小模型猜測的不準確,那么大型模型會放棄小模型預測的 token,繼續(xù)使用大型模型進行解碼。

由于小模型計算量小,從而大大減少了內(nèi)存訪問需求。

介紹完「Speculative decoding」,我們再回到 Karpathy 的推特。Karpathy 是針對下面內(nèi)容回復的。

59286e94-4a73-11ee-97a6-92fbcf53809c.gif

Karpathy 表示:對于 LLM 來說,「Speculative execution」 是一種極好的推理 — 時間優(yōu)化方法。

它取決于以下方面:在單個輸入 token 上分發(fā) LLM 所花費的時間與在批處理中分發(fā) K 個輸入 token 所花費的時間一樣多。產(chǎn)生這樣的原因是因為采樣嚴重受內(nèi)存限制:模型運行時的大部分工作不是在做計算,而是從 VRAM 讀取 transformer 的權(quán)重到片上緩存進行處理。如果你要做的工作是來讀取這些權(quán)值,你可以把它們應用到一整批輸入向量上。

但是我們不能一次性采樣一批 K 個 token,因為每 N 個 token 都取決于我們在第 N-1 步采樣的 token。由于存在串行依賴性,因此基線實現(xiàn)只是從左到右逐一進行。

現(xiàn)在最聰明的想法是使用一個小而便宜的草稿模型(draft model),先生成 K 個 token 候選序列,即一個「草稿」。然后用大模型批量的將輸入組合在一起。速度幾乎與僅輸入一個 token 一樣快。接著從左到右遍歷模型和樣本 token 預測的 logits。任何與「草稿」一致的樣本都允許立即跳到下一個 token。如果存在分歧,那么就丟棄「草稿」并承擔一些一次性工作的成本(對「草稿」進行采樣并為所有后續(xù) token 進行前向傳遞)。

這種方法起作用的原因在于,很多「草稿」token 都會被接受,因為它們很容易,所以即使是更小的草稿模型也能得到它們。當這些簡單的 token 被接受時,我們會跳過這些部分。大模型不同意的 hard token 會回落到原始速度,但由于一些額外的工作,實際上速度會慢一些。

Karpathy 表示,這個奇怪的技巧之所以有效,是因為 LLM 在推理時受到內(nèi)存限制,在對單個序列進行采樣的 batch size=1 設(shè)置中,很大一部分本地 LLM 用例都屬于這種情況。因為大多數(shù) token 都很「簡單」。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39793

    瀏覽量

    301424
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10073
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5184
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    346

    瀏覽量

    1331

原文標題:特斯拉前AI總監(jiān)Andrej Karpathy:大模型有內(nèi)存限制,這個妙招挺好用!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    太強了!AI PC搭載70B大模型,算力狂飆,內(nèi)存開掛

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)AI推理助推了DeepSeek一體機的市場熱度,而AI PC對DeepSeek大模型的支持也將是廣大用戶采購AI PC的參考因素。不同配置的
    的頭像 發(fā)表于 03-24 08:52 ?3599次閱讀
    太強了!<b class='flag-5'>AI</b> PC搭載70B大<b class='flag-5'>模型</b>,算力狂飆,<b class='flag-5'>內(nèi)存</b>開掛

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負載。[Axon NPU 技術(shù)頁] 模型更小、更快、更省電 Neuton 模型相較 TensorFlow Lite:* 內(nèi)存
    發(fā)表于 01-31 23:16

    意法半導體STM32 AI模型庫助力邊緣AI落地應用

    在開發(fā)邊緣AI(Edge AI)時,可以說“理解問題本身”就已成功了一半。然而,隨著AI模型持續(xù)演進,即便是經(jīng)驗豐富的工程師,也會發(fā)現(xiàn)優(yōu)化變得越來越復雜。除此之外,如何在嚴格的
    的頭像 發(fā)表于 01-14 11:07 ?621次閱讀

    【CIE全國RISC-V創(chuàng)新應用大賽】基于 K1 AI CPU 的大模型部署落地

    核給系統(tǒng)和 I/O,使用 6 核推理 THREADS=6 # 上下文長度:由于內(nèi)存只有 8GB,模型占了 ~6GB,上下文限制在 2048 以防 OOM CTX_SIZE=2048 # 批處理大小
    發(fā)表于 11-27 14:43

    如何利用NPU與模型壓縮技術(shù)優(yōu)化邊緣AI

    隨著人工智能模型從設(shè)計階段走向?qū)嶋H部署,工程師面臨著雙重挑戰(zhàn):在計算能力和內(nèi)存受限的嵌入式設(shè)備上實現(xiàn)實時性能。神經(jīng)處理單元(NPU)作為強大的硬件解決方案,擅長處理 AI 模型密集的計
    的頭像 發(fā)表于 11-07 15:26 ?1262次閱讀
    如何利用NPU與<b class='flag-5'>模型</b>壓縮技術(shù)優(yōu)化邊緣<b class='flag-5'>AI</b>

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    、現(xiàn)階段更智能、更接近AGI的6中算法與模型 1、MoE模型 MoE模型作為Transfomer模型的后繼者,代表著AI技術(shù)的一項重大創(chuàng)新和
    發(fā)表于 09-18 15:31

    科普:什么AI 內(nèi)存技術(shù)

    問題。 為什么 AI 內(nèi)存很重要? 在 AI 模型訓練和推理過程中,大量的數(shù)據(jù)需要從內(nèi)存傳輸?shù)教幚砥鳎ㄈ?GPU 或 TPU)進行計算。傳統(tǒng)
    的頭像 發(fā)表于 09-03 15:44 ?1396次閱讀

    在K230中,如何使用AI Demo中的object_detect_yolov8n,YOLOV8多目標檢測模型

    在K230的AI開發(fā)教程文檔中,可以看到有源碼的AI Demo,其中包括yolov8n模型,在倉庫里可以看到源碼 我想請問各位大佬,如何使用這個程序?如何更改程序,替換為我自己的
    發(fā)表于 08-07 06:48

    ai_cube訓練模型最后部署失敗是什么原因?

    ai_cube訓練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    大家都在用什么AI軟件?有沒有好用的免費的AI軟件推薦一下?

    大家都在用什么AI軟件?有沒有好用的免費的AI軟件推薦一下?直接發(fā)個安裝包,謝謝。比如deepseek、Chatgpt、豆包、阿里AI、百度AI
    發(fā)表于 07-09 18:30

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應手

    模型庫的限制,聯(lián)發(fā)科還首發(fā)了開源彈性架構(gòu)。區(qū)別于過往的開放接口,只能部署特定架構(gòu)模型,開放彈性架構(gòu)允許開發(fā)者直接調(diào)整平臺源代碼,無需等待芯片廠商的支持,即可完成目標或其他自研大模型輕松
    發(fā)表于 04-13 19:52

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計算與嵌入式開發(fā)

    高效連接 BPI-AI2N 標配 8GB LPDDR4X 內(nèi)存、32GB eMMC 存儲及 64MB QSPI Flash,確保數(shù)據(jù)存取高效穩(wěn)定。同時,BPI-AI2N Carrier提供多種高速接口
    發(fā)表于 03-19 17:54

    訓練好的ai模型導入cubemx不成功怎么處理?

    訓練好的ai模型導入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18