国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

揭示大模型剪枝技術(shù)的原理與發(fā)展

AI科技大本營 ? 來源:AI科技大本營 ? 2024-11-19 16:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當(dāng)你聽到「剪枝」二字,或許會聯(lián)想到園丁修整枝葉的情景。而在 AI 大模型領(lǐng)域,這個詞有著特殊的含義 —— 它是一種通過“精簡”來提升大模型效率的關(guān)鍵技術(shù)。隨著 GPT、LLaMA 等大模型規(guī)模的持續(xù)膨脹,如何在保持性能的同時降低資源消耗,已成為亟待解決的難題。本文將揭示大模型剪枝技術(shù)的原理與發(fā)展,帶你一次性讀懂剪枝。

隨著人工智能的快速發(fā)展,大模型以其卓越的性能在眾多領(lǐng)域中占據(jù)了重要地位。然而,大模型驚人的參數(shù)規(guī)模也帶來了一系列挑戰(zhàn),如高昂的訓(xùn)練成本、巨大的存儲需求和推理時的計(jì)算負(fù)擔(dān)。為了解決這些問題,大模型剪枝技術(shù)應(yīng)運(yùn)而生,成為壓縮大模型的關(guān)鍵手段。本文將簡要介紹大模型剪枝技術(shù)的背景及原理、代表性方法和研究進(jìn)展。

背景及原理

當(dāng)今大模型的“身軀”越來越龐大,對資源的需求也日益增加。如 LLaMA 3.1,且不說其訓(xùn)練算力高達(dá) 24000塊 H100,訓(xùn)練數(shù)據(jù)量高達(dá) 15T tokens(Qwen 2.5 在 18T tokens 的數(shù)據(jù)集上進(jìn)行了預(yù)訓(xùn)練,成為目前訓(xùn)練數(shù)據(jù)最多的開源大模型),單看表 1 和表 2 中 LLaMA 3.1 在推理和微調(diào)時的內(nèi)存需求,對普通用戶而言就是難以承受之重。這些龐大的需求不僅對硬件資源提出了極高的要求,也限制了模型的可擴(kuò)展性和實(shí)用性。大模型剪枝技術(shù)通過減少模型中的參數(shù)數(shù)量,旨在降低這些需求,同時盡量保持模型的性能。

5a0fcf86-9dbb-11ef-93f3-92fbcf53809c.png

表 1 LLaMA 3.1 推理內(nèi)存需求(不包括 KV 緩存)

5a319562-9dbb-11ef-93f3-92fbcf53809c.png

表 2 LLaMA 3.1 微調(diào)內(nèi)存需求

剪枝“流派”的開山鼻祖是圖靈獎得主、深度學(xué)習(xí)“三巨頭”之一 Yann LeCun,他在 1989 年 NeurIPS 會議上發(fā)表的《Optimal Brain Damage》[1]是第一篇剪枝工作。后來剪枝“流派”逐漸開枝散葉,如今可主要分為兩大類:非結(jié)構(gòu)化剪枝和結(jié)構(gòu)化剪枝。非結(jié)構(gòu)化剪枝通過移除單個權(quán)重或神經(jīng)元得到稀疏權(quán)重矩陣,這種方法易于實(shí)現(xiàn)且性能指標(biāo)較高,但需要專門的硬件或軟件支持來加速模型;結(jié)構(gòu)化剪枝通過去除基于特定規(guī)則的連接來實(shí)現(xiàn),如層級剪枝、塊級剪枝等,這種方法不需要專門的軟硬件支持,但算法更為復(fù)雜。

兩類剪枝方法在大模型上都有很多的嘗試和應(yīng)用,但考慮到通用性,我們主要關(guān)注結(jié)構(gòu)化剪枝,本文的第二部分也將主要介紹 LLM 結(jié)構(gòu)化剪枝的經(jīng)典文章 LLM-Pruner。

下面談一談剪枝的理論基礎(chǔ)。首先,所謂的理論基礎(chǔ)只是暫時的,在一個高速發(fā)展的學(xué)科中,很難確保今天的理論不會被明天的實(shí)驗(yàn)推翻。在傳統(tǒng)上,人們一直認(rèn)為剪枝的基礎(chǔ)是 DNN 的過參數(shù)化,即深度神經(jīng)網(wǎng)絡(luò)參數(shù)比擬合訓(xùn)練數(shù)據(jù)所需參數(shù)更多,可以剪去一部分以降低網(wǎng)絡(luò)復(fù)雜度而盡量不影響其性能。 在 2019 年,有學(xué)者提出了彩票假設(shè)(ICLR 2019 best paper)[2]:一個隨機(jī)初始化的神經(jīng)網(wǎng)絡(luò)里包括一個子網(wǎng)絡(luò),當(dāng)該子網(wǎng)絡(luò)被單獨(dú)訓(xùn)練時,能在最多相同迭代次數(shù)后達(dá)到原始網(wǎng)絡(luò)訓(xùn)練后的性能——就好比一堆彩票中存在一個中獎子集,只要買了這個子集就能獲得最大收益。 隨后,又有學(xué)者在《What’sHiddenin a Randomly Weighted Neural Network?》中提出了“近似加強(qiáng)版”彩票假設(shè)(CVPR 2020)[3]:在一個隨機(jī)權(quán)重的足夠過參數(shù)化的神經(jīng)網(wǎng)絡(luò)中,存在一個子網(wǎng)絡(luò),無需訓(xùn)練,其性能與相同參數(shù)量訓(xùn)練過的網(wǎng)絡(luò)相當(dāng)。 再隨后,又有學(xué)者聲稱自己證明了這個“近似加強(qiáng)版”的彩票假設(shè),并在標(biāo)題里宣稱 Pruning is all you need(ICML 2020)[4]。也就是說,如圖 1 所示,以后不需要訓(xùn)練了,我們只用找一個足夠大的網(wǎng)絡(luò),剪啊剪啊就能得到一個性能很好的子網(wǎng)絡(luò)。這個說法如果成立當(dāng)然是極好的,因?yàn)榛谔荻鹊膬?yōu)化算法訓(xùn)練時間長,且是次優(yōu)的,但問題在于缺乏有效的純剪枝算法,所以目前剪枝的基本流程還是:訓(xùn)練、剪枝、微調(diào)。另外,作者是用二值小網(wǎng)絡(luò)+推廣證明的,太過理想化,而且沒有考慮非線性的情況。近年來,雖然彩票假設(shè)及其衍生理論在一些研究領(lǐng)域取得了進(jìn)展,例如圖中獎彩票(KDD 2023)[5]和對偶彩票假設(shè)(ICLR 2022)[6],但在大模型領(lǐng)域,我們尚未觀察到具有顯著影響力的研究工作。

5a3a0e54-9dbb-11ef-93f3-92fbcf53809c.png

圖 1 LLaMA 3.1 微調(diào)內(nèi)存需求

代表性方法:LLM-Pruner

本節(jié)將以首個針對大模型的結(jié)構(gòu)化剪枝框架——LLM-Pruner(NeurIPS 2023)[7]為例,介紹大模型剪枝的基本流程。該框架特點(diǎn)為任務(wù)無關(guān)的壓縮、數(shù)據(jù)需求量少、快速和全自動操作,主要包括以下三個步驟:(1)分組階段

本階段的主要工作是根據(jù)依賴性準(zhǔn)則,將 LLM 中互相依賴的神經(jīng)元劃分為一組。依賴性準(zhǔn)則為:若 i 是 j 的唯一前驅(qū),則 j 依賴于 i;若 j 是 i 的唯一后繼,則 i 依賴于 j。在具體操作中,需要分別將網(wǎng)絡(luò)中每個神經(jīng)元作為初始節(jié)點(diǎn),依賴關(guān)系沿方向傳導(dǎo),傳導(dǎo)過程中遍歷的神經(jīng)元為一組,一組需同時剪枝。以圖 2 中 Group Type B(即 MHA,多頭注意力)為例,從 Head 1 開始傳導(dǎo),Head 1 是上面兩個虛線圈神經(jīng)元的唯一前驅(qū),是下面六個虛線圈神經(jīng)元的唯一后繼,它們都依賴于 Head 1,故被劃分為一組。

5a5620b2-9dbb-11ef-93f3-92fbcf53809c.png

圖 2 LLaMA 中耦合結(jié)構(gòu)的簡化示例 (2)評估階段

本階段的主要工作是根據(jù)重要性準(zhǔn)則評估每個組對模型整體性能的貢獻(xiàn),貢獻(xiàn)小的組將被修剪。常見的重要性準(zhǔn)則有:L1 范數(shù)(向量中各元素絕對值之和)、L2 范數(shù)(向量中各元素平方和的開平方)、損失函數(shù)的 Taylor 展開一階項(xiàng)、損失函數(shù)的 Taylor 展開二階項(xiàng)等。LLM-Pruner 采用損失函數(shù)的 Taylor 展開來計(jì)算重要性,并提出了兩條計(jì)算組重要性的路徑:權(quán)重向量級別和單個參數(shù)級別。

權(quán)重向量級別的重要性公式如下所示, 代表每個神經(jīng)元的權(quán)重向量,H 是 Hessian 矩陣, 表示 next-token prediction loss。一般來說由于模型在訓(xùn)練數(shù)據(jù)集上已經(jīng)收斂,即 , 所以一階項(xiàng)通常為 0 。然而,由于 LLM-Pruner 所用數(shù)據(jù)集 D 并不是原始訓(xùn)練數(shù)據(jù),故 。同時,由于 Hessian 矩陣的計(jì)算復(fù)雜度過高, 所以只計(jì)算了一階項(xiàng)。

5a709046-9dbb-11ef-93f3-92fbcf53809c.png

單個參數(shù)級別的重要性公式如下所示, 內(nèi)的每個參數(shù)都被獨(dú)立地評估其重要性,其中 Hessian 矩陣用 Fisher 信息矩陣進(jìn)行了近似。在 LLM-Pruner 的源碼中,這兩個公式被如圖 3 所示的代碼片段表示。

5a7a4cd0-9dbb-11ef-93f3-92fbcf53809c.png

5a7f26b0-9dbb-11ef-93f3-92fbcf53809c.png

圖 3 評估重要性的源碼

最后,通過對每組內(nèi)權(quán)重向量或參數(shù)的重要性進(jìn)行累加/累乘/取最大值/取最后一層值,就得到了每組的重要性,再按剪枝率剪去重要性低的組即可。

(3)微調(diào)階段

本階段的主要工作是使用LoRA微調(diào)模型中每個可學(xué)習(xí)的參數(shù)矩陣W,以減輕剪枝帶來的性能損失。LoRA的公式為W+?W=W+BA,其具體步驟如圖4所示:

① 在模型的特定層中用 Wd×k+ΔWd×k 替換原有的權(quán)重矩陣 Wd×k,并把矩陣 ?Wd×k 分解成降維矩陣 Ad×r 和升維矩陣 Br×k,r << min(d, k)。

② 將 A 隨機(jī)高斯初始化,B 置為 0,凍結(jié)預(yù)訓(xùn)練模型的參數(shù) W,只訓(xùn)練矩陣 A 和矩陣 B。

③ 訓(xùn)練完成后,將 B 矩陣與 A 矩陣相乘再與矩陣 W 相加,作為微調(diào)后的模型參數(shù)。

5a8d861a-9dbb-11ef-93f3-92fbcf53809c.png

圖 4LoRA基本步驟

根據(jù)表 3 的實(shí)驗(yàn)結(jié)果,剪枝 20% 后,模型的性能為原模型的 89.8%,經(jīng)過 LoRA 微調(diào)后,性能可提升至原模型的 94.97%。在大多數(shù)數(shù)據(jù)集上,剪枝后的 5.4B LLaMA 甚至優(yōu)于 ChatGLM-6B,所以如果需要一個具有定制尺寸的更小的模型,理論上用 LLM-Pruner 剪枝一個比再訓(xùn)練一個成本更低效果更好。

然而,根據(jù)表 4 的數(shù)據(jù)顯示,剪枝 50% 后模型表現(xiàn)并不理想,LoRA 微調(diào)后綜合指標(biāo)也僅為原模型 77.44%,性能下降幅度較大。如何進(jìn)行高剪枝率的大模型結(jié)構(gòu)化剪枝,仍是一個具有挑戰(zhàn)性的問題。

5a9b6564-9dbb-11ef-93f3-92fbcf53809c.png

表 3LLaMA-7B 剪枝 20% 前后性能對比

5ad3c454-9dbb-11ef-93f3-92fbcf53809c.png

表 4LLaMA-7B 剪枝 50% 前后性能對比

研究進(jìn)展

大模型剪枝技術(shù)已經(jīng)成為近兩年的研究熱點(diǎn),無論是在工業(yè)界還是學(xué)術(shù)界,都有許多研究人員投身于這一領(lǐng)域——這一點(diǎn)從表 5 和表 6 中可以明顯看出,而表格中列出的論文只是眾多大模型剪枝研究工作中的一小部分。除此之外,還有學(xué)者提出了介于結(jié)構(gòu)化剪枝和非結(jié)構(gòu)化剪枝之間的半結(jié)構(gòu)化剪枝,如 Nvidia 的 N:M 稀疏化,就是每 M 個連續(xù)元素留下 N 個非零元素,但與前兩者相比目前相關(guān)探索較少。隨著研究的不斷深入和技術(shù)的持續(xù)進(jìn)步,我們有理由相信,剪枝將繼續(xù)在大模型領(lǐng)域扮演重要的角色,并推動大模型技術(shù)的創(chuàng)新和發(fā)展。

5af5ef98-9dbb-11ef-93f3-92fbcf53809c.png

表5大模型非結(jié)構(gòu)化剪枝

5b128d24-9dbb-11ef-93f3-92fbcf53809c.png

表6大模型結(jié)構(gòu)化剪枝

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50098

    瀏覽量

    265427
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5189

原文標(biāo)題:一文讀懂剪枝(Pruner):大模型也需要“減減肥”?

文章出處:【微信號:AI科技大本營,微信公眾號:AI科技大本營】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    七大基于大模型的地面測控站網(wǎng)調(diào)度分系統(tǒng)軟件的應(yīng)用與未來發(fā)展

    ? ? 七大基于大模型的地面測控站網(wǎng)智能調(diào)度系統(tǒng) ? ?“七大基于大模型的地面測控站網(wǎng)調(diào)度分系統(tǒng)”并非公開資料中的標(biāo)準(zhǔn)化術(shù)語,而是結(jié)合國際航天測控領(lǐng)域發(fā)展趨勢,以及人工智能大模型
    的頭像 發(fā)表于 12-19 15:42 ?369次閱讀

    遠(yuǎn)距離無線通信WiFi技術(shù)技術(shù)發(fā)展、未來趨勢與挑戰(zhàn)

    探討遠(yuǎn)距離無線通信技術(shù)發(fā)展及應(yīng)用,揭示這一領(lǐng)域的前沿突破以及它將如何改變我們的生活與工作方式。
    的頭像 發(fā)表于 12-04 18:17 ?1277次閱讀

    聆思大模型智能FAE,看得懂技術(shù),答得準(zhǔn)問題

    聆思大模型智能FAE,看得懂技術(shù),答得準(zhǔn)問題 在智能硬件開發(fā)的嵌入式技術(shù)支持中,響應(yīng)遲緩、人員培訓(xùn)成本高企、服務(wù)時間覆蓋不足等痛點(diǎn),常常制約FAE團(tuán)隊(duì)效率 聆思大模型智能FAE作為專為
    發(fā)表于 09-30 11:29

    國慶出國游,時空壺新T1翻譯機(jī),首個端側(cè)模型突破助力跨語言交流

    的旗艦機(jī)型,最大亮點(diǎn)是搭載業(yè)內(nèi)首個端側(cè)AI翻譯模型。這一模型將原本依賴云端算力的復(fù)雜AI翻譯模型,通過先進(jìn)的模型剪枝、量化壓縮等
    的頭像 發(fā)表于 09-12 12:20 ?1025次閱讀
    國慶出國游,時空壺新T1翻譯機(jī),首個端側(cè)<b class='flag-5'>模型</b>突破助力跨語言交流

    格靈深瞳視覺基礎(chǔ)模型Glint-MVT的發(fā)展脈絡(luò)

    》主題演講,從熱點(diǎn)話題“世界模型”引入,介紹格靈深瞳自研視覺基礎(chǔ)模型Glint-MVT的發(fā)展脈絡(luò)和技術(shù)亮點(diǎn),講述視覺模型基座如何讓AI理解復(fù)
    的頭像 發(fā)表于 09-05 17:13 ?1703次閱讀
    格靈深瞳視覺基礎(chǔ)<b class='flag-5'>模型</b>Glint-MVT的<b class='flag-5'>發(fā)展</b>脈絡(luò)

    模型工具的 “京東答案”

    隨著大模型技術(shù)的迅猛發(fā)展,AI工具已成為重要的輔助生產(chǎn)力工具和工作伙伴。它能夠顯著提升工作效率、幫助解決業(yè)務(wù)痛點(diǎn),甚至能通過知識延展與智能協(xié)同,幫助團(tuán)隊(duì)突破傳統(tǒng)認(rèn)知邊界。掌握大模型工具
    的頭像 發(fā)表于 08-25 16:09 ?573次閱讀

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】第三章:探索 DeepSeek - V3 技術(shù)架構(gòu)的奧秘

    ” 壓縮方案,在降低計(jì)算資源消耗的同時,努力減少精度損失。 這背后反映的是 AI 技術(shù)發(fā)展中一個重要命題:如何在有限硬件條件下,讓模型既跑得快(效率高)又跑得穩(wěn)(精度夠),這種平衡藝術(shù),彰顯了技術(shù)研發(fā)的細(xì)膩
    發(fā)表于 07-20 15:07

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    在人工智能大模型重塑教育與社會發(fā)展的當(dāng)下,無論是探索未來職業(yè)方向,還是更新技術(shù)儲備,掌握大模型知識都已成為新時代的必修課。從職場上輔助工作的智能助手,到課堂用于學(xué)術(shù)研究的智能工具,大
    發(fā)表于 07-04 11:10

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過程對顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來了挑戰(zhàn)。為了解決這一問題,本文將探討大
    發(fā)表于 07-03 19:43

    輪邊驅(qū)動電機(jī)專利技術(shù)發(fā)展

    ,具有較高的靈敏度。 本文主要以 DWPI 專利數(shù)據(jù)庫以及 CNABS 數(shù)據(jù)庫中的檢索結(jié)果為分析樣本,從專利文獻(xiàn)的視角對輪邊驅(qū)動電機(jī)的技術(shù)發(fā)展進(jìn)行了全面的統(tǒng)計(jì)分析,總結(jié)了與輪邊驅(qū)動電機(jī)相關(guān)的國內(nèi)和國外
    發(fā)表于 06-10 13:15

    【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    章深入剖析 DeepSeek-V3 的模型架構(gòu)、訓(xùn)練框架、推理階段優(yōu)化、后訓(xùn)練優(yōu)化等關(guān)鍵技術(shù)。從混合專家模型(MoE)的起源與發(fā)展,到 DeepSeek-V3 的 MoE 優(yōu)化,再到對
    發(fā)表于 06-09 14:38

    如何使用Docker部署大模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?1120次閱讀

    模型如何推動自動駕駛技術(shù)革新?

    [首發(fā)于智駕最前沿微信公眾號]近年來,人工智能技術(shù)正以前所未有的速度在各個領(lǐng)域滲透與應(yīng)用,而大模型(大語言模型和多模態(tài)大模型)的迅猛發(fā)展為自
    的頭像 發(fā)表于 04-20 13:16 ?1022次閱讀
    大<b class='flag-5'>模型</b>如何推動自動駕駛<b class='flag-5'>技術(shù)</b>革新?

    淺談華為通信大模型的關(guān)鍵技術(shù)

    在MWC25巴塞羅那展期間,華為憑借通信大模型的突破性技術(shù),榮獲2025年GSMA GLOMO “最佳網(wǎng)絡(luò)軟件突破獎”和“CTO甄選:卓越移動技術(shù)獎”。這兩個獎項(xiàng)是對華為在模型小型化、
    的頭像 發(fā)表于 03-26 14:35 ?1208次閱讀