国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型微調(diào)數(shù)據(jù)選擇和構(gòu)造技巧

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-12-20 14:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大模型場景微調(diào)里面,最關(guān)鍵地的一個是問題是:

選擇什么樣的數(shù)據(jù)微調(diào)?

大的方向上大家都能把握,大概無非是要注意數(shù)據(jù)的多樣性,要注意數(shù)據(jù)的質(zhì)量,那在實(shí)踐中有哪些技巧呢?

比如我們會經(jīng)常遇到下面幾種情況:

1.數(shù)據(jù)要不要都去標(biāo)注,標(biāo)的比較慢咋辦?

2.我已經(jīng)有一批標(biāo)好的數(shù)據(jù)了,再去選哪些數(shù)據(jù)送標(biāo)注比較好?

3.能不能總結(jié)出一套數(shù)據(jù)構(gòu)造方面自動化的方法?

其實(shí)在大模型之前,就有很多人研究過這樣的問題。在做一個模型時候,比如簡單的文本分類,我不可能一股腦把所有數(shù)據(jù)都扔給標(biāo)注,這樣干存在一個問題,一般情況下我們數(shù)據(jù)的分布都是符合一個長尾分布的。主要的幾個類別數(shù)據(jù)占據(jù)了90%的數(shù)據(jù)量,剩下的90%的類別只有10%的數(shù)據(jù)量。

比如小紅書上,query的意圖識別里,美食,穿搭,旅游攻略類非常多,但是還有一些同學(xué)去搜大模型微調(diào)的數(shù)據(jù)技巧。

如果說我們直接采樣一批線上的圖文文本,直接送給標(biāo)注的話,會存在一個嚴(yán)重的問題:他們標(biāo)注的數(shù)據(jù)大部分都是攻略類,技術(shù)類比較少,標(biāo)了3個月才攢了幾千條大模型技術(shù)文本,但是攻略類已經(jīng)成幾萬了。

這樣搞肯定是不行的,人力成本方面的消耗是在是太大了,并且模型因?yàn)閿?shù)據(jù)平衡的問題也沒有特別好,我們有沒有辦法去優(yōu)化這個過程呢?

在大模型微調(diào)里面對應(yīng)的生成小紅書文案場景,同樣的問題也是爬來的數(shù)據(jù)就可以直接用嗎?

大家都有個直觀的答案,就是去重,那我們再考慮模型上數(shù)據(jù)的迭代呢?如果數(shù)據(jù)是分階段爬去的怎么辦?已經(jīng)有一批人工處理的的高質(zhì)量數(shù)據(jù)怎么辦?

但其實(shí)從監(jiān)督學(xué)習(xí)的演進(jìn)來看,這套東西其實(shí)已經(jīng)被研究的很多了,用一個技術(shù)名詞叫 “主動學(xué)習(xí)”。

主動學(xué)習(xí)有兩個基本原則,在監(jiān)督訓(xùn)練的時候,注意主動發(fā)現(xiàn)數(shù)據(jù)的兩個方面,一個是數(shù)據(jù)多樣性,另外一個是數(shù)據(jù)的不確定性。這樣講是比較抽象的概念,那我們在大模型實(shí)踐中如何體現(xiàn)呢?

第一,數(shù)據(jù)的多樣性。

多樣性即為數(shù)據(jù)的去重,去重這件事的核心是相似度度量,現(xiàn)在的相似度度量方法大家用的比較多的是基于對比學(xué)習(xí)構(gòu)造的語義向量這套思路,當(dāng)然簡單的基于詞袋或者tfidf的方案也是可以的。有了核心的相似度度量方法后,我們可以使用簡單的onepass聚類方法進(jìn)行過濾,考慮復(fù)雜一點(diǎn)的話,我們可以使用帶優(yōu)化目標(biāo)的聚類:比如K-Center-Greedy算法,其約束條件是在最大化多樣性的情況下,使指令數(shù)據(jù)集最小。

bda740f4-9ef9-11ee-8b88-92fbcf53809c.png

另外,如果我們已經(jīng)有了一批已經(jīng)去重的人工處理過的高質(zhì)量數(shù)據(jù),那么我們?nèi)绾螌ふ遗c這批數(shù)據(jù)不一樣的數(shù)據(jù)呢?

這里有一個非常簡單實(shí)用的方案,并且這個方案可以用在很多其他的地方。

我們簡單地把已有的數(shù)據(jù)全部當(dāng)成正樣本打上1,然后待篩選的數(shù)據(jù)全部當(dāng)成負(fù)樣本打上0,我們使用deberta等構(gòu)建二分類模型,并進(jìn)行K-fold的交叉驗(yàn)證,在交叉驗(yàn)證過程中,選出每一個fold過程中的測試集合里概率接近于0的樣本。

通過這樣的操作,就能把長得與已有數(shù)據(jù)不一樣的數(shù)據(jù)給選出來了,并且這個過程是半監(jiān)督的。

套方案也可以用在很多其他地方,比如數(shù)據(jù)質(zhì)量選擇,只要我們有一批已經(jīng)確定標(biāo)簽/結(jié)果/標(biāo)注的種子數(shù)據(jù),就能通過這樣的方法選出與種子數(shù)據(jù)長得比較像的,長得不像的。

第二,數(shù)據(jù)的不確定性。

數(shù)據(jù)的不確定性主要體現(xiàn)數(shù)據(jù)的質(zhì)量篩選上,選取模型學(xué)的不那好的數(shù)據(jù),模型沒有把握的數(shù)據(jù)。

最簡單的,我們可以選出模型對應(yīng)PPL值比較差的那批數(shù)據(jù)。如果是指令數(shù)據(jù)的話,比如大模型做題和對應(yīng)的答案。我們可以把所有選項(xiàng)對應(yīng)的概率之和計(jì)算出來,然后過濾出概率和比較低的那一批數(shù)據(jù),這批數(shù)據(jù)就是模型“不太肯定”的樣本,我們需要加強(qiáng)針對性的訓(xùn)練。

當(dāng)然這樣可能有一個副作用,就是這批數(shù)據(jù)是質(zhì)量比較差而不是模型學(xué)的不太好的。

為此,我們還要借助reward model,這個reward model是廣義的,他是一個質(zhì)量的二分類模型。可以祭出我們的deberta,繼續(xù)用標(biāo)注數(shù)據(jù)進(jìn)行做二分類,進(jìn)行數(shù)據(jù)質(zhì)量的判斷。

有了質(zhì)量打分模型后,我們就可以判斷一些指令數(shù)據(jù)的質(zhì)量高低,并且據(jù)此選出模型真正不確定的數(shù)據(jù)。

這個過程類似于手動的拒絕采樣,核心是選擇“模型不確定”+“數(shù)據(jù)質(zhì)量達(dá)標(biāo)”的那部分?jǐn)?shù)據(jù)。

總結(jié)一下,監(jiān)督學(xué)習(xí)中主動學(xué)習(xí)的兩個基本原則是尋找多樣性的數(shù)據(jù),模型不確定性的數(shù)據(jù),在尋找的過程中,我們使用了一些小技巧,比如聚類去重,對抗半監(jiān)督過濾,自建reward二分類等方法。這幾個小技巧,學(xué)術(shù)上沒有什么高深莫測的東西,都是實(shí)踐中總結(jié)出來的好用的方法。

并且你把上面的過程串聯(lián)起來,其實(shí)就是一套高效率,低成本的數(shù)據(jù)構(gòu)造pipeline了,不僅可以用在大模型的數(shù)據(jù)選擇和構(gòu)造,在所有的監(jiān)督學(xué)習(xí)上,這套思路和方法都是實(shí)適用的。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:大模型微調(diào)數(shù)據(jù)選擇和構(gòu)造技巧

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    亞馬遜云科技擴(kuò)展模型選擇 Amazon Bedrock新增18款開放權(quán)重模型

    亞馬遜云科技在2025 re:Invent全球大會上宣布在Amazon Bedrock中新增18款開放權(quán)重模型,進(jìn)一步強(qiáng)化其提供廣泛全托管模型選擇的承諾。Amazon Bedrock使客戶能夠
    的頭像 發(fā)表于 12-13 13:53 ?772次閱讀

    在以下嵌入式軟件設(shè)計(jì)模型中,屬于數(shù)據(jù)模型的是,哪里有設(shè)計(jì)模型的介紹?

    在以下嵌入式軟件設(shè)計(jì)模型中,屬于數(shù)據(jù)模型的是()。A. CCSB. CSPC. FSMD. Petri Net
    發(fā)表于 11-24 15:55

    Vishay Sfernice TS7密封型表面貼裝微調(diào)電位器技術(shù)解析

    +70°C時的最大功率為0.5W,具有10Ω 至2MΩ 的寬歐姆范圍。這些專業(yè)級和工業(yè)級微調(diào)電位器有頂部和側(cè)面調(diào)整類型可供選擇,不含鉛,符合RoHS指令。
    的頭像 發(fā)表于 11-12 10:48 ?659次閱讀
    Vishay Sfernice TS7密封型表面貼裝<b class='flag-5'>微調(diào)</b>電位器技術(shù)解析

    Vishay Sfernice M61系列金屬陶瓷微調(diào)電位器技術(shù)解析

    Vishay/Sfernice M61 3/8”方形單匝金屬陶瓷微調(diào)電位器有多種引腳配置可供選擇,用于手指設(shè)置。這些微調(diào)電位器通過物理操作輕松調(diào)整電阻值,組裝在PCB上后可提供穩(wěn)定性。M61系列采用
    的頭像 發(fā)表于 11-10 11:44 ?633次閱讀
    Vishay Sfernice M61系列金屬陶瓷<b class='flag-5'>微調(diào)</b>電位器技術(shù)解析

    LLM安全新威脅:為什么幾百個毒樣本就能破壞整個模型

    本文轉(zhuǎn)自:DeepHubIMBA作者:DhanushKumar數(shù)據(jù)投毒,也叫模型投毒或訓(xùn)練數(shù)據(jù)后門攻擊,本質(zhì)上是在LLM的訓(xùn)練、微調(diào)或檢索階段偷偷塞入精心
    的頭像 發(fā)表于 10-29 11:06 ?582次閱讀
    LLM安全新威脅:為什么幾百個毒樣本就能破壞整個<b class='flag-5'>模型</b>

    如何在vivadoHLS中使用.TLite模型

    \"#include \"hls_model.h\"http:// 包含導(dǎo)入的模型頭文件4. 定義輸入和輸出端口 根據(jù)模型的輸入和輸出形狀,選擇合適的數(shù)據(jù)類型和數(shù)組維度。例如,對于
    發(fā)表于 10-22 06:29

    NVMe高速傳輸之?dāng)[脫XDMA設(shè)計(jì)27: 橋設(shè)備模型設(shè)計(jì)

    構(gòu)造 PCIe Switch 模型。 最小橋設(shè)備模型結(jié)構(gòu)如圖 1所示。圖1 最小橋設(shè)備模型結(jié)構(gòu)圖 最小橋設(shè)備模型只包含一個唯一的上游端口和一
    發(fā)表于 09-18 09:11

    北成供應(yīng)哈默納科減速機(jī)HPG斷面模型使用的內(nèi)部構(gòu)造演示

    模型
    北京北成新控
    發(fā)布于 :2025年08月28日 11:26:27

    Cognizant加速AI模型企業(yè)級開發(fā)

    全新解決方案旨在幫助企業(yè)快速且大規(guī)模地構(gòu)建、微調(diào)和實(shí)施AI模型。 Cognizant 憑借其作為數(shù)據(jù)與AI模型訓(xùn)練合作伙伴的深厚經(jīng)驗(yàn),繼服務(wù)于部分領(lǐng)先的數(shù)字原生企業(yè)后
    的頭像 發(fā)表于 07-31 17:25 ?707次閱讀

    千方科技推出AI大模型公路構(gòu)造物評定系統(tǒng)

    公路構(gòu)造物(橋梁、隧道、涵洞等)檢測評定是養(yǎng)護(hù)管理的核心環(huán)節(jié),通過量化構(gòu)造物的技術(shù)狀況評定等級,可為養(yǎng)護(hù)資源分配決策提供技術(shù)支持。傳統(tǒng)公路構(gòu)造物技術(shù)狀況評定面臨“三座大山”:一是評定結(jié)果易受人
    的頭像 發(fā)表于 07-09 15:54 ?988次閱讀

    明晚開播 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第7期「面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)」明晚8點(diǎn)精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目面向高泛化能力的視覺感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)報(bào)告簡介
    的頭像 發(fā)表于 06-24 08:01 ?1058次閱讀
    明晚開播 |<b class='flag-5'>數(shù)據(jù)</b>智能系列講座第7期:面向高泛化能力的視覺感知系統(tǒng)空間建模與<b class='flag-5'>微調(diào)</b>學(xué)習(xí)

    數(shù)據(jù)標(biāo)注服務(wù)—奠定大模型訓(xùn)練的數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標(biāo)注承擔(dān)著將原始
    的頭像 發(fā)表于 03-21 10:30 ?3287次閱讀

    標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大模型訓(xùn)練的數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標(biāo)注承擔(dān)著將原始
    的頭像 發(fā)表于 03-21 10:27 ?1109次閱讀
    標(biāo)貝<b class='flag-5'>數(shù)據(jù)</b>標(biāo)注服務(wù):奠定大<b class='flag-5'>模型</b>訓(xùn)練的<b class='flag-5'>數(shù)據(jù)</b>基石

    《中國電機(jī)工程學(xué)報(bào)》網(wǎng)絡(luò)首發(fā)論文:基于數(shù)據(jù)驅(qū)動觀測器的永磁同步電機(jī)顯式模型預(yù)測直接速度控制

    步驟一:構(gòu)造預(yù)測模型。 考慮參數(shù)變化和外部擾動,表貼式 PMSM 的數(shù) 學(xué)方程為 (1) 其中,id、iq 和 ud、uq 分別為定子電流和電壓的 d、 q 軸分量;?和?e 分別為機(jī)械角速度和電
    發(fā)表于 03-07 15:07

    Optimum Intel / NNCF在重量壓縮中選擇FP16模型的原因?

    無法確定使用 Optimum Intel / NNCF 在重量壓縮中選擇 FP16 模型的原因。
    發(fā)表于 03-06 06:04