国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

優(yōu)于10倍參數(shù)模型!微軟發(fā)布Orca 2 LLM

jf_WZTOguxH ? 來源:AI前線 ? 2023-12-26 14:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

微軟發(fā)布 Orca 2 LLM,這是 Llama 2 的一個調(diào)優(yōu)版本,性能與包含 10 倍參數(shù)的模型相當,甚至更好。Orca 2 使用了一個合成訓練數(shù)據(jù)集和一項稱為 Prompt Erasure(提示詞擦除) 的新技術來實現(xiàn)這一性能。

Orca 2 使用了師生模式的訓練方案,其中一個較大、較強的 LLM 作為另一個較小的 LLM(學生)的老師,老師的目標是提升學生的性能,使其與更大模型的性能相媲美。微軟的訓練技術教會較小的模型多種推理技巧,并教其如何為特定任務選擇最有效的技巧。

為此,老師被賦予了復雜的提示詞來觸發(fā)某種推理行為。不過,在一種被稱為 Prompt Erasure 的方案中,學生只得到任務要求和期望的響應,而不是老師的提示詞。在基準測試中,一個擁有 13B 參數(shù)的 Orca 2 模型的表現(xiàn)超過了一個 13B 參數(shù)的基準 Llama 2 模型,提升了 47.54%。而一個擁有 7B 參數(shù)的 Orca 2 模型在推理任務方面與一個擁有 70B 參數(shù)的 Llama 2 模型相當,甚至更好。

盡管像 ChatGPT 這樣的 LLM 在給定少量提示詞的情況下通常表現(xiàn)良好,但由于其內(nèi)存和計算需求較大,托管這些模型極具有挑戰(zhàn)性。經(jīng)過調(diào)優(yōu)的較小的模型也可以表現(xiàn)良好,許多研究人員已經(jīng)在研究使用較大 LLM 生成的合成數(shù)據(jù)集對它們進行訓練。

InfoQ 最近報道了谷歌的 Distilling Step-by-Step 方法,該方法會讓老師 LLM 自動生成一個小型的調(diào)優(yōu)數(shù)據(jù)集,其中包含輸入和輸出標簽,以及為何選擇輸出標簽的“基本原理”。InfoQ 還報道了 Stability AI 的 Stable Beluga 模型,它使用微軟原始的 Orca 1 方案進行訓練,該方案使用了 Explanation Tuning,其中老師 LLM 被提示“生成詳細答案”。

與 Orca 1 類似,Orca 2 訓練數(shù)據(jù)集是由老師 LLM 生成的,而老師 LLM 收到了詳細的提示詞。然而,微軟新的訓練方法 Cautious Reasoning 將訓練任務與提示詞相結合,引導老師 LLM 使用特定的問題解決策略,如“一步一步”或“解釋你的答案”。然后在學生的訓練過程中,老師的提示詞被刪除,這促使學生學會選擇正確的策略。

為了評估這種方法,微軟將 Orca 2 模型的性能與幾個基準模型進行了比較,包括 Llama 2、ChatGPT(GPT-3.5)和 GPT-4。基準任務包括推理、語言理解、文本完成和摘要。在推理基準測試中,13B 參數(shù) Orca 2 模型優(yōu)于除 ChatGPT 和 GPT-4 之外的所有基準。他們還發(fā)現(xiàn),給 Orca 2 一個“謹慎”的系統(tǒng)提示詞(“你是一個謹慎的助手,你會仔細遵循指示”)相比無系統(tǒng)提示會略微提升其性能。

有幾位用戶在 X 上發(fā)表了關于 Orca 2 的帖子。一位用戶指出:“你不需要用‘一步一步解釋’這樣的技巧來提示它。它自己知道。” AI 研究員 Rudi Ranck 寫道:

許多絕妙的想法都很簡單……就像 Orca 2 中的“提示詞擦除”一樣:完整的提示詞不會呈現(xiàn)給模型,而只呈現(xiàn)任務和答案(它過濾了生成這些答案所使用的完整提示詞)。這有助于模型在更高層次上制定策略。這是一篇非常好的論文。我強烈建議通讀全文。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ChatGPT
    +關注

    關注

    31

    文章

    1598

    瀏覽量

    10268
  • LLM
    LLM
    +關注

    關注

    1

    文章

    346

    瀏覽量

    1331

原文標題:微軟發(fā)布 Orca 2 LLM,表現(xiàn)優(yōu)于 10 倍參數(shù)模型

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    什么是大模型,智能體...?大模型100問,快速全面了解!

    一、概念篇1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達到數(shù)十億甚至萬億級別)、使用海量數(shù)據(jù)訓練而成的人工智能模型2.什么是大語言
    的頭像 發(fā)表于 02-02 16:36 ?892次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    谷歌正式發(fā)布Gemma Scope 2模型

    大語言模型 (LLM) 具備令人驚嘆的推理能力,但其內(nèi)部決策過程在很大程度上仍然不透明。如果系統(tǒng)未按預期運行,對其內(nèi)部運作機制缺乏可見性將難以準確定位問題根源。過去,我們通過發(fā)布 Gemma
    的頭像 發(fā)表于 01-24 14:01 ?524次閱讀

    今日看點:小米正式發(fā)布并開源新模型 MiMo-V2-Flash;磷酸鐵鋰開啟漲價潮

    小米正式發(fā)布并開源新模型 MiMo-V2-Flash 近日小米正式發(fā)布并開源新模型 MiMo-V2
    的頭像 發(fā)表于 12-17 09:42 ?4211次閱讀

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    部署熱門開源模型的應用場景,框架已支持 GPT-OSS、DeepSeek、Llama 2 及 Llama 3 等主流模型的端到端部署;另一方面,框架將部署功能封裝為可擴展的 Python 框架;同時
    的頭像 發(fā)表于 10-21 11:04 ?1174次閱讀

    廣和通發(fā)布端側(cè)情感對話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側(cè)情感對話大模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設備等終端場景提供“情感理解-情感響應”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1904次閱讀

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    2參數(shù)模型的增量訓練; 接入語音能力:在main.cpp中集成 VAD(語音活動檢測)+ ASR(語音識別,如 Whisper-Tiny INT8)模塊,將語音轉(zhuǎn)換為文本后接入現(xiàn)有推理流水線,實現(xiàn)
    發(fā)表于 09-05 17:25

    3萬字長文!深度解析大語言模型LLM原理

    繼續(xù)追本溯源,與騰訊學堂合作撰寫本文,嘗試讓人人都能懂大語言模型的基礎原理。1、大語言模型簡述截止到2025年“大模型”一般泛指“超大參數(shù)模型”,
    的頭像 發(fā)表于 09-02 13:34 ?3453次閱讀
    3萬字長文!深度解析大語言<b class='flag-5'>模型</b><b class='flag-5'>LLM</b>原理

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測

    ),確保隱私數(shù)據(jù)不出設備。 離線場景:Jetson Orin 等邊緣設備可本地運行 3B 參數(shù)模型,無需聯(lián)網(wǎng)即可完成任務。 綜上,端側(cè) SLM 在延遲、隱私和離線可用性上均顯著優(yōu)于云端 LLM。瑞芯微
    發(fā)表于 08-29 18:08

    ?Groq LPU 如何讓萬億參數(shù)模型「飛」起來?揭秘 Kimi K2 40 提速背后的黑科技

    Groq LPU 如何讓萬億參數(shù)模型「飛」起來?揭秘 Kimi K2 40 提速背后的黑科技? 最近,Moonshot AI 的千億參數(shù)模型
    的頭像 發(fā)表于 08-07 10:01 ?976次閱讀

    請問InDTU IHDMP協(xié)議使用的CRC校驗使用的什么參數(shù)模型

    InDTU IHDMP協(xié)議使用的CRC校驗使用的什么參數(shù)模型
    發(fā)表于 08-06 07:57

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應用原型驗證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2184次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?1881次閱讀
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應用的最佳實踐

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家模型 (MoE
    的頭像 發(fā)表于 05-08 11:45 ?2990次閱讀
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳實踐

    小白學大模型:從零實現(xiàn) LLM語言模型

    在當今人工智能領域,大型語言模型LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學習大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復雜的任務,如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1307次閱讀
    小白學大<b class='flag-5'>模型</b>:從零實現(xiàn) <b class='flag-5'>LLM</b>語言<b class='flag-5'>模型</b>

    詳解 LLM 推理模型的現(xiàn)狀

    領域的最新研究進展,特別是自DeepSeekR1發(fā)布后興起的推理時間計算擴展相關內(nèi)容。在LLM中實施和改進推理簡單來說,基于LLM的推理模型是一種旨在通過生成中間
    的頭像 發(fā)表于 04-03 12:09 ?1612次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的現(xiàn)狀