国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

關于Llama 2的一切資源,我們都幫你整理好了

深度學習自然語言處理 ? 來源:Hugging Face ? 2023-08-23 15:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Llama 2 是一個由 Meta 開發的大型語言模型,是 LLaMA 1 的繼任者。Llama 2 可通過 AWS、Hugging Face 獲取,并可以自由用于研究和商業用途。Llama 2 預訓練模型在 2 萬億個標記上進行訓練,相比 LLaMA 1 的上下文長度增加了一倍。它的微調模型則在超過 100 萬個人工標注數據下完成。

這篇博客包含了所有的相關資源,以幫助您快速入門。

來自 Meta 官方的公告可以在這里找到:https://ai.meta.com/llama/

LLaMA 2 是什么?

Meta 發布的 Llama 2,是新的 SOTA 開源大型語言模型(LLM)。Llama 2 代表著 LLaMA 的下一代版本,可商用。Llama 2 有 3 種不同的大小 —— 7B、13B 和 70B 個可訓練參數。與原版 LLaMA 相比,新的改進包括:

  • 在 2 萬億個標記的文本數據上進行訓練
  • 允許商業使用
  • 默認使用 4096 個前后文本視野
  • 70B 模型采用了分組查詢注意力(GQA)
  • 可以在 Hugging Face Hub 上直接獲取https://hf.co/models?other=llama-2

即刻解鎖 Llama2

有幾個不同的游樂場供與 Llama 2 來測試:

HuggingChat

在我們推出的 HuggingChat 中使用 Llama 2 70B:https://hf.co/chat

Hugging Face Space 應用

我們在 Space 應用上提供了三個大小的 Llama 2 模型的體驗,分別是:

  • 7Bhttps://hf.co/spaces/huggingface-projects/llama-2-7b-chat
  • 13Bhttps://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat
  • 70Bhttps://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI

Perplexity

Perplexity 的對話 AI 演示提供 7B 和 13B 的 Llama 2 模型:https://llama.perplexity.ai/

Llama 2 背后的研究工作

Llama 2 是一個基礎大語言模型,它由網絡上公開可獲取到的數據訓練完成。另外 Meta 同時發布了它的 Chat 版本。Chat 模型的第一個版本是 SFT(有監督調優)模型。在這之后,LLaMA-2-chat 逐步地經過人類反饋強化學習(RLHF)來進化。RLHF 的過程使用了拒絕采樣與近端策略優化(PPO)的技術來進一步調優聊天機器人。Meta 目前僅公布了模型最新的 RLHF (v5) 版本。若你對此過程背后的過程感興趣則請查看:

  • Llama 2: 開源并已微調的聊天模型https://arxiv.org/abs/2307.09288
  • Llama 2: 一個超贊的開源大語言模型https://www.interconnects.ai/p/llama-2-from-meta
  • Llama 2 的全面拆解https://www.youtube.com/watch?v=zJBpRn2zTco

Llama 2 的性能有多好,基準測試?

Meta 表示:

Llama 2 在眾多外部基準測試中都優于其他開源的語言模型,包括推理、編程、熟練程度與知識測驗。

關于其性能你可以在這里找到更多信息:

  • Hugging Face 開源大語言模型排行榜https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard
  • Meta 官方公告https://ai.meta.com/llama/

如何為 LLaMA 2 Chat 寫提示詞 (prompts)

Llama 2 Chat 是一個開源對話模型。想要與 Llama 2 Chat 進行高效地交互則需要你提供合適的提示詞,以得到合乎邏輯且有幫助的回復。Meta 并沒有選擇最簡單的提示詞結構。

以下是單輪、多輪對話的提示詞模板。提示詞模板遵循模型訓練過程,你可以在這里查看到詳細描述:

  • Llama 2 論文https://hf.co/papers/2307.09288
  • Llama 2 提示詞模板https://gpus.llm-utils.org/llama-2-prompt-template/

單輪對話

[INST]<>
{{system_prompt}}
<>

{{user_message}}[/INST]

多輪對話

[INST]<>
{{system_prompt}}
<>

{{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]

如何訓練 LLaMA 2

因 LLaMA 2 為開源模型,使得可以輕易的通過微調技術,比如 PEFT,來訓練它。這是一些非日適合于訓練你自己版本 LLaMA 2 的學習資源:

  • 擴展指引:指令微調 Llama 2https://www.philschmid.de/instruction-tune-llama-2
  • 在 Amazon SageMaker 上微調 Llama 2 (7-70B)https://www.philschmid.de/sagemaker-llama2-qlora
  • 使用 PEFT 技術微調https://hf.co/blog/zh/llama2#fine-tuning-with-peft
  • Meta 提供的 Llama 模型示例以及方案https://github.com/facebookresearch/llama-recipes/tree/main
  • 在本地機器上微調 LLAMA-v2 最簡單的方法!https://www.youtube.com/watch?v=3fsn19OI_C8

如何部署 Llama 2?

Llama 2 可以在本地環境部署,使用托管服務如 Hugging Face Inference Endpoints 或通過 AWS、Google Cloud、Microsoft Azure 等。

你可以查閱下述資源:

  • llama.cpphttps://github.com/ggerganov/llama.cpp
  • 使用文本生成接口與推理終端來部署 LLama 2https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints
  • 使用 Amazon SageMaker 部署 LLaMA 2 70Bhttps://www.philschmid.de/sagemaker-llama-llm
  • 在你的 M1/M2 Mac 上通過 GPU 接口來本地部署 Llama-2-13B-chathttps://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39793

    瀏覽量

    301424
  • 開源
    +關注

    關注

    3

    文章

    4207

    瀏覽量

    46143
  • 語言模型
    +關注

    關注

    0

    文章

    571

    瀏覽量

    11314

原文標題:關于 Llama 2 的一切資源,我們都幫你整理好了

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何在Arm Neoverse N2平臺上提升llama.cpp擴展性能

    跨 NUMA 內存訪問可能會限制 llama.cpp 在 Arm Neoverse 平臺上的擴展能力。本文將為你詳細分析這問題,并通過引入原型驗證補丁來加以解決。測試結果表明,在基于 Neoverse N2 平臺的系統上運行
    的頭像 發表于 02-11 10:06 ?169次閱讀

    一切源于對長期主義的“偏執”!我們為什么這樣構建ROBOMIND

    ROBOMIND機器人物理AI大腦,旨在模型、軟件和硬件之間,找到條真正適合走向規模化的路徑。
    的頭像 發表于 01-30 17:04 ?600次閱讀

    別讓USB拖后腿!硬件參考設計+軟件開發API,幫你整理好了

    USB_DM,歷史原因直將錯誤寫法延續到了現在。 USB_DM: USB Data Minus,USB數據負信號; USB_DP: USB Data Positive,USB數據正信號。 02. 功能
    的頭像 發表于 01-05 20:40 ?199次閱讀
    別讓USB拖后腿!硬件參考設計+軟件開發API,<b class='flag-5'>都</b><b class='flag-5'>幫你</b><b class='flag-5'>整理好了</b>

    真不敢信,PCB板上就挪動了個電阻,DDR3竟神奇變好了

    DDRx調試的問題我們經常會碰到,但PCB板上這個問題卻很初級,調了周都沒有解決,沒想到最后挪動了個電阻就好了,不信大家來看看怎么回事!
    的頭像 發表于 01-05 15:40 ?241次閱讀
    真不敢信,PCB板上就挪動了<b class='flag-5'>一</b>個電阻,DDR3竟神奇變<b class='flag-5'>好了</b>

    【CIE全國RISC-V創新應用大賽】基于 K1 AI CPU 的大模型部署落地

    /llama-cli --version 第二步:獲取 14B 的 Q2_K 模型 由于官方文檔演示的是 0.6B 小模型,我們需要自己獲取 Qwen2.5-14B 的 Q2_K 版
    發表于 11-27 14:43

    從零開始了解智慧教室(二):智慧教室的類型與適用場景

    廣凌科技(廣凌股份)作為智慧教室領域的領軍企業,其整體解決方案以“場景適配、數據驅動、開放兼容”為核心理念,智慧教室的類型與適用場景整理好了起來了解下吧~
    的頭像 發表于 11-26 18:05 ?340次閱讀
    從零開始了解智慧教室(二):智慧教室的類型與適用場景

    新手小白必看!關于A100云主機租用,你想知道的一切都在這!

    “我想租臺A100云主機來跑我的模型,但完全不知道從何下手。”——這是我們聽到最多的來自AI新手的聲音。A100,這個聽起來就“高大上”的名詞,背后其實是套清晰、可操作的流程。今天,我們
    的頭像 發表于 10-31 19:24 ?1590次閱讀
    新手小白必看!<b class='flag-5'>關于</b>A100云主機租用,你想知道的<b class='flag-5'>一切</b>都在這!

    無功補償控制器投的時間奧秘:延時、震蕩、放電次講透!

    在無功補償控制器中,電容器投是其中重要的環,它在定程度上決定了功率因數的大小以及你是否在被罰款,那么什么時候去做投,投的時間應該如
    的頭像 發表于 10-31 11:15 ?445次閱讀
    無功補償控制器投<b class='flag-5'>切</b>的時間奧秘:延時、震蕩、放電<b class='flag-5'>一</b>次講透!

    什么是ARM架構?你需要知道的一切

    從智能手機到工業邊緣計算機,ARM?架構為全球數十億臺設備提供動力。ARM?以其效率優先的設計和靈活的許可模式而聞名,已迅速從移動處理器擴展到人工智能邊緣計算、工業控制器,甚至數據中心。本文我們
    的頭像 發表于 09-11 14:48 ?1294次閱讀
    什么是ARM架構?你需要知道的<b class='flag-5'>一切</b>

    【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署

    , Gemma等開源大模型。當然,些閉源的(類似chatgpt, gemini)是不支持部署的。如下圖: 在端側部署大模型,個人認為最大的好處:是可以避免因文本或圖片上傳而造成的信息泄露,因為一切文本
    發表于 07-19 15:45

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現“從 __Int64 轉換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發表于 06-25 07:20

    關于 樹莓派5 超頻:你需要知道的一切

    摘要樹莓派5可通過超頻提升性能,對于機器學習等處理器密集型任務尤為有用。超頻樹莓派5時,需將其溫度控制在80°C以下。官方樹莓派5機箱配備散熱風扇,主動散熱配件則包含散熱片和風扇,均有助于溫度控制。超頻樹莓派5需修改config.txt啟動設置文件,調整CPU速度設置。但超頻可能縮短Pi5的使用壽命,并使保修失效,因此需謹慎操作。樹莓派5的速度比樹莓派4快兩
    的頭像 發表于 06-10 17:29 ?2805次閱讀
    <b class='flag-5'>關于</b> 樹莓派5 超頻:你需要知道的<b class='flag-5'>一切</b>!

    層層剝開開鴻Bot,我們看到的是“開發者優先”

    對開源生態來說,社區先于代碼,開發者重于一切
    的頭像 發表于 05-27 09:23 ?2989次閱讀
    層層剝開開鴻Bot,<b class='flag-5'>我們</b>看到的是“開發者優先”

    GC9A01-TFT屏幕驅動(整理有stm32/51單片機/arduino等驅動代碼)

    以及收集整理好的資料,希望可以幫助用戶更加簡單的學習或快速移植代碼進行項目開發。本文將和大家探討下GC9A01圓型屏幕的驅動
    的頭像 發表于 04-25 11:29 ?1759次閱讀
    GC9A01-TFT屏幕驅動(<b class='flag-5'>整理</b>有stm32/51單片機/arduino等驅動代碼)

    VIRTUALLAB FUSION應用:光束趾建模

    器。通過比較,我們的結果與文獻實驗結果完全致。 光束趾中圓鋸齒光闌 光束趾在高能激光器和光束傳輸系統的設計中起著關鍵作用。由于VirtualLab Fusion高度可定制的環境
    發表于 03-12 09:50