Llama 2 是一個由 Meta 開發的大型語言模型,是 LLaMA 1 的繼任者。Llama 2 可通過 AWS、Hugging Face 獲取,并可以自由用于研究和商業用途。Llama 2 預訓練模型在 2 萬億個標記上進行訓練,相比 LLaMA 1 的上下文長度增加了一倍。它的微調模型則在超過 100 萬個人工標注數據下完成。
這篇博客包含了所有的相關資源,以幫助您快速入門。
來自 Meta 官方的公告可以在這里找到:https://ai.meta.com/llama/
LLaMA 2 是什么?
Meta 發布的 Llama 2,是新的 SOTA 開源大型語言模型(LLM)。Llama 2 代表著 LLaMA 的下一代版本,可商用。Llama 2 有 3 種不同的大小 —— 7B、13B 和 70B 個可訓練參數。與原版 LLaMA 相比,新的改進包括:
- 在 2 萬億個標記的文本數據上進行訓練
- 允許商業使用
- 默認使用 4096 個前后文本視野
- 70B 模型采用了分組查詢注意力(GQA)
- 可以在 Hugging Face Hub 上直接獲取https://hf.co/models?other=llama-2
即刻解鎖 Llama2
有幾個不同的游樂場供與 Llama 2 來測試:
HuggingChat
在我們推出的 HuggingChat 中使用 Llama 2 70B:https://hf.co/chat
Hugging Face Space 應用
我們在 Space 應用上提供了三個大小的 Llama 2 模型的體驗,分別是:
- 7Bhttps://hf.co/spaces/huggingface-projects/llama-2-7b-chat
- 13Bhttps://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat
- 70Bhttps://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI
Perplexity
Perplexity 的對話 AI 演示提供 7B 和 13B 的 Llama 2 模型:https://llama.perplexity.ai/
Llama 2 背后的研究工作
Llama 2 是一個基礎大語言模型,它由網絡上公開可獲取到的數據訓練完成。另外 Meta 同時發布了它的 Chat 版本。Chat 模型的第一個版本是 SFT(有監督調優)模型。在這之后,LLaMA-2-chat 逐步地經過人類反饋強化學習(RLHF)來進化。RLHF 的過程使用了拒絕采樣與近端策略優化(PPO)的技術來進一步調優聊天機器人。Meta 目前僅公布了模型最新的 RLHF (v5) 版本。若你對此過程背后的過程感興趣則請查看:
- Llama 2: 開源并已微調的聊天模型https://arxiv.org/abs/2307.09288
- Llama 2: 一個超贊的開源大語言模型https://www.interconnects.ai/p/llama-2-from-meta
- Llama 2 的全面拆解https://www.youtube.com/watch?v=zJBpRn2zTco
Llama 2 的性能有多好,基準測試?
Meta 表示:
Llama 2 在眾多外部基準測試中都優于其他開源的語言模型,包括推理、編程、熟練程度與知識測驗。
關于其性能你可以在這里找到更多信息:
- Hugging Face 開源大語言模型排行榜https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard
- Meta 官方公告https://ai.meta.com/llama/
如何為 LLaMA 2 Chat 寫提示詞 (prompts)
Llama 2 Chat 是一個開源對話模型。想要與 Llama 2 Chat 進行高效地交互則需要你提供合適的提示詞,以得到合乎邏輯且有幫助的回復。Meta 并沒有選擇最簡單的提示詞結構。
以下是單輪、多輪對話的提示詞模板。提示詞模板遵循模型訓練過程,你可以在這里查看到詳細描述:
- Llama 2 論文https://hf.co/papers/2307.09288
- Llama 2 提示詞模板https://gpus.llm-utils.org/llama-2-prompt-template/
單輪對話
[INST]<>
{{system_prompt}}
< >
{{user_message}}[/INST]
多輪對話
[INST]<>
{{system_prompt}}
< >
{{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]
如何訓練 LLaMA 2
因 LLaMA 2 為開源模型,使得可以輕易的通過微調技術,比如 PEFT,來訓練它。這是一些非日適合于訓練你自己版本 LLaMA 2 的學習資源:
- 擴展指引:指令微調 Llama 2https://www.philschmid.de/instruction-tune-llama-2
- 在 Amazon SageMaker 上微調 Llama 2 (7-70B)https://www.philschmid.de/sagemaker-llama2-qlora
- 使用 PEFT 技術微調https://hf.co/blog/zh/llama2#fine-tuning-with-peft
- Meta 提供的 Llama 模型示例以及方案https://github.com/facebookresearch/llama-recipes/tree/main
- 在本地機器上微調 LLAMA-v2 最簡單的方法!https://www.youtube.com/watch?v=3fsn19OI_C8
如何部署 Llama 2?
Llama 2 可以在本地環境部署,使用托管服務如 Hugging Face Inference Endpoints 或通過 AWS、Google Cloud、Microsoft Azure 等。
你可以查閱下述資源:
- llama.cpphttps://github.com/ggerganov/llama.cpp
- 使用文本生成接口與推理終端來部署 LLama 2https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints
- 使用 Amazon SageMaker 部署 LLaMA 2 70Bhttps://www.philschmid.de/sagemaker-llama-llm
- 在你的 M1/M2 Mac 上通過 GPU 接口來本地部署 Llama-2-13B-chathttps://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129
-
AI
+關注
關注
91文章
39793瀏覽量
301424 -
開源
+關注
關注
3文章
4207瀏覽量
46143 -
語言模型
+關注
關注
0文章
571瀏覽量
11314
原文標題:關于 Llama 2 的一切資源,我們都幫你整理好了
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
如何在Arm Neoverse N2平臺上提升llama.cpp擴展性能
一切源于對長期主義的“偏執”!我們為什么這樣構建ROBOMIND
別讓USB拖后腿!硬件參考設計+軟件開發API,都幫你整理好了
真不敢信,PCB板上就挪動了一個電阻,DDR3竟神奇變好了
【CIE全國RISC-V創新應用大賽】基于 K1 AI CPU 的大模型部署落地
從零開始了解智慧教室(二):智慧教室的類型與適用場景
新手小白必看!關于A100云主機租用,你想知道的一切都在這!
什么是ARM架構?你需要知道的一切
【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署
使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現“從 __Int64 轉換為無符號 int 的錯誤”,怎么解決?
關于 樹莓派5 超頻:你需要知道的一切!
GC9A01-TFT屏幕驅動(整理有stm32/51單片機/arduino等驅動代碼)
關于Llama 2的一切資源,我們都幫你整理好了
評論