国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

2023年發布的25個開源大型語言模型總結

Dbwd_Imgtec ? 來源:未知 ? 2023-07-28 12:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:DeepHub IMBA


大型語言模型(llm)是一種人工智能(AI),在大量文本和代碼數據集上進行訓練。它們可以用于各種任務,包括生成文本、翻譯語言和編寫不同類型的創意內容。

今年開始,人們對開源LLM越來越感興趣。這些模型是在開源許可下發布的,這意味著任何人都可以使用、修改和分發它們。這使得研究人員、開發人員和企業都可以嘗試LLM,并為它們開發新的應用程序。使用開源llm有很多好處。首先它們通常比專業的LLM更價便宜。并且它們更加透明,這意味著研究人員可以研究它們是如何工作的以及它們是如何做出決定的。最主要的是它們更加靈活,可以針對不同的任務進行定制。wKgZomToNseAVRkNAAE3DVUyw_A778.jpg本文總結了當前可用的開源llm的全部(幾乎全部)列表,以及有關其許可選項和源代碼存儲庫的信息,希望對你有所幫助。▎SAIL 7B
基于LLaMa的搜索增強
參數:7B
許可類型:GPL-3.0
發布日期:2023年5月
論文:SAIL — Search Augmented Instruction Learning

▎Guanaco
采用高效微調方法QLoRA發布的LLM模型
參數:65B
許可類型:MIT
發布日期:2023年5月
論文:QLoRA — Efficient Finetuning of Quantized LLMs

▎RMKV
與transformer的LLM性能相當的RNN模型
參數:100M–14B
許可類型:Apache 2.0
發布日期:2023年5月
論文:Scaling RNN to 1.5B and Reach Transformer LM Performance

▎MPT-7B
MosaicML的基礎系列模型
參數:7B
許可類型:Apache 2.0
發布日期:2023年5月
論文:MPT-7B — A New Standard for Open-Source, Commercially Usable LLMs

▎OpenLLaMa
在RedPajama數據集上訓練的Meta AI的LLaMA 7B的另一個開源復制。
參數:3,7B
許可類型:Apache 2.0
發布日期:2023年5月
論文:Meet OpenLLaMA — An Open-Source Reproduction of Meta AI’s LLaMA Large Language Model

▎RedPajama-INCITE
基于RedPajama數據集上訓練的指令調整和聊天Pythia模型。
參數:3B, 7B
許可類型:Apache 2.0
發布日期:2023年5月
論文:RedPajama-INCITE family of models including base, instruction-tuned & chat models

▎h2oGPT
H2O的微調框架和文檔問答功能的聊天機器人UI
參數:12B,30B
許可類型:Apache 2.0
發布日期:2023年5月
論文:Building the World’s Best Open-Source Large Language Model:H2O.ai’s Journey

▎FastChat-T5
通過微調Flan-t5-xl對從ShareGPT收集的用戶共享對話進行訓練的聊天機器人
參數:3B
許可類型:Apache 2.0
發布日期:2023年4月
論文:FastChat-T5 — our compact and commercial-friendly chatbot!

▎GPT4All
用于訓練和部署強大的定制llm的完整工具系統
參數:7–13B
許可類型:MIT
發布日期:2023年4月
論文:GPT4All:An ecosystem of open-source on-edge large language models.

▎MiniGPT-4
基于BLIP-2和Vicuna LLM的Visual LLM模型
參數:13B
許可類型:BSD-3-Clause
發布日期:2023年4月
論文:MiniGPT-4 — Enhancing Vision-Language Understanding withAdvanced Large Language Models

▎StableLM
StableLM的LLM模型系列
參數:7B
許可類型:CC BY-NC-SA-4.0
發布日期:2023年4月
論文:Stability AI Launches the First of its StableLM Suite of Language Models

▎BloomZ
通過多任務微調實現跨語言泛化
參數:176B
許可類型:Apache 2.0
發布日期:2023年4月
論文:Cross-lingual Generalization through Multitask Finetuning

▎Dolly
Pythia 12B LLM在Databricks ML平臺上訓練的模型
參數:12B
許可類型:Apache 2.0
發布日期:2023年4月
論文:Free Dolly — Introducing the World’s First Truly Open Instruction-Tuned LLM

▎Baize Chatbot
基于LLaMa的開源聊天模型
參數:30B
許可類型:GPL-3.0 license
發布日期:2023年4月
論文:Baize — An Open-Source Chat Model with Parameter-Efficient Tuning on Self-Chat Data

▎ColossalChat
由ColossalAI開源發布的一個完整的RLHF流程訓練的模型
參數:N/A
許可類型:Apache 2.0
發布日期:2023年4月
論文:ColossalChat — An Open-Source Solution for Cloning ChatGPT With a Complete RLHF Pipeline

▎Lit LLaMa
來自Lightning AI的LLaMA的開源實現
參數:13B
許可類型:Apache 2.0
發布日期:2023年4月
論文:Why We’re Building Lit-LLaMA

▎Cerebras-GPT
開放的,計算效率高的,大型語言模型
參數:111M-13B
許可類型:Apache 2.0
發布日期:2023年3月
論文:Cerebras-GPT — Open Compute-Optimal Language ModelsTrained on the Cerebras Wafer-Scale Cluster

▎Open Flamingo
Deepmind的Flamingo模型的開源實現
參數:9B
許可類型:MIT License
發布日期:2023年3月
論文:Openflamingo — An Open-source Framework For Training Vision-language Models With In-context Learning

▎Chat GLM
使用開放式雙語(中英文)雙向密集預訓練模型
參數:6B-130B
許可類型:Apache 2.0
發布日期:2023年3月
論文:GLM-130B:An Open Bilingual Pre-trained Model

▎DLite
通過微調Alpaca數據集上最小的GPT-2模型
參數:124M
許可類型:Apache 2.0
發布日期:2023年3月
論文:Introducing DLite, a Lightweight ChatGPT-Like Model Based on Dolly

▎Alpaca 7B
描述:斯坦福大學發布的指令遵循LLaMA模型
參數:7B
許可類型:Apache 2.0
發布日期:2023年3月
論文:Alpaca — A Strong, Replicable Instruction-Following Model

▎Flan UL2
在預訓練的UL2檢查點上訓練Flan 20B模型。
參數:20B
許可類型:MIT License
發布日期:2023年3月
論文:A New Open Source Flan 20B with UL2

▎Flan-T5
T5在各種數據集上的指令微調,提高預訓練語言模型的可用性
參數:60M–11B
許可類型:Apache 2.0
發布日期:2023年2月
論文:Scaling Instruction-Finetuned Language Models


總結最后再補充2個剛剛發布的模型,一個是llama-2,這個我們文章也在前幾天介紹了微調和使用的方法。另外一個就是昨天剛看到的新聞,stabilityai發布的 FreeWilly2,它是在 Llama2 70B 上微調的結果,目前在open_llm_leaderboard上排第一。開源大型語言模型正在迅速發展,開源社區發布了許多模型。這些模型為開發人員、研究人員和愛好者提供了一個非常大機會,可以在沒有專有系統的情況下試驗尖端的語言技術。隨著越來越多的組織和個人為這些模型的發展做出貢獻,我們可以期待看到更強大、更容易使用和更創新的語言模型,它們將塑造自然語言處理的未來。作者:Manikanth

END

歡迎加入Imagination GPU與人工智能交流2群

wKgZomToNseABI9MAABN8aBfIqc329.jpg

入群請加小編微信:eetrend89

(添加請備注公司名和職稱)

推薦閱讀 對話Imagination中國區董事長:以GPU為支點加強軟硬件協同,助力數字化轉型 下載白皮書 | 通過Photon架構創建身臨其境的圖形體驗

Imagination Technologies是一家總部位于英國的公司,致力于研發芯片和軟件知識產權(IP),基于Imagination IP的產品已在全球數十億人的電話、汽車、家庭和工作 場所中使用。獲取更多物聯網、智能穿戴、通信汽車電子、圖形圖像開發等前沿技術信息,歡迎關注 Imagination Tech!


原文標題:2023年發布的25個開源大型語言模型總結

文章出處:【微信公眾號:Imagination Tech】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • imagination
    +關注

    關注

    1

    文章

    620

    瀏覽量

    63372

原文標題:2023年發布的25個開源大型語言模型總結

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    云知聲山海醫療大模型問鼎MedBench4.0三項榜首

    12月16日,中文醫療大模型權威評測平臺MedBench4.0發布最新評測結果。云知聲自主研發的“山海醫療大模型(UniGPT?Med)”展現出全面領先的技術實力,一舉斬獲醫療智能體、醫療大
    的頭像 發表于 12-29 14:35 ?3219次閱讀
    云知聲山海醫療大<b class='flag-5'>模型</b>問鼎MedBench4.0三項榜首

    重磅更新 | 先楫半導體HPM_APPS v1.10.1發布

    重磅更新 | 先楫半導體HPM_APPS v1.10.1發布
    的頭像 發表于 12-26 08:33 ?885次閱讀
    重磅更新 | 先楫半導體HPM_APPS v1.10.1<b class='flag-5'>發布</b>

    NVIDIA推動面向數字與物理AI的開源模型發展

    NVIDIA 發布一系列涵蓋語音、安全與輔助駕駛領域的全新 AI 工具,其中包括面向移動出行領域的行業級開源視覺-語言-動作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發表于 12-13 09:50 ?1340次閱讀

    今日看點:象帝先推出首款量產Imagination DXD GPU顯卡;小米汽車累計交付突破 50 萬臺

    ,能夠同時處理文本與圖像信息,使車輛能夠“看見”周圍環境,并基于所感知的內容做出決策。 ? 該新模型基于英偉達此前推出的 Cosmos-Reason 推理模型構建,后者具備在響應前對決策進行邏輯推演的能力。英偉達最初于2025
    發表于 12-02 10:24 ?1067次閱讀

    openDACS 2025 開源EDA與芯片賽項 賽題七:基于大模型的生成式原理圖設計

    , ASPDAC\'2017, DAC\'2017最佳論文提名。2018獲國家自然科學基金委優青項目資助。 3. 賽題背景 隨著人工智能技術的迅猛發展,特別是深度學習與自然語言處理領域的持續突破,大型預訓練
    發表于 11-13 11:49

    開源鴻蒙技術大會2025丨以智能化為主旋律,擘畫開源鴻蒙下一展技術藍圖

    ,與來自學術界和產業界的專家們共同回顧開源鴻蒙五來走過的非凡歷程,發布開源鴻蒙6.0版本,并展望面向未來的智能終端操作系統關鍵技術創新方向,呼吁與會專家以智能化發展為主旋律,共同擘
    的頭像 發表于 11-10 18:13 ?1511次閱讀
    <b class='flag-5'>開源</b>鴻蒙技術大會2025丨以智能化為主旋律,擘畫<b class='flag-5'>開源</b>鴻蒙下一<b class='flag-5'>個</b>五<b class='flag-5'>年</b><b class='flag-5'>發</b>展技術藍圖

    NVIDIA ACE現已支持開源Qwen3-8B小語言模型

    為助力打造實時、動態的 NPC 游戲角色,NVIDIA ACE 現已支持開源 Qwen3-8B 小語言模型(SLM),可實現 PC 游戲中的本地部署。
    的頭像 發表于 10-29 16:59 ?1232次閱讀

    OpenAI發布2款開源模型

    OpenAI開源了兩款高性能權重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss 發布了!我們做了一
    的頭像 發表于 08-06 14:25 ?1030次閱讀

    利用自壓縮實現大型語言模型高效縮減

    隨著語言模型規模日益龐大,設備端推理變得越來越緩慢且耗能巨大。一直接且效果出人意料的解決方案是剪除那些對任務貢獻甚微的完整通道(channel)。我們早期的研究提出了一種訓練階段的方法——自壓
    的頭像 發表于 07-28 09:36 ?563次閱讀
    利用自壓縮實現<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>高效縮減

    【VisionFive 2單板計算機試用體驗】3、開源語言模型部署

    1、ollama平臺搭建 ollama可以快速地部署開源模型,網址為https://ollama.com, 試用該平臺,可以在多平臺上部署 Deepseek-R1, Qwen3, Llama
    發表于 07-19 15:45

    面壁小鋼炮模型MiniCPM4.0發布,端側智能更進一步

    ? 電子發燒友網報道(文/李彎彎)20256月6日,面壁智能CEO李大海在北京智源大會上發布有史以來最具想象力的面壁小鋼炮模型MiniCPM4.0,代號“前進四”,開源
    的頭像 發表于 06-08 08:18 ?7138次閱讀
    面壁小鋼炮<b class='flag-5'>模型</b>MiniCPM4.0<b class='flag-5'>發布</b>,端側智能更進一步

    重磅更新 | 先楫半導體HPM_APPS v1.9.0發布

    重磅更新 | 先楫半導體HPM_APPS v1.9.0發布
    的頭像 發表于 05-13 11:29 ?1789次閱讀
    重磅更新 | 先楫半導體HPM_APPS v1.9.0<b class='flag-5'>發布</b>

    小白學大模型:從零實現 LLM語言模型

    在當今人工智能領域,大型語言模型(LLM)的開發已經成為一熱門話題。這些模型通過學習大量的文本數據,能夠生成自然
    的頭像 發表于 04-30 18:34 ?1316次閱讀
    小白學大<b class='flag-5'>模型</b>:從零實現 LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    開源本身可以替代大型科技公司嗎?

    遷移。 在荷蘭,我們說蘋果和梨不能相提并論,但這并不完全正確。兩者都是所謂的手工水果,一硬一點,另一軟一點。 但拿開源技術與大型技術相比,就好比拿烤箱與餐廳相比。
    的頭像 發表于 04-30 16:49 ?701次閱讀

    詳解 LLM 推理模型的現狀

    2025,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優化推理能力的新策略開始出現,包括擴展推理時間計算、運用強化學習、開展監督微調和進行提煉等。本文將深入探討
    的頭像 發表于 04-03 12:09 ?1618次閱讀
    詳解 LLM 推理<b class='flag-5'>模型</b>的現狀