国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

清華系千億基座對話模型ChatGLM開啟內測

OSC開源社區 ? 來源:OSC開源社區 ? 2023-03-17 13:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

由清華技術成果轉化的公司智譜 AI 宣布開源了 GLM 系列模型的新成員 ——中英雙語對話模型 ChatGLM-6B,支持在單張消費級顯卡上進行推理使用。這是繼此前開源 GLM-130B 千億基座模型之后,智譜 AI 再次推出大模型方向的研究成果。

此外,基于千億基座的 ChatGLM 線上模型目前也在 chatglm.cn 進行邀請制內測,用戶需要使用邀請碼進行注冊,也可以填寫基本信息申請內測。

根據介紹,ChatGLM-6B 是一個開源的、支持中英雙語問答的對話語言模型,并針對中文進行了優化。該模型基于 General Language Model (GLM)架構,具有 62 億參數。結合模型量化技術,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。

ChatGLM-6B 使用了和 ChatGLM 相同的技術,針對中文問答和對話進行了優化。經過約 1T 標識符的中英雙語訓練,輔以監督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數的 ChatGLM-6B 雖然規模不及千億模型,但大大降低了推理成本,提升了效率,并且已經能生成相當符合人類偏好的回答。

ChatGLM-6B 具備以下特點:

充分的中英雙語預訓練:ChatGLM-6B 在 1:1 比例的中英語料上訓練了 1T 的 token 量,兼具雙語能力。

優化的模型架構和大小:吸取 GLM-130B 訓練經驗,修正了二維 RoPE 位置編碼實現,使用傳統 FFN 結構。6B(62 億)的參數大小,也使得研究者和個人開發者自己微調和部署 ChatGLM-6B 成為可能。

較低的部署門檻:FP16 半精度下,ChatGLM-6B 需要至少 13 GB 的顯存進行推理,結合模型量化技術,這一需求可以進一步降低到 10GB(INT8) 和 6GB(INT4),使得 ChatGLM-6B 可以部署在消費級顯卡上。

更長的序列長度:相比 GLM-10B(序列長度 1024),ChatGLM-6B 序列長度達 2048,支持更長對話和應用。

人類意圖對齊訓練:使用了監督微調(Supervised Fine-Tuning)、反饋自助(Feedback Bootstrap)、人類反饋強化學習(Reinforcement Learning from Human Feedback)等方式,使模型初具理解人類指令意圖的能力。輸出格式為 markdown,方便展示。

基于以上特點,ChatGLM-6B 在一定條件下具備較好的對話與問答能力。ChatGLM-6B 的對話效果展示如下:

ff303b12-c479-11ed-bfe3-dac502259ad0.png

不過由于 ChatGLM-6B 模型的容量較小,不可避免地存在一些局限和不足,包括:

相對較弱的模型記憶和語言能力。在面對許多事實性知識任務時,ChatGLM-6B 可能會生成不正確的信息,也不太擅長邏輯類問題(如數學、編程)的解答。

可能會產生有害說明或有偏見的內容:ChatGLM-6B 只是一個初步與人類意圖對齊的語言模型,可能會生成有害、有偏見的內容。

較弱的多輪對話能力:ChatGLM-6B 的上下文理解能力還不夠充分,在面對長答案生成和多輪對話的場景時,可能會出現上下文丟失和理解錯誤的情況。

相比起 ChatGLM-6B,ChatGLM 參考了 ChatGPT 的設計思路,在千億基座模型 GLM-130B 中注入了代碼預訓練,通過有監督微調(Supervised Fine-Tuning)等技術實現人類意圖對齊。ChatGLM 線上模型的能力提升主要來源于獨特的千億基座模型 GLM-130B。它采用了不同于 BERT、GPT-3 以及 T5 的 GLM 架構,是一個包含多目標函數的自回歸預訓練模型。

GLM 團隊表示,2022 年 11 月,斯坦福大學大模型中心對全球 30 個主流大模型進行了全方位的評測,GLM-130B 是亞洲唯一入選的大模型。在與 OpenAI、Google Brain、微軟、英偉達、Meta AI 的各大模型對比中,評測報告顯示 GLM-130B 在準確性和公平性指標上與 GPT-3 175B (davinci) 接近或持平,魯棒性、校準誤差和無偏性則優于 GPT-3 175B。

ff656a6c-c479-11ed-bfe3-dac502259ad0.png

由 ChatGLM 生成的對話效果展示:

00b6fc32-c47a-11ed-bfe3-dac502259ad0.png

00d17aee-c47a-11ed-bfe3-dac502259ad0.png

014cb632-c47a-11ed-bfe3-dac502259ad0.png

不過 GLM 團隊也坦言,整體來說 ChatGLM 距離國際頂尖大模型研究和產品(比如 OpenAI 的 ChatGPT 及下一代 GPT 模型)還存在一定的差距。該團隊表示,將持續研發并開源更新版本的 ChatGLM 和相關模型。“歡迎大家下載 ChatGLM-6B,基于它進行研究和(非商用)應用開發。GLM 團隊希望能和開源社區研究者和開發者一起,推動大模型研究和應用在中國的發展。”

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39793

    瀏覽量

    301427
  • 模型
    +關注

    關注

    1

    文章

    3752

    瀏覽量

    52111

原文標題:清華系千億基座對話模型ChatGLM開啟內測,單卡版模型已全面開源

文章出處:【微信號:OSC開源社區,微信公眾號:OSC開源社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    沐曦股份聯合清華大學發布磁性材料AI原子基座模型

    2月27日,沐曦股份聯合清華大學等多家研究機構聯合發布了磁性材料AI原子基座模型。該模型是首個覆蓋寬溫壓域的磁性材料AI原子模型,經權威專家
    的頭像 發表于 03-03 15:25 ?329次閱讀
    沐曦股份聯合<b class='flag-5'>清華</b>大學發布磁性材料AI原子<b class='flag-5'>基座</b><b class='flag-5'>模型</b>

    清華大學電子工程“無問錫東3.0”實踐支隊走進沐曦股份

    近日,沐曦股份迎來了一群特別的訪客——清華大學電子工程“無問錫東3.0”實踐支隊的同學們,開啟了為期兩天的校企實踐活動。這次實踐不僅是清華電子工程
    的頭像 發表于 02-26 14:23 ?363次閱讀

    地平線正式開源HoloBrain VLA基座模型

    2月13日,地平線正式宣布其HoloBrain-0基座模型及框架全面開源。本次開源不僅包括HoloBrain-0核心算法,地平線同步開放完整基礎設施RoboOrchard。作為地平線機器人實驗室
    的頭像 發表于 02-26 10:05 ?302次閱讀
    地平線正式開源HoloBrain VLA<b class='flag-5'>基座</b><b class='flag-5'>模型</b>

    燧原科技訓推一體芯片L600適配階躍星辰基座模型Step 3.5 Flash

    2026年2月2日,階躍星辰發布并開源最新基座模型 Step 3.5 Flash,該模型面向實時 Agent 工作流場景打造,兼顧推理速度、智能水平和使用成本,為開發者提供了一個“更快更強更穩
    的頭像 發表于 02-02 17:50 ?1276次閱讀
    燧原科技訓推一體芯片L600適配階躍星辰<b class='flag-5'>基座</b><b class='flag-5'>模型</b>Step 3.5 Flash

    壁仞科技壁礪166系列產品適配階躍星辰基座模型Step 3.5 Flash

    NEWS 2月2日,階躍星辰發布并開源最新旗艦基座模型Step 3.5 Flash。壁仞科技(06082.HK)作為國產GPGPU領域的先進技術領導者,壁礪 166系列產品在模型發布當日快速完成適配
    的頭像 發表于 02-02 17:48 ?1202次閱讀
    壁仞科技壁礪166系列產品適配階躍星辰<b class='flag-5'>基座</b><b class='flag-5'>模型</b>Step 3.5 Flash

    沐曦曦云C600 GPU產品適配階躍星辰基座模型Step 3.5 Flash

    今天,階躍星辰技術團隊發布并開源最新旗艦基座模型 Step 3.5 Flash。沐曦股份已實現曦云C600與該模型深度協同適配,為國內首先完成與該模型Day 0適配的國產算力。
    的頭像 發表于 02-02 14:44 ?375次閱讀
    沐曦曦云C600 GPU產品適配階躍星辰<b class='flag-5'>基座</b><b class='flag-5'>模型</b>Step 3.5 Flash

    清華大學“啟·創”計劃走進拓維信息,校企共探AI時代產學研合作新范式

    1月13日,清華大學“啟·創”計劃第十三期赴湘社會實踐活動暨TalkwebHouse創業私董會第二期在拓維信息圓滿舉辦。清華大學創業團隊20余名師生,與拓維信息團隊深入對話,圍繞“AI+”產業融合
    的頭像 發表于 01-16 14:04 ?523次閱讀
    <b class='flag-5'>清華</b>大學“啟·創”計劃走進拓維信息,校企共探AI時代產學研合作新范式

    海康威視亮相第三屆清華質量強國論壇

    近日,由清華大學質量與可靠性研究院、清華大學工業工程主辦的第三屆 “清華質量強國論壇” 在京舉行。作為第五屆中國質量獎獲獎企業,海康威視受邀參會,質量管理部總經理石炎明圍繞《“數智質
    的頭像 發表于 12-16 14:34 ?542次閱讀

    廣和通發布端側情感對話模型FiboEmo-LLM

    9月,廣和通正式發布自主研發的端側情感對話模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設備等終端場景提供“情感理解-情感響應”一體化能力,推動終端人工智能向更具人性化、情感化的
    的頭像 發表于 09-26 13:37 ?1906次閱讀

    內測活動同步開啟】這么小?這么強?新一代大模型MCP開發板來啦!

    內測活動同步開啟】這么小?這么強?新一代大模型MCP開發板來啦! 聆思全新一代六合一芯片「LS26系列」,搭載WIFI / BLE & BT / NPU,與「小聆AI」強強聯合
    發表于 09-25 11:47

    米爾RK3576部署端側多模態多輪對話,6TOPS算力驅動30億參數LLM

    rkllm_infer_params.keep_history = 1,開啟上下文記憶功能,KV-Cache 在顯存中持續追加存儲,每輪對話僅計算新增 token,大幅提升推理效率。使模型能關聯多輪
    發表于 09-05 17:25

    清華大學TOP EE+項目參訪美光上海

    此前,2025年6月4日至6日,清華大學TOP EE+ 項目于美光上海的參訪活動圓滿舉行。為期三天的活動匯聚了來自清華大學電子工程的優秀留學生與美光的多位管理者和工程師,展開了深入的技術交流與文化互動之旅。
    的頭像 發表于 07-07 18:02 ?1497次閱讀

    輕量通信+重磅智能,利爾達全新Cat.1+AI大模型方案讓對話從此無界!

    模型對話方案,通過預集成開發框架與標準化接口助力客戶高效構建AI生態,開啟交互新紀元。兩大AI語音方案滿足多樣化需求基于Cat.1蜂窩通信模組的廣域連接與低時延特性
    的頭像 發表于 05-23 17:59 ?1487次閱讀
    輕量通信+重磅智能,利爾達全新Cat.1+AI大<b class='flag-5'>模型</b>方案讓<b class='flag-5'>對話</b>從此無界!

    2025年開放原子校源行清華大學站成功舉辦

    近日,由開放原子開源基金會、清華大學計算機科學與技術清華大學軟件學院主辦的開放原子“校源行”(清華站)在清華大學成功舉辦。
    的頭像 發表于 04-22 16:46 ?943次閱讀