国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

多模態GPT:國內發布一款可以在線使用的多模態聊天機器人!

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-05-12 09:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

使用視覺和語言指令訓練一個多模態聊天機器人!

基于開源多模態模型OpenFlamingo,作者使用公開數據集創建了各種視覺指令數據,包括視覺問答、圖像字幕、視覺推理、文本 OCR 和視覺對話。此外,還使用僅包含語言指令數據的語言模型組件進行了訓練。

視覺和語言指令的聯合訓練有效提高了模型的性能!

具體細節就跟隨小編繼續往下看看吧~

總結

本文提出一種多模態GPT(視覺、語言),與人類進行多輪對話,同時設計了統一化多模態的指令數據模板

能夠遵循的指令類型:生成詳細的標題、計算特定的對象、處理一般的詢問

基準模型:OpenFlamingo(用LoRA方式訓練)

聯合訓練的數據:1.純文本數據 2.圖像-文本數據

其他的一些多模態GPT模型:GPT-4[1]、Mini-GPT[2]、LLaVA[3]

提到的其他LLM:Vicuna[4]、LLaMA[5]

提到的其他數據集:VQA v2.0、Ok-vqa、GQA、CLEVR、NLVR

1.引言

人類交流/理解世界的方式:視覺、語言等

AI智能助手的作用:根據多種模態的指令,理解人類意圖,完成各種任務

之前的方法:將視覺表示與LLM的輸入空間對齊,隨后利用LLM中的原始自我注意來處理視覺信息

本文的方法:微調Flamingo(開源)

視覺編碼器

門限交叉注意力機制

預訓練使用“圖文對”數據

統一多模態的指令模板

語言數據、語言-視覺數據,進行聯合訓練

本文目標:在多模態對話任務上,接近人的性能表現

2.統一指令模板

主要是提出了一個統一的訓練數據模板,把以下兩種數據整合起來,提高模型理解能力

2.1 僅語言的指令模板

d79a4b50-f062-11ed-90ce-dac502259ad0.png

僅包含語言的指令提示模板

{instruction},{input}為輸入文本,{response},用于計算損失

使用數據:

Dolly15k數據集

AlpacaGPT4數據集

2.2 視覺-語言的指令模板

d7af6f3a-f062-11ed-90ce-dac502259ad0.png

包含視覺-語言的指令提示模板

其中,{question}是原始文本,是表示圖像存在的token,{response}、用于計算損失

使用數據集:

LLaVA

Mini-GPT4

A-OKVQA

COCOcaption(不直接作為訓練集,而是用GPT-4轉化,再加入訓練集)

OCRVQA

上述合成指令使得訓練集較為豐富,則模型能夠更健壯

圖像描述的指令,舉例如下:

d7c48348-f062-11ed-90ce-dac502259ad0.png

本文方法

d7dc55ea-f062-11ed-90ce-dac502259ad0.png

模型結構圖

基線模型:open-flamingo模型

組成:

視覺編碼器:CLIP

感知重采樣

語言解碼器:LLaMA (自注意力、交叉注意力、FFW中加入LoRA,便于微調)

訓練數據:用2.1和2.2兩種數據,進行聯合訓練

訓練過程:通過預測文本的下一個標記進行訓練,只有{responce}和標記參與損失計算

4.實驗

實驗設置:

實驗參數 取值
GPU A100*8
epoch 1
batch_size 1
LoRA參數更新 每16輪
learningrate 1e-5

Demos展示:

給出一個烤千層面的食譜,并告訴用戶在哪里吃到它

d7fc15a6-f062-11ed-90ce-dac502259ad0.png

能夠識別埃隆·馬斯克的形象,并回答關于埃隆·馬斯克的問題

d8337690-f062-11ed-90ce-dac502259ad0.png

我知道照片上有4個女人,也知道她們在做什么

d858884a-f062-11ed-90ce-dac502259ad0.png

認得出電影,也知道電影是由哪個電影公司制作的

d87ee3be-f062-11ed-90ce-dac502259ad0.png

能識別圖像中的人物,并認識該書的作者

d8a9a662-f062-11ed-90ce-dac502259ad0.png

可以回答關于用戶旅行的一般問題

d8cdcefc-f062-11ed-90ce-dac502259ad0.png

可以為圖像生成詳細的描述,并有能力推理得到在圖像中的季節

d8ec6484-f062-11ed-90ce-dac502259ad0.png

在線網站

感興趣可以去官方網站[6]去嘗試下,真的很棒!點擊閱讀原文也可直達!

d9263600-f062-11ed-90ce-dac502259ad0.png

缺點是好像只支持英文~

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    4203

    瀏覽量

    46125
  • 語言模型
    +關注

    關注

    0

    文章

    571

    瀏覽量

    11310
  • 聊天機器人
    +關注

    關注

    0

    文章

    348

    瀏覽量

    13089

原文標題:多模態GPT:國內發布一款可以在線使用的多模態聊天機器人!快來把玩~

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    商湯科技正式開源模態自主推理模型SenseNova-MARS

    今日,商湯正式開源模態自主推理模型 SenseNova-MARS(8B/32B 雙版本),其在模態搜索與推理的核心基準測試中以 69.74 分超越Gemini-3-Pro(69.0
    的頭像 發表于 01-30 10:13 ?517次閱讀
    商湯科技正式開源<b class='flag-5'>多</b><b class='flag-5'>模態</b>自主推理模型SenseNova-MARS

    全球首個最大規??绫倔w視觸覺模態數據集白虎-VTouch發布

    具身智能走向真實世界規?;瘧?,離不開可復現、可擴展、可協同演進的數據基礎設施。圍繞真實物理交互能力構建這核心工程目標,1月26日,國家地方共建人形機器人創新中心聯合上海緯鈦科技有限公司正式發布
    的頭像 發表于 01-29 14:41 ?472次閱讀

    模態感知大模型驅動的密閉空間自主勘探系統的應用與未來發展

    ? ? 模態感知大模型驅動的密閉空間自主勘探系統 ? ?北京華盛恒輝模態感知大模型驅動的密閉空間自主勘探系統,是融合
    的頭像 發表于 12-29 11:27 ?295次閱讀

    易百納攜模態AI桌面機器人——Kubee Robot亮相2025火山引擎冬季FORCE大會

    的 Kubee Robot AI 桌面機器人亮相,該產品搭載海思 AI 主控與星閃技術,以 HongOU Lite 模組為內核,深度融合豆包大模型能力,實現模態智能交互,適配類 A
    的頭像 發表于 12-27 11:30 ?96次閱讀
    易百納攜<b class='flag-5'>多</b><b class='flag-5'>模態</b>AI桌面<b class='flag-5'>機器人</b>——Kubee Robot亮相2025火山引擎冬季FORCE大會

    商湯科技正式發布并開源全新模態模型架構NEO

    商湯科技正式發布并開源了與南洋理工大學S-Lab合作研發的全新模態模型架構 —— NEO,為日日新SenseNova 模態模型奠定了新
    的頭像 發表于 12-08 11:19 ?1014次閱讀
    商湯科技正式<b class='flag-5'>發布</b>并開源全新<b class='flag-5'>多</b><b class='flag-5'>模態</b>模型架構NEO

    亞馬遜云科技上線Amazon Nova模態嵌入模型

    Embeddings模態嵌入模型現已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應用打造的頂尖模態
    的頭像 發表于 10-29 17:15 ?261次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態</b>嵌入模型

    商湯日日新V6.5模態大模型登頂全球權威榜單

    Pro)模態大模型以82.2的綜合成績登頂榜首,領先Gemini 2.5 Pro以及GPT-5等國際頂尖模型。
    的頭像 發表于 09-10 09:55 ?790次閱讀

    淺析模態標注對大模型應用落地的重要性與標注實例

    ?在人工智能邁向AGI通用智能的關鍵道路上,大模型正從單的文本理解者,演進為能同時看、聽、讀、想的“多面手”。驅動這進化的核心燃料,正是高質量的模態數據,而將原始數據轉化為“
    的頭像 發表于 09-05 13:49 ?2240次閱讀

    商湯科技模態通用智能戰略思考

    時間是最好的試金石,AI領域尤其如此。當行業熱議大模型走向時,商湯早已錨定“模態通用智能”——這是我們以深厚研究積累和實踐反復驗證的可行路徑。
    的頭像 發表于 08-14 09:33 ?1183次閱讀

    商湯日日新SenseNova融合模態大模型 國內首家獲得最高評級的大模型

    的大模型。 可信AI模態大模型評估2025年1月啟動,由中國信通院人工智能研究所牽頭,依據由業界60余家單位共同編制的《模態大模型技術要求和評估方法》標準開展,是
    的頭像 發表于 06-11 11:57 ?1416次閱讀

    為旌科技VS859:國產具身智能“感算控”體SoC,賦能邊緣模態智能場景

      VS859是上海為旌科技有限公司推出的一款面向國產具身智能的模態“感算控”體化單芯片解決方案。是一款專為邊緣智能場景設計的高集成度S
    的頭像 發表于 05-14 14:29 ?1665次閱讀
    為旌科技VS859:國產具身智能“感算控”<b class='flag-5'>一</b>體SoC,賦能邊緣<b class='flag-5'>多</b><b class='flag-5'>模態</b>智能場景

    江智機器人公司《模態下人機協同交互系統與方法》發明專利已具有高價值發明專利屬性

    深圳市江智工業技術有限公司自2016年開始進入機器人產業領域近10年,不僅成功開發了10以上桌面與地面機器人,并主要應用于老年陪伴,慢
    的頭像 發表于 05-02 19:11 ?1151次閱讀
    江智<b class='flag-5'>機器人</b>公司《<b class='flag-5'>多</b><b class='flag-5'>模態</b>下人機協同交互系統與方法》發明專利已具有高價值發明專利屬性

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態大模型

    熟悉愛芯通元NPU的網友很清楚,從去年開始我們在端側模態大模型適配上直處于主動緊跟的節奏。先后適配了國內最早開源的
    的頭像 發表于 04-21 10:56 ?3145次閱讀
    愛芯通元NPU適配Qwen2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態</b>大模型

    ??低?b class='flag-5'>發布模態大模型AI融合巡檢超腦

    基于??涤^瀾大模型技術體系,??低曂瞥鲂?b class='flag-5'>一代模態大模型AI融合巡檢超腦,全面升級、車、行為、事件等算法,為行業帶來全新的
    的頭像 發表于 04-17 17:12 ?1611次閱讀

    ?模態交互技術解析

    模態交互 模態交互( Multimodal Interaction )是指通過多種感官通道(如視覺、聽覺、觸覺等)或多種交互方式(如語音、手勢、觸控、眼動等)與計算機系統進行自然、
    的頭像 發表于 03-17 15:12 ?4394次閱讀