国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

簡述文本與圖像領域的多模態學習有關問題

自然語言處理愛好者 ? 來源:哈工大SCIR ? 作者:李曉辰 ? 2021-08-26 16:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來自:哈工大SCIR

本期導讀:近年來研究人員在計算機視覺和自然語言處理方向均取得了很大進展,因此融合了二者的多模態深度學習也越來越受到關注。本期主要討論結合文本和圖像的多模態任務,將從多模態預訓練模型中的幾個分支角度,簡述文本與圖像領域的多模態學習有關問題。

1. 引言

近年來,計算機視覺和自然語言處理方向均取得了很大進展。而融合二者的多模態深度學習也越來越受到關注,在基于圖像和視頻的字幕生成、視覺問答(VQA)、視覺對話、基于文本的圖像生成等方面研究成果顯著,下圖1展示了有關多模態深度學習的應用范疇。

在這些任務中,無論是文本還是語音,自然語言都起到了幫助計算機“理解”圖像內容的關鍵作用,這里的“理解”指的是對齊語言中蘊含的語義特征與圖像中蘊含的圖像特征。本文主要關注于結合文本和圖像的多模態任務,將從多模態預訓練模型中的幾個分支來分析目前圖像與文本的多模態信息處理領域的有關問題。

2. 多模態預訓練模型

學習輸入特征的更好表示是深度學習的核心內容。在傳統的NLP單模態領域,表示學習的發展已經較為完善,而在多模態領域,由于高質量有標注多模態數據較少,因此人們希望能使用少樣本學習甚至零樣本學習。最近兩年出現了基于Transformer結構的多模態預訓練模型,通過海量無標注數據進行預訓練,然后使用少量有標注數據進行微調即可。

多模態預訓練模型根據信息融合的方式可分為兩大類,分別是Cross-Stream類和Single-Stream類。

(1)Cross-Stream類模型是指將不同模態的輸入分別處理之后進行交叉融合,例如ViLBERT[1]。2019年Lu Jiasen等人將輸入的文本經過文本Embedding層后被輸入到Transformer編碼器中提取上下文信息。

使用預訓練Faster R-CNN生成圖片候選區域提取特征并送入圖像Embedding層,然后將獲取好的文本和圖像表示通過Co-attention-transformer模塊進行交互融合,得到最后的表征。

(2)Single-Stream類模型將圖片、文本等不同模態的輸入一視同仁,在同一個模型進行融合,例如VL-BERT[2]。2020年,Su Weijie等人提出了VL-BERT,它采用transformer作為主干,將視覺和語言嵌入特征同時輸入模型。

3. 統一多模態模型

在之前的模型中,單模態數據集上訓練的模型只能做各自領域的任務,否則它們的表現會大幅下降。要想學習多模態模型必須圖文結合才行。這種多模態圖文對數據數據量少,獲取成本高。2021年,百度的Li Wei等人[3]提出的UNIMO模型,統一了單模態、多模態模型的訓練方式,既可以利用海量的單模態數據,又能將多模態信號統一在一個語義空間內促進理解。

UNIMO的核心網絡是Transformer,同時為圖像和文本輸入學習統一的語義表示。圖像和文本數據分別通過預訓練的Faster R-CNN和Bert進行特征提取和表示,多模態圖文對數據被轉換為圖像表示序列和文本表示序列的拼接。

這三種類型數據共享模型參數,經過多層注意力機制后得到圖像文本信息統一的語義表示,UNIMO結構如圖4所示。其訓練方式類似Bert, 此外論文還提出了一種跨模態對比學習的新預訓練方法。

在多模態任務上, UNIMO超過了諸如ViLBERT、VLP、UNITER、Oscar、Villa等最新的多模預訓練模型。而且在單模態任務上也取得了不錯的效果,如圖5(b)所示。

4. 視覺物體錨點模型

前面的幾個模型只是將圖像區域特征和文本特征連接起來作為輸入,并不參考任何對齊線索,利用Transformer的self-attention機制,讓模型自動學習整張圖像和文本的語義對齊方式。Oscar的作者[4]提出把物體用作圖像和文本語義層面上的錨點(Anchor Point),以簡化圖像和文本之間的語義對齊的學習任務。

使用Faster R-CNN等預訓練物體檢測器 ,將圖像表示為一組圖像區域特征,每個圖像區域特征分配一個物體標簽,同時使用預訓練后的BERT得到物體標簽的詞嵌入表示。

該模型在共享空間中顯式地將圖像和文本關聯在一起,物體則扮演圖像、文本語義對齊中錨點的角色。在此例中,由于視覺重疊區域,“狗”和“沙發”在圖像區域特征空間中相似,在單詞嵌入空間中有所差異。

經過實驗測試,該模型的性能在多個任務上已經超過SOTA模型。下表中 SoTAS、 SoTAB、和SoTAL分別表示小規模模型、與Bert-base和Bert-large規模相近的VLP模型。OscarB和OscarL分別是基于Bert-base和Bert-large訓練的Oscar模型。

5. 總結

目前多模態研究已經取得了較大進展,但如果以構建能感知多模態信息并利用多模態信息跨越語義鴻溝的智能系統為目標,那么現在的研究仍處于初級階段,既面臨著挑戰,也存在著機遇。在未來,多模態表示學習、多模態情感分析以及任務導向的大規模多模態人機交互系統等方向的發展值得我們關注。

Reference

[1] Lu J , Batra D , Parikh D , et al. ViLBERT: Pretraining Task-Agnostic Visiolinguistic Representations for Vision-and-Language Tasks[J]。 2019.

[2] Su W , Zhu X , Y Cao, et al. VL-BERT: Pre-training of Generic Visual-Linguistic Representations[J]。 2019.

[3] Li W , Gao C , Niu G , et al. UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning[J]。 2020.

[4] Li X , Yin X , Li C , et al. Oscar: Object-Semantics Aligned Pre-training for Vision-Language Tasks[M]。 2020.

原文:李曉辰

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 圖像
    +關注

    關注

    2

    文章

    1096

    瀏覽量

    42326
  • 計算機視覺
    +關注

    關注

    9

    文章

    1715

    瀏覽量

    47623
  • 深度學習
    +關注

    關注

    73

    文章

    5598

    瀏覽量

    124396
  • 自然語言處理

    關注

    1

    文章

    630

    瀏覽量

    14667

原文標題:多模態預訓練模型簡述

文章出處:【微信號:NLP_lover,微信公眾號:自然語言處理愛好者】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    商湯科技正式發布并開源全新模態模型架構NEO

    商湯科技正式發布并開源了與南洋理工大學S-Lab合作研發的全新模態模型架構 —— NEO,為日日新SenseNova 模態模型奠定了新一代架構的基石。
    的頭像 發表于 12-08 11:19 ?1014次閱讀
    商湯科技正式發布并開源全新<b class='flag-5'>多</b><b class='flag-5'>模態</b>模型架構NEO

    格靈深瞳模態大模型Glint-ME讓圖文互搜更精準

    在電商、安防等場景下,圖文互搜應用廣泛。隨著以CLIP為代表的模態表征方法相繼提出,過去單一模態搜索(文搜文、圖搜圖)被突破,模型可以同時理解文本、
    的頭像 發表于 11-02 15:56 ?1712次閱讀
    格靈深瞳<b class='flag-5'>多</b><b class='flag-5'>模態</b>大模型Glint-ME讓圖文互搜更精準

    亞馬遜云科技上線Amazon Nova模態嵌入模型

    Embeddings模態嵌入模型現已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應用打造的頂尖模態嵌入模型。該模型是首個通過單一模型支持
    的頭像 發表于 10-29 17:15 ?261次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態</b>嵌入模型

    米爾RK3576部署端側模態輪對話,6TOPS算力驅動30億參數LLM

    細化需求,系統需實時調整響應策略 1.2 輪對話系統鳥瞰:三顆“核心”協同驅動RK3576 模態交互對話方案基于 RKLLM 的核心運作,依賴于圖像視覺編碼器、大語言模型與對話管
    發表于 09-05 17:25

    淺析模態標注對大模型應用落地的重要性與標注實例

    ”的關鍵工序——模態標注重要性日益凸顯。 一、什么是模態標注? 模態標注是指對
    的頭像 發表于 09-05 13:49 ?2240次閱讀

    基于米爾瑞芯微RK3576開發板的Qwen2-VL-3B模型NPU模態部署評測

    案例:支持圖像文本交互 步驟 1:環境準備 步驟 2:模型的獲取、驗證與格式轉換 步驟 3:修改代碼并交叉編譯可執行文件并上傳到板子上 步驟 4:上傳文件到開發板 性能測試 Tips
    發表于 08-29 18:08

    商湯科技模態通用智能戰略思考

    時間是最好的試金石,AI領域尤其如此。當行業熱議大模型走向時,商湯早已錨定“模態通用智能”——這是我們以深厚研究積累和實踐反復驗證的可行路徑。
    的頭像 發表于 08-14 09:33 ?1183次閱讀

    飛凌嵌入式RK3576模態大模型圖像理解助手,讓嵌入式設備“看懂”世界

    (LLM)+視覺語言模型(VLM)模態架構,推出模態大模型圖像理解助手,為嵌入式設備打造 “智能視覺中樞”,讓終端設備能夠真正 “看懂”
    的頭像 發表于 07-25 11:09 ?1665次閱讀
    飛凌嵌入式RK3576<b class='flag-5'>多</b><b class='flag-5'>模態</b>大模型<b class='flag-5'>圖像</b>理解助手,讓嵌入式設備“看懂”世界

    Android Studio中的Gemini支持模態輸入功能

    的 Gemini 現已支持模態輸入,您可在提示中直接添加圖像!這為團隊協作和界面開發工作流程解鎖了更多新的可能性。
    的頭像 發表于 05-14 16:44 ?1176次閱讀

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態大模型

    熟悉愛芯通元NPU的網友很清楚,從去年開始我們在端側模態大模型適配上一直處于主動緊跟的節奏。先后適配了國內最早開源的模態大模MiniCPM V 2.0,上海人工智能實驗室的書生
    的頭像 發表于 04-21 10:56 ?3145次閱讀
    愛芯通元NPU適配Qwen2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態</b>大模型

    把樹莓派打造成識別文本的“神器”!

    在許多項目中,RaspberryPi被用作監控攝像頭或執行機器學習任務。在這些場景中,圖像中經常包含應用程序感興趣的文本信息。我們希望提取這些信息并將其轉換,以便通過程序分析文本
    的頭像 發表于 03-25 09:30 ?979次閱讀
    把樹莓派打造成識別<b class='flag-5'>文本</b>的“神器”!

    移遠通信智能模組全面接入模態AI大模型,重塑智能交互新體驗

    隨著千行百業數智化進程的不斷加速,模態AI大模型的應用需求不斷攀升,圖像、語音、視頻等多樣化的交互方式正逐漸成為推動行業變革的新動力。 ? 3月20日,全球物聯網整體解決方案供應商移遠通信宣布,其
    發表于 03-21 14:12 ?532次閱讀
    移遠通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態</b>AI大模型,重塑智能交互新體驗

    移遠通信智能模組全面接入模態AI大模型,重塑智能交互新體驗

    隨著千行百業數智化進程的不斷加速,模態AI大模型的應用需求不斷攀升,圖像、語音、視頻等多樣化的交互方式正逐漸成為推動行業變革的新動力。3月20日,全球物聯網整體解決方案供應商移遠通信宣布,其全系
    的頭像 發表于 03-20 19:03 ?820次閱讀
    移遠通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態</b>AI大模型,重塑智能交互新體驗

    ?VLM(視覺語言模型)?詳細解析

    視覺語言模型(Visual Language Model, VLM)是一種結合視覺(圖像/視頻)和語言(文本)處理能力的模態人工智能模型,能夠理解并生成與視覺內容相關的自然語言。以下
    的頭像 發表于 03-17 15:32 ?8823次閱讀
    ?VLM(視覺語言模型)?詳細解析

    ?模態交互技術解析

    模態交互 模態交互( Multimodal Interaction )是指通過多種感官通道(如視覺、聽覺、觸覺等)或多種交互方式(如語音、手勢、觸控、眼動等)與計算機系統進行自然、
    的頭像 發表于 03-17 15:12 ?4394次閱讀