国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何創(chuàng)建高質(zhì)量、大規(guī)模、多語言的數(shù)據(jù)集

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2021-10-29 10:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

多模式視覺語言模型依賴大量數(shù)據(jù)集來對圖像和文本之間的關(guān)系進行建模。一般來說,這些數(shù)據(jù)集有兩種創(chuàng)建方法:手動為圖像添加文字說明,或抓取網(wǎng)頁并提取替代文本 (alt-text)作為文字說明。雖然前一種方法更利于產(chǎn)生更高質(zhì)量的數(shù)據(jù),但高強度的人工注釋過程限制了可創(chuàng)建的數(shù)據(jù)量。另一方面,雖然自動提取方法可以產(chǎn)生更大的數(shù)據(jù)集,但卻需要通過啟發(fā)式算法以及仔細過濾來確保數(shù)據(jù)質(zhì)量,或者擴展模型來保證強大性能。現(xiàn)有數(shù)據(jù)集的另一個缺點是極少涉及非英語語言。這不禁讓我們產(chǎn)生疑問:我們能否突破這些限制,創(chuàng)建包含各種內(nèi)容的高質(zhì)量、大規(guī)模、多語言數(shù)據(jù)集?

圖像和文本之間的關(guān)系

https://ai.googleblog.com/2014/11/a-picture-is-worth-thousand-coherent.html

確保數(shù)據(jù)質(zhì)量

https://ai.googleblog.com/2018/09/conceptual-captions-new-dataset-and.html

對此,我們推出了基于維基百科的圖像文本 (WIT) 數(shù)據(jù)集。這是一個大型多模式數(shù)據(jù)集,通過從維基百科文章和 Wikimedia 圖像鏈接中提取與圖像相關(guān)的多種不同文本選擇集創(chuàng)建而成。在創(chuàng)建過程中會執(zhí)行嚴格的過濾環(huán)節(jié),以便僅保留高質(zhì)量的圖像文本集。

基于維基百科的圖像文本 (WIT) 數(shù)據(jù)集

https://github.com/google-research-datasets/wit

如我們在 SIGIR 2021 上發(fā)布的“WIT:適用于多模式、多語言機器學(xué)習(xí)的基于維基百科的圖像文本數(shù)據(jù)集 (WIT: Wikipedia-based Image Text Dataset for Multimodal Multilingual Machine Learning)”中詳細說明的那樣,該過程產(chǎn)生一個包含 3750 萬個實體豐富的圖像文本示例精選集,其中涵蓋 1150 萬張獨特的圖像,跨越 108 種語言。大家可憑知識共享許可下載并使用 WIT 數(shù)據(jù)集。此外,我們也很高興地宣布,我們將與 Wikimedia Research 以及其他外部協(xié)作者攜手在 Kaggle 舉辦 WIT 數(shù)據(jù)集的競賽。

數(shù)據(jù)集 圖像
數(shù)量
文本 上下文
文本
語言數(shù)量
Flickr30K 32K 158K - < 8
SBU Captions 1M 1M - 1
MS-COCO 330K 1.5M - < 4;7
(僅限測試)
CC-3M 3.3M 3.3M - 1
CC-12M 12M 12M - 1
WIT 11.5M 37.5M ~119M 108

相比以往數(shù)據(jù)集,WIT 的語言更多,規(guī)模更大

WIT 數(shù)據(jù)集的獨特優(yōu)勢包括:

1. 大規(guī)模:WIT 是公開提供的最大的圖像文本示例多模式數(shù)據(jù)集。

2.多語言:WIT 擁有 108 種語言,是其他數(shù)據(jù)集的十倍或以上。

3.上下文信息:與典型的多模式數(shù)據(jù)集(每個圖像只有一個文字說明)不同,WIT 包含許多頁面級和部分級上下文信息。

4.現(xiàn)實世界實體:維基百科是一個覆蓋廣泛的知識庫,其豐富的現(xiàn)實世界實體可以在 WIT 中得以體現(xiàn)。

5.具有挑戰(zhàn)性的測試集:在我們最近獲得 EMNLP 接受的研究中,所有最先進的模型在 WIT 上表現(xiàn)出的性能都明顯低于傳統(tǒng)評估集,例如平均召回率 (recall)下降約 30 點。

最近獲得 EMNLP 接受的研究

https://arxiv.org/abs/2109.05125

數(shù)據(jù)集的創(chuàng)建過程

WIT 的主要目標是在不犧牲質(zhì)量和概念覆蓋面的情況下創(chuàng)建大型數(shù)據(jù)集。因此,我們選擇利用當今最大的在線百科全書:維基百科。

就可用信息的深度而言,我們以維基百科上的“Half Dome”(加州約塞米蒂國家公園)頁面為例如下所示,文章為圖像提供了許多有趣的文本說明和相關(guān)的上下文信息,如頁面標題、主要頁面描述以及其他上下文信息和元數(shù)據(jù)。

我們首先選擇包含圖像的維基百科頁面,然后提取各種圖像文本關(guān)聯(lián)內(nèi)容和周圍的上下文。為進一步優(yōu)化數(shù)據(jù),我們執(zhí)行嚴格的過濾環(huán)節(jié)來確保數(shù)據(jù)質(zhì)量。過濾過程包含:

基于文本的過濾,以確保文字說明的可用性、長度和質(zhì)量(例如通過刪除通用默認填充文本);

基于圖像的過濾,以確保每個圖像都具有特定的大小且擁有允許的許可;

基于圖像和文本實體的過濾,以確保適合研究(例如排除仇恨類言論)。

接著我們進一步對圖像文字說明集隨機抽樣,由真人進行校對評估,他們中絕大多數(shù)人都認可一個結(jié)論:98% 樣本其圖像與文字說明一致。

高度語言多樣性

WIT 擁有 108 種語言的數(shù)據(jù),是首個大規(guī)模、多語言、多模式數(shù)據(jù)集。

圖像文本集數(shù)量 獨特語言
數(shù)量
圖像數(shù)量 獨特語言
數(shù)量
> 1M 9 > 1M 6
500K - 1M 10 500K - 1M 12
100K - 500K 36 100K - 500K 35
50K - 100K 15 50K - 100K 17
14K - 50K 38 13K - 50K 38

WIT:跨語言覆蓋統(tǒng)計信息

首個上下文圖像文字數(shù)據(jù)集

大多數(shù)多模式數(shù)據(jù)集僅為給定圖像提供單個文本說明(或類似文字說明的多個版本)。WIT 是首個提供上下文信息的數(shù)據(jù)集, 可以幫助研究人員就上下文對圖像文字說明以及圖像選擇的影響進行建模。

具體而言,可能有助于研究的 WIT 關(guān)鍵文本字段包括:

文本說明:WIT 提供三種不同的圖像文字說明,包括(可能受上下文影響的)“參考描述”、(可能不受上下文影響的)“屬性描述”,以及“替代文本描述”。

上下文信息:包括頁面標題、頁面描述、網(wǎng)址和有關(guān)維基百科部分的局部上下文(包括部分標題和文本)。

如下所示,WIT 在以下不同字段具有廣泛的覆蓋。

WIT 圖像
文字字段
訓(xùn)練 Val 測試 合計/獨特
行/元組 37.1M 261.8K 210.7K 37.6M
獨特的圖像 11.4M 58K 57K 11.5M
參考描述 16.9M 150K 104K 17.2M/16.7M
屬性描述 34.8M 193K 200K 35.2M/10.9M
替代文本 5.3M 29K 29K 5.4M/5.3M
上下文文本 - - - 119.8M

WIT 的關(guān)鍵字段兼有文本說明和上下文信息

高質(zhì)量訓(xùn)練集與

具有挑戰(zhàn)性的評估基準

維基百科廣泛覆蓋各種概念,這意味著 WIT 評估集作為評估基準非常具有挑戰(zhàn)性,即使對于最先進的模型而言也是如此。在圖像文本檢索方面,我們發(fā)現(xiàn)傳統(tǒng)數(shù)據(jù)集的平均召回分數(shù) (mean recall scores)為 80 秒,而對于 WIT 測試集而言,資源豐富的語言為 40 秒,資源不足的語言為 30 秒。我們希望這可以轉(zhuǎn)而幫助研究人員構(gòu)建更強大、更穩(wěn)健的模型。

WIT 數(shù)據(jù)集與 Wikimedia 和

Kaggle 攜手開展競賽

此外,非常高興地宣布,我們將攜手 Wikimedia Research 以及一些外部協(xié)作者共同組織 WIT 測試集的競賽。競賽將在 Kaggle 舉辦,競賽任務(wù)為圖像文本檢索。我們將給定一組圖像和文本說明,而參賽者的任務(wù)是為每個圖像檢索適當?shù)奈淖终f明。

為促進該領(lǐng)域的研究,維基百科為大部分訓(xùn)練和測試數(shù)據(jù)集提供了 300 像素分辨率的圖像和基于 Resnet-50 的圖像嵌入向量。除 WIT 數(shù)據(jù)集以外,Kaggle 還將托管所有圖像數(shù)據(jù),并提供 Colab notebooks。此外,參賽者屆時可訪問 Kaggle 論壇,以便分享代碼和開展協(xié)作。任何對多模態(tài)感興趣的人都可以借此輕松開始并運行實驗。我們很高興并且期待各位參賽者可以在 Kaggle 平臺,通過 WIT 數(shù)據(jù)集和維基百科圖像為我們帶來精彩表現(xiàn)。

結(jié)論

我們相信 WIT 數(shù)據(jù)集將幫助研究人員構(gòu)建更好的多模態(tài)多語言模型,并識別更好的學(xué)習(xí)和表征技術(shù),最終借助視覺語言數(shù)據(jù)在現(xiàn)實世界任務(wù)中優(yōu)化機器學(xué)習(xí)模型。如有任何問題,請聯(lián)系 wit-dataset@google.com。我們非常愿意傾聽您如何使用 WIT 數(shù)據(jù)集。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7335

    瀏覽量

    94773
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52111
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136953

原文標題:基于維基百科的圖像文本數(shù)據(jù)集 (WIT)

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    聲智科技亮相2026海淀區(qū)經(jīng)濟社會高質(zhì)量發(fā)展大會

    近日,海淀區(qū)高質(zhì)量發(fā)展大會隆重召開。聲智科技作為深耕聲學(xué)AI模型技術(shù)創(chuàng)新及AI全棧產(chǎn)品商業(yè)化落地的AI應(yīng)用標桿企業(yè)受邀出席大會。聲智科技不僅致力于突破物理AI技術(shù)的“天花板“,更通過硬核終端的規(guī)模化產(chǎn)出,將技術(shù)勢能轉(zhuǎn)化為高質(zhì)量發(fā)
    的頭像 發(fā)表于 03-04 17:42 ?1408次閱讀

    京東多語言質(zhì)量解決方案

    一、業(yè)界多語言面臨的通用挑戰(zhàn)是什么 做這個事之前,我們先看看業(yè)界做了什么。 ??阿里巴巴全球化測試技術(shù)介紹? ??螞蟻全球化無線端質(zhì)量解決方案? ??談?wù)?b class='flag-5'>多語言測試? 總結(jié)下來,需要面臨3個通用
    的頭像 發(fā)表于 01-13 16:18 ?922次閱讀
    京東<b class='flag-5'>多語言</b><b class='flag-5'>質(zhì)量</b>解決方案

    長城汽車以全新平臺助力中國汽車產(chǎn)業(yè)高質(zhì)量發(fā)展

    在中國汽車產(chǎn)業(yè)邁入由“規(guī)模領(lǐng)先”向“質(zhì)量躍遷”的關(guān)鍵階段,一場圍繞產(chǎn)業(yè)高質(zhì)量發(fā)展的深度對話,在央視新聞鏡頭前展開。
    的頭像 發(fā)表于 12-18 14:06 ?414次閱讀

    廣電計量創(chuàng)新服務(wù)體系助力商業(yè)航天高質(zhì)量發(fā)展

    近日,國家航天局正式印發(fā)《推進商業(yè)航天高質(zhì)量安全發(fā)展行動計劃(2025—2027年)》(以下簡稱《行動計劃》),明確將商業(yè)航天納入國家航天發(fā)展總體布局,提出到2027年實現(xiàn)產(chǎn)業(yè)規(guī)模顯著壯大、創(chuàng)新活力
    的頭像 發(fā)表于 11-27 17:22 ?1297次閱讀

    SimData:基于aiSim的高保真虛擬數(shù)據(jù)生成方案

    01前言在自動駕駛感知系統(tǒng)的研發(fā)過程中,模型的性能高度依賴于大規(guī)模高質(zhì)量的感知數(shù)據(jù)。目前業(yè)界常用的數(shù)據(jù)
    的頭像 發(fā)表于 11-07 17:35 ?5367次閱讀
    SimData:基于aiSim的高保真虛擬<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>生成方案

    阿里巴巴國際站關(guān)鍵字搜索 API 實戰(zhàn):3 步搞定多語言適配 + 限流破局,詢盤量提升 40%

    跨境電商API開發(fā)常陷合規(guī)、多語言、限流等坑。本文詳解從國際合規(guī)(GDPR/CCPA)到參數(shù)優(yōu)化、數(shù)據(jù)結(jié)構(gòu)化及區(qū)域化搜索的全鏈路方案,附Python代碼模板與緩存重試架構(gòu),助力提升調(diào)用成功率至99%+,精準詢盤增長42%。
    的頭像 發(fā)表于 10-20 14:44 ?1719次閱讀

    速賣通全球運營利器:商品詳情接口多語言 + 合規(guī) + 物流適配技術(shù)全解析

    速賣通全球化適配是跨境成功關(guān)鍵!本文詳解2025最新接口方案,涵蓋多語言智能翻譯、合規(guī)自動校驗、物流精準推薦與性能優(yōu)化四大模塊,助力商家提升轉(zhuǎn)化率30%+,降低風(fēng)險,提效80%。附實操代碼與新手三步走策略,適合所有想出海的賣家。
    的頭像 發(fā)表于 10-16 09:30 ?539次閱讀
    速賣通全球運營利器:商品詳情接口<b class='flag-5'>多語言</b> + 合規(guī) + 物流適配技術(shù)全解析

    標貝科技參編《人工智能高質(zhì)量數(shù)據(jù)建設(shè)指南》

    在人工智能邁入“數(shù)據(jù)驅(qū)動”的關(guān)鍵發(fā)展階段,高質(zhì)量數(shù)據(jù)已成為突破技術(shù)瓶頸、推動產(chǎn)業(yè)落地的核心引擎。日前,中國信息通信研究院人工智能研究所聯(lián)合清華大學(xué)計算社會科學(xué)與國家治理實驗室、中國人工智能產(chǎn)業(yè)發(fā)展
    的頭像 發(fā)表于 09-11 17:19 ?902次閱讀

    易華錄入選國家首批高質(zhì)量數(shù)據(jù)建設(shè)先行先試工作名單

    8月28日下午,在2025中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,國家數(shù)據(jù)局發(fā)布了首批高質(zhì)量數(shù)據(jù)建設(shè)先行先試工作名單。經(jīng)中國電科推薦、國家數(shù)據(jù)局評審,
    的頭像 發(fā)表于 09-04 09:04 ?1054次閱讀

    索尼重載設(shè)備的高質(zhì)量遠程制作方案和應(yīng)用(2)

    索尼的遠程制作可以被稱之為制作級的高質(zhì)量遠程制作,或重載設(shè)備的高質(zhì)量遠程制作,遠程設(shè)備結(jié)合常規(guī)系統(tǒng)設(shè)備,提供和本地制作類似的制作級高質(zhì)量圖像,延續(xù)電視臺/制作公司的設(shè)備特點和優(yōu)勢。
    的頭像 發(fā)表于 08-21 15:56 ?1225次閱讀
    索尼重載設(shè)備的<b class='flag-5'>高質(zhì)量</b>遠程制作方案和應(yīng)用(2)

    索尼重載設(shè)備的高質(zhì)量遠程制作方案和應(yīng)用(1)

    最近的各地體育活動中,索尼提供了多種產(chǎn)品和系統(tǒng)方案進行測試和使用,其中將攝像機用于轉(zhuǎn)播場地的集中式遠程制作方式是常用方式。索尼專業(yè)解決方案突出制作級質(zhì)量的優(yōu)勢,具有圖像高質(zhì)量,低碼率,低延時特點,能提供不一樣的高質(zhì)量遠程制作。
    的頭像 發(fā)表于 08-21 15:55 ?940次閱讀
    索尼重載設(shè)備的<b class='flag-5'>高質(zhì)量</b>遠程制作方案和應(yīng)用(1)

    大模型時代,如何推進高質(zhì)量數(shù)據(jù)建設(shè)?

    高質(zhì)量數(shù)據(jù),即具備高價值、高密度、標準化特征的數(shù)據(jù)集合。 在AI領(lǐng)域,高質(zhì)量數(shù)據(jù)地位舉足輕重,如同原油經(jīng)煉化成為汽油驅(qū)動汽車,海量原始
    的頭像 發(fā)表于 08-21 13:58 ?836次閱讀

    從芯片到主板,科技創(chuàng)新實現(xiàn)高質(zhì)量發(fā)展

    數(shù)字化時代,科技的迅猛發(fā)展深刻影響著各個領(lǐng)域。從芯片到主板的集成,生動展現(xiàn)了科技創(chuàng)新如何成為推動高質(zhì)量發(fā)展的核心動力。
    的頭像 發(fā)表于 07-26 16:26 ?834次閱讀

    新能源變革之路,要建在“高質(zhì)量”的路基上

    高質(zhì)量”是能源革命的前提與基座
    的頭像 發(fā)表于 06-24 11:42 ?2483次閱讀
    新能源變革之路,要建在“<b class='flag-5'>高質(zhì)量</b>”的路基上

    淺析:數(shù)字經(jīng)濟時代,高質(zhì)量數(shù)據(jù)對AI產(chǎn)業(yè)帶來哪些新的變化

    大模型技術(shù)不斷取得突破,其中大規(guī)模高質(zhì)量訓(xùn)練數(shù)據(jù)的投入,起到了關(guān)鍵作用,也進一步將?“以數(shù)據(jù)為中心的人工智能”?推向一個新階段。從早期簡單的圖像識別、語音識別,到如今復(fù)雜的自然
    的頭像 發(fā)表于 05-09 15:10 ?1104次閱讀