概要:今天我們將討論深度學(xué)習(xí)中最核心的問題之一:訓(xùn)練數(shù)據(jù)。
Hello World!
今天我們將討論深度學(xué)習(xí)中最核心的問題之一:訓(xùn)練數(shù)據(jù)。深度學(xué)習(xí)已經(jīng)在現(xiàn)實(shí)世界得到了廣泛運(yùn)用,例如:無人駕駛汽車,收據(jù)識別,道路缺陷自動檢測,以及交互式電影推薦等等。
我們大部分的時間并不是花在構(gòu)建神經(jīng)網(wǎng)絡(luò)上,而是處理訓(xùn)練數(shù)據(jù)。深度學(xué)習(xí)需要大量的數(shù)據(jù),然而有時候僅僅標(biāo)注一張圖像就需要花費(fèi)一個小時的時間!所以我們一直在考慮:能否找到一個方法來提升我們的工作效率?是的,我們找到了。
現(xiàn)在,我們很自豪的將Supervisely令人驚嘆的新特性公諸于世:支持AI的標(biāo)注工具來更快速地分割圖像上的對象。
在本文中,我們將重點(diǎn)介紹計(jì)算機(jī)視覺,但是,類似的思路也可用在大量不同類型的數(shù)據(jù)上,例如文本數(shù)據(jù)、音頻數(shù)據(jù)、傳感器數(shù)據(jù)、醫(yī)療數(shù)據(jù)等等。
重點(diǎn):數(shù)據(jù)越多,AI越智能
讓我們以吳恩達(dá)非常著名的幻燈片開始,首先對其進(jìn)行小小的修改。

深度學(xué)習(xí)的表現(xiàn)優(yōu)于其它機(jī)器學(xué)習(xí)算法早已不是什么秘密。從上圖可以得出以下結(jié)論。
結(jié)論 0:AI產(chǎn)品需要數(shù)據(jù)。
結(jié)論 1:獲得的數(shù)據(jù)越多,AI就會越智能。
結(jié)論 2:行業(yè)巨頭所擁有的數(shù)據(jù)量遠(yuǎn)超其它企業(yè)。
結(jié)論 3:AI產(chǎn)品的質(zhì)量差距是由其所擁有的數(shù)據(jù)量決定的。
因此,網(wǎng)絡(luò)架構(gòu)對AI系統(tǒng)的表現(xiàn)影響很大,但是訓(xùn)練數(shù)據(jù)的多少對系統(tǒng)表現(xiàn)的影響最大。致力于數(shù)據(jù)收集的公司可以提供更好的AI產(chǎn)品并獲得巨大的成功。
常見錯誤:AI全都是關(guān)于構(gòu)建神經(jīng)網(wǎng)絡(luò)的。

如上圖所示,當(dāng)人們一想到AI,就會想到算法,但是也應(yīng)該考慮到數(shù)據(jù)。算法是免費(fèi)的:谷歌和其他巨頭更傾向于向世界分享他們最先進(jìn)的(state-of-the-art)研究成果,但是他們從不會共享數(shù)據(jù)。
許多人已經(jīng)跳上了人工智能炒作的列車,并且創(chuàng)造了極棒的構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)的工具,然而關(guān)注訓(xùn)練數(shù)據(jù)的人卻少的可憐。當(dāng)企業(yè)打算將人工智能轉(zhuǎn)換成實(shí)際應(yīng)用時,會傾盡全部工具用于訓(xùn)練神經(jīng)網(wǎng)絡(luò),卻沒有用于開發(fā)訓(xùn)練數(shù)據(jù)上的工具。
吳恩達(dá)說論文已經(jīng)足夠了,現(xiàn)在讓我們來構(gòu)建AI吧!
好主意,我們完全贊同。目前有許多論文和開源成果論述了最先進(jìn)的(state of the art )且涵蓋所有的實(shí)際應(yīng)用的神經(jīng)網(wǎng)絡(luò)架構(gòu)。想象一下,你獲得了一個價值10億美元的新想法。首先想到的肯定不會是:我將使用哪種類型的神經(jīng)網(wǎng)絡(luò)?最有可能的是:我在哪里可以得到能建立MVP的數(shù)據(jù)?
讓我們來尋找一些有效的方法訓(xùn)練數(shù)據(jù),可行的方法如下:
1.開源數(shù)據(jù)集。深度神經(jīng)網(wǎng)絡(luò)(DNN)的價值是用于訓(xùn)練數(shù)據(jù),在計(jì)算機(jī)視覺研究中,大多數(shù)可用數(shù)據(jù)都是針對特定研究小組所研究的課題而設(shè)計(jì)的,通常對于新研究人員來說,需要搜集更多額外的數(shù)據(jù)去解決他們自己的課題。這就是在大多數(shù)情況下開源數(shù)據(jù)集并不是一個解決方案的原因。
2.人工數(shù)據(jù)。它適用于類似OCR文字識別或者是文本檢測,然而很多實(shí)例(如人臉識別,醫(yī)學(xué)影像等)表明人工數(shù)據(jù)很難甚至是不可能產(chǎn)生,通常的做法是將人工數(shù)據(jù)和帶標(biāo)注的圖像相結(jié)合使用。
3.Web。自動收集高質(zhì)量的訓(xùn)練數(shù)據(jù)是很難的,通常我們會對收集的訓(xùn)練數(shù)據(jù)進(jìn)行修正和過濾。
4.外面訂購圖像標(biāo)注服務(wù)。一些公司提供這樣的服務(wù),我們也不例外。但其很大的缺點(diǎn)是不能進(jìn)行快速的迭代。通常,即使是數(shù)據(jù)專家也不確定如何標(biāo)注。通常的順序是做迭代研究:標(biāo)注圖像的一小部分→建立神經(jīng)網(wǎng)絡(luò)架構(gòu) →檢查結(jié)果。每個新的標(biāo)注都將會影響后續(xù)的標(biāo)注。
5.手動標(biāo)注圖像。僅適用于你自己的工作,領(lǐng)域內(nèi)的專業(yè)知識是很關(guān)鍵的。醫(yī)學(xué)影像就是個很好的例子:只有醫(yī)生知道腫瘤在哪里。手動注解圖像這個過程很耗時,但是如果你想要一個定制化的AI,也沒有其他辦法。
正如我們所看到的,其實(shí)并沒有萬能方法,最常見的方案是創(chuàng)建我們自己任務(wù)特定的訓(xùn)練數(shù)據(jù),形成人工數(shù)據(jù),如果可能的話再整合到公共數(shù)據(jù)集中。這其中的關(guān)鍵是,你必須為特定的任務(wù)建立自己獨(dú)一無二的數(shù)據(jù)集。
讓我們深入學(xué)習(xí)來構(gòu)建深度學(xué)習(xí)
深度學(xué)習(xí)接近于數(shù)據(jù)匱乏,且其性能極度依賴于可供訓(xùn)練數(shù)據(jù)的數(shù)量。
通過實(shí)例我們可以看出標(biāo)注的過程有多困難。這里是標(biāo)注過程所花費(fèi)時間的一些原始數(shù)據(jù),例如使用Cityscapes數(shù)據(jù)集(用于無人駕駛),在對Cityscapes數(shù)據(jù)集中單個圖像的精細(xì)像素級的標(biāo)注平均需要花費(fèi)1.5h,如果標(biāo)注5000個圖像,則需要花費(fèi)5000*1.5=7500h。假設(shè)1h=$10(美國最低工資),那么僅僅是標(biāo)注該數(shù)據(jù)集就需要花費(fèi)約$7.5萬左右(不包括其他額外的成本)。同樣吃驚的是,像這樣一家擁有1000名做無人駕駛圖像標(biāo)注員工的公司,只不過是冰山一角。
神經(jīng)網(wǎng)絡(luò)能否幫助我們提高圖像標(biāo)注的效率呢?我們可不是第一個試圖回答這一問題的人。
半自動化實(shí)例標(biāo)注很早就開始使用了, 有很多經(jīng)典的方法可提高標(biāo)注的效率,如超像素塊算法(Superpixels),分水嶺算法(Watershed),GrabCut分割算法等。近幾年,研究人員試圖用深度學(xué)習(xí)完成這一任務(wù)(link1, link2, link3),這些經(jīng)典的算法有很多缺陷,需要很多超參數(shù)對每一幅圖像進(jìn)行檢索,難以對結(jié)果進(jìn)行標(biāo)準(zhǔn)化和修正。最新的基于深度學(xué)習(xí)的成果要好很多,但在大多情況下這些成果是不開源的。我們是第一個為每個人提供基于AI的標(biāo)注工具的人,我們自己獨(dú)立設(shè)計(jì)了與上邊三個links概念類似的神經(jīng)網(wǎng)絡(luò)架構(gòu)。它有一個很大的優(yōu)勢:我們的神經(jīng)網(wǎng)絡(luò)不需要對對象實(shí)例進(jìn)行分類。這就意味著,可以對行人、汽車、路面上的凹陷處、醫(yī)學(xué)影像上的腫瘤、室內(nèi)場景、食物成分、衛(wèi)星上的物體等等進(jìn)行分割。
那么,它是如何工作的呢?如下圖所示:
你只需要剪裁感興趣的對象,然后神經(jīng)網(wǎng)絡(luò)將會對其進(jìn)行分割。人機(jī)交互非常重要,你可以點(diǎn)擊圖像的內(nèi)部和外部標(biāo)簽進(jìn)行修正錯誤。
語義分割是將圖像劃分為多個預(yù)定義語義類別的區(qū)域,與它不同的是,我們的交互式圖像分割旨在根據(jù)用戶的輸入提取其感興趣的對象。
交互式分割的主要目標(biāo)是根據(jù)用戶最少的操作,即可精確的提取對象以改善整體的用戶體驗(yàn),因此我們大大提高了標(biāo)注的效率。
這是我們的第一次嘗試,當(dāng)然在有些情況下,好的標(biāo)注依然會有缺陷。我們會不斷的提高質(zhì)量,并做出適用于領(lǐng)域適應(yīng)性的簡單方法:在不編碼的情況下,為適應(yīng)內(nèi)部特定的任務(wù)自定義工具。
結(jié)語
數(shù)據(jù)是深度學(xué)習(xí)的關(guān)鍵,訓(xùn)練數(shù)據(jù)是費(fèi)時和高代價的。但是我們和深度學(xué)習(xí)的團(tuán)體積極嘗試著去解決訓(xùn)練數(shù)據(jù)的問題,并且成功的邁出了第一步,希望能夠在以后提供更好的解決方案。
-
數(shù)據(jù)
+關(guān)注
關(guān)注
8文章
7335瀏覽量
94777 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5599瀏覽量
124398
原文標(biāo)題:深度學(xué)習(xí)的核心:掌握訓(xùn)練數(shù)據(jù)的方法
文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性
穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)
【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)
【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)
在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)
如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)
AI的核心操控:從算法到硬件的協(xié)同進(jìn)化
深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助
【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘
深度學(xué)習(xí)賦能:正面吊車載箱號識別系統(tǒng)的核心技術(shù)
海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述
嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義
用樹莓派搞深度學(xué)習(xí)?TensorFlow啟動!
數(shù)據(jù)標(biāo)注服務(wù)—奠定大模型訓(xùn)練的數(shù)據(jù)基石
標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大模型訓(xùn)練的數(shù)據(jù)基石
深度學(xué)習(xí)中最核心的問題之一:訓(xùn)練數(shù)據(jù)
評論