国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習:三張拉面圖,就能識別出每碗拉面在哪家出品

DPVg_AI_era ? 來源:未知 ? 作者:伍文輝 ? 2018-03-30 16:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

只要三張拉面圖,就能識別出每碗拉面是在41家不同拉面店中的哪家制作出來。數據科學家Kenji Doi開發了一種拉面專家AI分類器,它能辨別出不同拉面之間的細微差異。這背后,是谷歌AutoML Vision提供的ML模型。

看下面的三碗拉面。你能相信機器學習(ML)模型能以95%的準確率識別出每碗拉面是在41家拉面店中的哪家制作的么?數據科學家Kenji Doi開發了一種拉面專家AI分類器,它能辨別出不同拉面之間的細微差異。

拉面Jiro是日本最受歡迎的連鎖餐廳之一,因為它的配料、面條和湯的價格都很便宜。這個連鎖餐廳在東京有41家分店,每家店都有基本相同的菜單。

正如你在照片中所看到的,對于一個剛剛接觸拉面的人來說,幾乎不可能知道每碗面的制作材料是什么,因為它們看起來幾乎是一樣的。你不相信自己可以通過看這些照片來辨別這些面到底屬于41家餐館的哪一家。

Kenji想知道深度學習是否能幫助解決這個問題。他從網絡上收集了48,244張Jiro做的拉面的圖片。在刪除了不適合進行模型訓練的照片之后(比如重復照片或沒有拉面的照片),他為每個餐館準備了大約1,170張照片,也就是48000張帶有商店標簽的照片。

AutoML Vision達到了94.5%的準確率

當Kenji正在研究這個問題時,他了解到Google剛剛發布了AutoML Vision的alpha版本。

AutoML Vision允許用戶在不具備設計ML模型的專業知識的情況下使用自己的圖像定制ML模型。首先,你要做的就是上傳圖像文件進行模型訓練,并確保上傳數據具有正確的標簽。一旦完成了定制模型的訓練,您就可以輕松地將其應用到到可擴展的服務平臺上,以便通過自動擴展擁有的資源來滿足實際需求。整個過程是為那些不具備專業ML知識的非數據科學家設計的。

AutoML Vision訓練、部署和服務自定義ML模型的過程

當Kenji獲得了AutoML Vision的alpha版本后,他試了一下。他發現用帶有商店標簽的拉面照片作為數據集訓練模型時,F值可以達到94.5%,其中精確率未94.8%,召回率為94.5%。

使用AutoML Vision(高級模式)的拉面店分類器的混淆矩陣(行=實際店鋪,欄=預測店鋪)

通過觀察上圖的混淆矩陣,您可以看到AutoML Vision在每個測試樣例中,僅僅對幾個樣本做出了錯誤的分類。

這怎么可能?每個照片使用AutoML檢測區別是什么?Kenji想知道ML模型如何能準確地識別出拉面對應的商店。起初,他認為模型是在看碗,或桌子的顏色或形狀。但是,正如你在上面的照片中所看到的,即使每個商店在他們的照片中使用了相同的碗和桌子設計,這個模型也非常準確。Kenji的新理論是,該模型精確地能夠區分肉塊和澆頭的細微差別。他計劃繼續在AutoML上做實驗,看看他的理論是否正確。

數據科學的自動化技術

在嘗試AutoML Vision之前,Kenji花了相當多的時間來為他的拉面分類項目建立自己的ML模型。他仔細地選擇了一個通過Inception,ResNetSE-ResNeXt獲得的一個集合模型,構建了一個數據增強設置,在超參數調優上耗費了很長的時間,如改變學習率等,并引入他積累的知識作為一個專家知識。

但是,通過AutoML Vision,Kenji發現他唯一需要做的就是上傳圖片并點擊“訓練”按鈕,僅此而已。通過AutoML Vision,他不費吹灰之力就能夠訓練一個ML模型。

標記圖像集的示例。借助AutoML Vision,您只需上傳帶有標簽的圖像即可開始使用

當使用AutoML Vision訓練一個模型時,有兩種模式任你選擇:基本模式或高級模式。在基本模式下,AutoML Vision可以在18分鐘之內完成Kenji的訓練數據。在高級模式下用了將近24個小時。在這兩種情況下,他都沒有執行任何超參數調優、數據擴充或嘗試不同的ML模型類型。一切都是自動化處理,不需要擁有相關的專業知識。

據Kenji說,“在基本模式下無法獲得最優的準確性,但是可以在很短的時間內得到一個粗略的結果。而高級模式可以在用戶不進行任何優化或具備任何學習技能的情況下獲得最優的精度。這樣看來,這個工具肯定會提高數據科學家的生產力。數據科學家們已經為我們的客戶進行了太多的人工智能解答,因此,我們必須盡快將深度學習應用到PoCs上。有了AutoML Vision,數據科學家就不需要為了獲得最優的模型結果花很長時間來培訓和優化模型獲。這意味著即使只有擁有限數量的數據科學家,企業也可以擴大他們的人工智能產業。”

他喜歡AutoML Vision還有因為其另外一個特點:“AutoML Vision太酷了,你可以在訓練后使用它的在線預測功能。而這項任務對于數據科學家來說通常是特別耗時的,因為必須要將模型部署到生產服務環境中后,再對其進行管理。”

以90%的準確率將商品進行品牌分類

AutoML Vision在另一個不同的用例中也證明了它的能力:對產品進行品牌分類。Mercari是日本最受歡迎的銷售APP之一,它在美國也受到越來越多人的青睞,它一直在嘗試通過閃頻的圖片自動識別其品牌。

Mercari官網

在日本,Mercari推出了一款名為Mercari MAISONZ的新App,用于銷售品牌商品。Mercari在這款應用中開發了自己的ML模型,在用戶的圖片上傳界面中,該模型可以對12個主要品牌的商品進行分類。該模型使用了VGG16在TensorFlow上的遷移學習,準確率達到75%。

正如ML模型預測的那樣,用戶上傳圖片界面顯示了品牌名稱

而當Mercari在AutoML Vision的高級模式下嘗試用5000個訓練來進行訓練,它達到了91.3%的準確率。這比他們現有的模型高出了15%。

Mercari的AutoML Vision模型(高級模式)的準確性分數(精確度/召回率)

Mercari的AutoML Vision模型的混淆矩陣(高級模式)

對AutoML Vision的近距離觀察

Mercari的數據科學家Shuhei Fujiwara對這個結果感到非常驚訝,他說:“我無法想象谷歌是如何做到如此高精度的!”

用于大規模圖像分類和對象檢測的AutoML

高級模式里面,除了轉移學習還有什么呢?實際上,其中還包括谷歌的學習技術,特別是NASNet。

NASNet使用ML來優化ML:元級ML模型試圖為特定的訓練數據集獲得最佳的深度學習模型。這才是高級模式的秘密,它代表了谷歌的“人工智能”哲學。這項技術可以讓用戶在不用長時間學習人工智能的情況下,充分地利用最先進的深度學習能力。

Shuhei還很喜歡這項服務的用戶界面。“它很容易使用,你不需要對超參數優化做任何的人工處理,而且在UI上的一個混淆矩陣也為用戶來帶了方便,因為它可以幫助用戶快速檢查模型的準確性。該服務還允許你將最耗時的人工標記工作交給谷歌。因此,我們正在等待公測版本取代現有的自動化版本,這樣就可以將其部署到生產環境中了。”

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6254

    瀏覽量

    111414
  • 人工智能
    +關注

    關注

    1817

    文章

    50098

    瀏覽量

    265430
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136962

原文標題:【谷歌云AutoML Vision官方教程】手把手教會訓練模型解決計算機視覺問題,準確率達94.5%

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    純視覺自動駕駛能識別出高透明玻璃墻嗎?

    [首發于智駕最前沿微信公眾號]最近在和大家聊純視覺自動駕駛能否識別3D圖像時,有小伙伴提問,純視覺自動駕駛能否識別出高透明玻璃墻,今天智駕最前沿就和大家簡單聊聊相關內容。 當然,在開始今天的話題前
    的頭像 發表于 02-18 08:49 ?1.1w次閱讀
    純視覺自動駕駛能<b class='flag-5'>識別出</b>高透明玻璃墻嗎?

    機器學習和深度學習中需避免的 7 個常見錯誤與局限性

    ,并驗證輸出結果,就能不斷提升專業技能,養成優秀數據科學家的工作習慣。需避免的機器學習和深度學習數據錯誤在訓練數據驅動的人工智能模型時,我們會遇到一些常見錯誤和局
    的頭像 發表于 01-07 15:37 ?196次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>中需避免的 7 個常見錯誤與局限性

    PC識別出來的COM口如何更改名字?

    PC識別出來的串口名稱:USB串行設備(COM8),如何才能更改這個名字呢,比如USB_SERISL_CH40(COMX)
    發表于 09-25 07:39

    ST25R3911B同時識別多張NFCA卡為什么要進行七輪輪詢才能讀取到?能不能減少輪數獲得更快的讀取速度?

    這是我初始化的代碼 這是demo cycle里面我進行修改了的部分 我的需求是最多同時讀三張NFCA卡,還有什么方法可以盡量減少讀取的時間?
    發表于 08-05 07:29

    TC397 EVB板子DAP調試接口不一致,是否導致我無法穩定燒寫程序問題?

    板子DAP接口不一致,是這個問題導致內核識別不穩定么? 已下是三張,分別是官網給的圖紙參考截圖、KIT A2G TC397 5V TRB的DAP下載接口、KIT A2G TC397 3V3 TFT 的DAP下載接口。
    發表于 07-22 06:33

    【嘉楠堪智K230開發板試用體驗】K230機器視覺相關功能體驗

    K230開發板攝像頭及AI功能測評 攝像頭作為機器視覺應用的基礎,能夠給機器學習模型提供輸入,提供輸入的質量直接影響機器學習模型的效果。 K
    發表于 07-08 17:25

    基于LockAI視覺識別模塊:手寫數字識別

    1.1 手寫數字識別簡介 手寫數字識別是一種利用計算機視覺和機器學習技術自動識別手寫數字的過程。它通過圖像預處理、特征提取和模型訓練來實現
    發表于 06-30 16:45

    為什么我的反激DS波形是這樣的,但是帶載卻還是比較正常,有大佬知道這是什么原因么

    第一和第二是空載的時候,第三張和第四
    發表于 06-30 16:00

    STM32N6570-DK 的STLINK口不能識別出STLINK,為什么?

    使用數據線連接STM32N6570-DK的CN6口和電腦,存在不能識別出STLINK的情況。這個板子集成的STLINK是連上數據線就能識別出STLINK,還是配置硬件才能識別出來?我電
    發表于 06-16 07:14

    EZ-PD協議分析儀4.0.0無法識別CY4500怎么解決?

    。 更新固件后,即使使用版本 1.0.0 的 EZ-PD Protocol Analyzer,也無法再識別設備。 如果我將固件還原為 CY4500_EZ-PD_ProtocolAnalyzer_FW_1_0_0_32.cyacd,設備就能從版本 1.0.0 的 EZ-PD
    發表于 05-23 08:27

    詳細介紹機場智能指路機器人的工作原理

    和理解,識別出旅客的問題意圖和關鍵信息,如目的地、查詢的設施類型等。為了提高語音識別的準確率,機器人會對不同的語言、口音和方言進行訓練和優化,能夠適應來自世界各地旅客的語音輸入。 語音合成與反饋 :在理
    發表于 05-10 18:26

    【「# ROS 2智能機器人開發實踐」閱讀體驗】視覺實現的基礎算法的應用

    閱讀心得體會:ROS2機器人視覺與地圖構建技術 通過對本書第7章(ROS2視覺應用)和第8章(ROS2地構建)的學習,我對機器人視覺感知和自主導航的核心技術有了更深入的理解。以下是我
    發表于 05-03 19:41

    【「# ROS 2智能機器人開發實踐」閱讀體驗】機器人入門的引路書

    的限制和調控) 本書還有很多前沿技術項目的擴展 比如神經網絡識別例程,機器學習圖像識別的原理,yolo圖像追蹤的原理 機器
    發表于 04-30 01:05

    有人這CAN機器手臂控制板的原理嗎?CAN舵機ID無法被識別

    的舵機ID無法識別嗎? 第一,除了左上角(PLCC封裝)那顆芯片被我取下來了,其下方的兩個SOP封裝芯片,中間PLCC封裝及SD卡槽,是買來就沒有焊的,是因為缺少某個芯片(例如:MCP2515
    發表于 04-22 12:19

    怎樣才能使用NUCLEO-H563ZI 識別出ST-LINK ?

    控制的?這個管腳默認的值是高還是低? 怎樣才能使用NUCLEO-H563ZI ,識別出ST-LINK ?其開發環境需要什么版本的
    發表于 03-14 13:59