国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度圖像和深度學(xué)習(xí)結(jié)合用于機器人抓取的Dex-Net、復(fù)雜目標分割以及讓機器人整理床鋪

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-10-26 08:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:關(guān)于訓(xùn)練機器人抓手的研究并不少,大多都是從計算機視覺的角度出發(fā),訓(xùn)練機器人“看得清”、“抓得準”。本文同樣如此,不過與以往觀察彩色圖片不同,伯克利的研究者們借助“深度圖像”這個“利器”,提出了一種更加高效的方法,能讓機器人成功抓起此前并未見過的物體。

左:3D立方體。右:對應(yīng)深度圖像,距相機越近顏色越深。

早在AlexNet誕生的兩年前,微軟就為X-Box推出了Kinect。隨著深度學(xué)習(xí)加速了超參數(shù)函數(shù)的性能,這種低成本的深度感知器層出不窮,也使得深度學(xué)習(xí)在圖像分類、語音識別和語言翻譯中取得了驚人的效果。如今,深度學(xué)習(xí)在端到端的電子游戲、機器人操控等問題中也表現(xiàn)出大有前景的勢頭。

在機器人感知方面,類似于VGG或ResNet的卷積神經(jīng)網(wǎng)絡(luò)成為了主流選擇。在一些機器人或計算機視覺的任務(wù)中,常會用到這些框架,附帶有經(jīng)過與訓(xùn)練的權(quán)重,進行遷移學(xué)習(xí)或?qū)唧w數(shù)據(jù)進行微調(diào)。但是在某些任務(wù)中,只了解圖像的顏色是很有限的。當你想訓(xùn)練機器人抓住一個陌生物體時,更重要的是讓機器人了解周圍環(huán)境的幾何結(jié)構(gòu),而不僅僅是顏色和材質(zhì)。對目標物體進行控制時的物理過程,即通過力量控制一個或多個物體,取決于目標的形狀、擺放位置和其他和顏色無關(guān)的因素。例如,當你手中拿筆時,不用看就能改變手中筆的位置。于是,這里有一個問題:這在彩色圖像上也能成立嗎?

與彩色圖像相對應(yīng)的是深度圖像,它是只有單個通道的灰度圖像,可以測量到相機的深度值,讓我們了解一幅圖像中目標物體的除了顏色以外的特征。我們還可以用深度來“過濾”一定范圍之外的點,這可以用來去除背景噪聲(如文中開頭的圖像示例)。

這篇文章中,我們將深度圖像和深度學(xué)習(xí)結(jié)合起來,用在伯克利AUTOLab三個正在進行的項目中:用于機器人抓取的Dex-Net、復(fù)雜目標分割以及讓機器人整理床鋪。

深度感知簡介

深度圖像將物體表面到相機的距離進行編碼,顯示出了特殊的視角。在文章開頭的案例圖片里,左邊的立方體3D結(jié)構(gòu)圖中有很多點都處于離相機不同的位置上。右邊的深度圖像中,顏色越深的地方表示距離相機越近。

深度感知最近的成果

在計算機視覺和深度學(xué)習(xí)不斷進步的同時,深度感知領(lǐng)域也出現(xiàn)了許多成果。

通常,深度感知會將兩個不同相機生成的RGB圖像結(jié)合在一起,然后利用生成的視差圖獲取物體在環(huán)境中的深度值。

目前常用的深度傳感器是結(jié)構(gòu)光傳感器,它可以用一種看不見的波長將一直物體的形狀投射到某場景中,比如我們熟知的Kinect。另一種深度感知的方法就是LIDAR,這種技術(shù)此前常用于地形測繪,最近在一些自動駕駛汽車上也出現(xiàn)了它的身影。LIDAR比Kinect生成的深度映射質(zhì)量更高,但是速度較慢、成本高昂,因為它需要掃描激光器。

總的來說,Kinect屬于消費級RGB-D系統(tǒng),可以通過硬件直接捕捉到RGB圖像,以及每個像素的深度值,比此前的很多方法更快更便宜。現(xiàn)在,很多用于研究或工業(yè)的機器人,例如AGV或人形輔助機器人,都含有類似的內(nèi)置深度感知相機。未來用于機器人的深度感知設(shè)備很可能會進一步升級。

相關(guān)研究

針對機器人的深度感知,研究人員將這一技術(shù)用于實時導(dǎo)航、實時映射和追蹤以及對室內(nèi)環(huán)境的建模。由于深度感知能讓機器人知道它們距離障礙物有多遠,就能使其進行定位,在導(dǎo)航時避免碰撞。除此之外,深度圖像還用于實時檢測、辨別、定位人的身體部位等研究中。

這都說明在某些任務(wù)中,深度圖像可以蘊涵很多除了顏色之外的有用信息。接下來,我們研究了三種不同任務(wù)

案例一:機器人抓取

讓機器人抓取從未見過的物體是目前一個重要的難題。雖然很多研究者使用RGB圖像,但他們的系統(tǒng)需要讓機器人訓(xùn)練好幾個月的抓取動作。利用3D目標網(wǎng)格的關(guān)鍵有點就是,研究人員可以通過渲染技術(shù)精確地合成深度圖像。

我們的Dex-Net是AUTOLab正在進行的研究項目,它包括訓(xùn)練機器人抓取策略的算法、代碼。以及用于訓(xùn)練抓取的數(shù)據(jù)集。Dex-Net提出在抓取狀態(tài)下的域隨機算法,目的是用簡單的抓手抓取復(fù)雜目標物體。在BAIR此前的博文中,我們介紹了含有670萬個樣本的數(shù)據(jù)集,我們用它來訓(xùn)練抓取模型。

數(shù)據(jù)集和深度圖像

上圖展示了Dex-Net的數(shù)據(jù)集生成過程。首先,我們從多個來源中得到大量目標物的網(wǎng)格模型,并進行強化。每個模型都會被機械手抓起來進行采樣。有了網(wǎng)格模型和被抓起后的圖像,我們計算出它的魯棒性,并生成模擬深度圖像。通過計算擺放位置、摩擦力、質(zhì)量、外力(例如重力)和蒙特卡羅積分法,計算出抓取成功地概率,從而對魯棒性進行估計。上圖右邊,我們展示了正采樣(抓取成功)和負采樣(抓取失敗)的例子。

訓(xùn)練GQ-CNN

有了模擬數(shù)據(jù)集后,它們將用來訓(xùn)練一個抓取質(zhì)量卷積神經(jīng)網(wǎng)絡(luò),來預(yù)測機器人抓取成功的概率。結(jié)構(gòu)如圖所示,一張圖像經(jīng)過處理后,調(diào)整了角度和抓取中心,同時對應(yīng)的96×96的深度圖像被當做輸入,高度為z,用于預(yù)測抓取的成功概率。

下圖我們展示了Dex-Net用于在某個容器內(nèi),對多個目標物體進行抓取的模擬深度圖像:

上行:ABB Yumi機器人的攝像機捕捉到的真實深度圖像

下行:Dex-Net的模擬深度圖像,紅色表示抓取的位置

案例二:在箱子中分割物體

實例分割就是判斷圖像中的像素屬于哪個物體,同時也要將同一類別中的每個物體分開。實例分割在機器人感知中很常用。例如,想讓機器人從裝滿物體的紙箱中選擇目標物體,首先就要對圖片進行分割,定位到目標物體,再進行抓取。

先前的研究表明,Mask R-CNN可以用于訓(xùn)練對RGB圖像的目標分割,但是這一訓(xùn)練需要大量經(jīng)過手動標記的RGB圖像數(shù)據(jù)集。除此之外,用于訓(xùn)練的圖像必須是自然場景下包含有限的目標物體種類。所以,預(yù)訓(xùn)練Mask R-CNN網(wǎng)絡(luò)可能不適用于倉庫這種雜亂的場景。

數(shù)據(jù)集和深度圖像

上圖是數(shù)據(jù)集的生成過程。和Dex-Net類似,我們對3D目標物體進行采樣,然后通過模擬,將這些物體堆放在一個盒子中。生成對應(yīng)的深度圖像,以及用于訓(xùn)練的目標物體掩碼和標準評估圖像。

對于基于幾何形狀的分割,我們可以用模擬和渲染技術(shù),自動收集大量用于訓(xùn)練的數(shù)據(jù)集和經(jīng)過標記的深度圖像。我們假設(shè),這些深度圖像可能含有足夠的用于分割的信息,因為各物體之間的像素邊界不連貫。最終我們收集了5萬張深度圖像組成了數(shù)據(jù)集,并通過PyBullet模擬器將它們匯聚到盒子里。利用這一數(shù)據(jù)集,我們訓(xùn)練了另一個版本的Mask R-CNN,我們稱之為SD Mask R-CNN。

實際分割結(jié)果

雖然沒有在真實圖像上訓(xùn)練,我們提出的SD Mask R-CNN的表現(xiàn)超過了點云分割和經(jīng)過改進的Mask R-CNN。如上圖所示,我們的模型可以準確進行分割。更重要的是,用于創(chuàng)造手動標簽數(shù)據(jù)集的目標物體并不是從SD Mask R-CNN的訓(xùn)練分布中選擇的,而是常見的家用物品,我們并沒有它們的3D模型。所以,SD Mask R-CNN可以預(yù)測此前從未見過的物體掩碼。

總的來說,我們的分割方法有三大優(yōu)點:

深度信息在分離目標或者背景時,其中編碼了很多有用信息;

合成深度圖像可以快速生成,用它們訓(xùn)練可以高效地轉(zhuǎn)移到現(xiàn)實圖像中;

用深度圖像訓(xùn)練過的網(wǎng)絡(luò)對此前未見過的物體泛化結(jié)果更好

案例三:讓機器人整理床鋪

整理床鋪可以運用于家庭機器人身上,因為它沒有時間限制,并且可以允許出現(xiàn)小差錯。在此前的文章中,我們研究了用RGB圖像,將其看作是序列決策問題,實現(xiàn)更好的模擬學(xué)習(xí)。

數(shù)據(jù)集和深度圖像

我們將整理床鋪的任務(wù)看作是檢測毯子的四個角,家庭機器人需要抓起毯子,并且把它的角和床對齊。我們最初的假設(shè)是深度圖像含有足夠的有關(guān)毯子的幾何形狀的信息。

為了手機訓(xùn)練數(shù)據(jù),我們使用的是白色的毯子,將四個角用紅色標記,如上圖所示。重復(fù)幾次將毯子隨意仍在床上,然后從機器人內(nèi)置的RGB-D傳感器中采集RGB圖像和深度圖像。

接下來,我們訓(xùn)練一個深度卷積神經(jīng)網(wǎng)絡(luò),只從深度圖像中檢測它的四個角。我們希望網(wǎng)絡(luò)可以泛化到能檢測出不同毯子的四角。我們的深度網(wǎng)絡(luò)使用了YOLO中的與訓(xùn)練權(quán)重,之后添加了幾個圖層。結(jié)果表明,利用預(yù)訓(xùn)練權(quán)重是非常有效果的。

毯子檢測結(jié)果

我們將訓(xùn)練策略實施之后,模型表現(xiàn)出了優(yōu)秀的結(jié)果,超越了無學(xué)習(xí)的基準策略,幾乎和人類完成的效果相當。雖然我們這里檢測的標準是毯子是否最大程度地覆蓋了床,不過這也說明,只有完成了精準的檢測,才能實現(xiàn)高度覆蓋。

結(jié)語

通過這三個項目的實踐,我們的結(jié)果表明深度圖像在進行物體抓取、圖像分割和不規(guī)則物體頂點檢測三方面,包含了許多有用的線索。我們認為,隨著深度相機質(zhì)量的提高,深度圖像對機器人的應(yīng)用越來越重要。有了深度圖像,訓(xùn)練樣本的合成更加簡單,背景噪音也能更容易地過濾掉。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2576

    文章

    55028

    瀏覽量

    791246
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31073

    瀏覽量

    222189
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5598

    瀏覽量

    124396

原文標題:深度感知+深度學(xué)習(xí),伯克利的機器人面對陌生目標也能成功取物

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    探索RISC-V在機器人領(lǐng)域的潛力

    運行ROS 2,充分證明了RISC-V架構(gòu)完全有能力承載機器人操作系統(tǒng)這樣的復(fù)雜軟件棧。它不僅是學(xué)習(xí)RISC-V的絕佳工具,更是探索未來邊緣計算和智能機器人的一個強大起點。 致謝:
    發(fā)表于 12-03 14:40

    RK3576機器人核心:三屏異顯+八路攝像頭,重塑機器人交互與感知

    任務(wù)并行處理,是服務(wù)機器人開發(fā)的理想高性能平臺。 RK3576:機器人領(lǐng)域的性能突破在機器人技術(shù)飛速發(fā)展的今天,如何機器人"看得
    發(fā)表于 10-29 16:41

    小蘿卜機器人的故事

    經(jīng)過我的申請, 馬老師發(fā)放了, 小蘿卜機器人的, 開發(fā)權(quán)限, 原來的小蘿卜公司, 因為經(jīng)營不善倒閉, 作為科研產(chǎn)品, 幾個技術(shù)對此惋惜, 自掏腰包, 要讓小蘿卜機器人, 再生, 每次聽到小蘿卜說
    發(fā)表于 10-23 05:24

    機器人競技幕后:磁傳感器芯片激活 “精準感知力”

    2025 世界人形機器人運動會于 8 月 17 日圓滿收官,賽場上機器人在跑步、跳躍、抓取等項目中的精彩表現(xiàn),背后是運動控制、環(huán)境感知等技術(shù)的迭代升級。而在這些技術(shù)中,磁傳感器芯片憑借獨特優(yōu)勢,成為
    發(fā)表于 08-26 10:02

    工業(yè)機器人的特點

    是實現(xiàn)工業(yè)互聯(lián)網(wǎng)的基礎(chǔ),也是第一步。 三大優(yōu)勢:提高產(chǎn)品品質(zhì)、提高產(chǎn)出、適用范圍廣 機器人在生產(chǎn)上的優(yōu)勢可以分為提高產(chǎn)品品質(zhì)、提高產(chǎn)出以及適用范圍廣三個方面。提高產(chǎn)品品質(zhì) 工業(yè)機器人的標準化、精細化
    發(fā)表于 07-26 11:22

    明遠智睿SSD2351開發(fā)板:語音機器人領(lǐng)域的變革力量

    的四核1.4GHz處理器具備強勁的運算性能,能夠高效處理語音機器人運行過程中的復(fù)雜任務(wù)。語音識別和合成需要大量的計算資源,該處理器可以快速對語音信號進行分析、處理和轉(zhuǎn)換。在實時語音交互場景中,無論是
    發(fā)表于 05-28 11:36

    從機械應(yīng)答到深度交互,移遠通信如何機器人“靈魂覺醒”?

    率先推出了端&云混合大模型機器人大腦解決方案。該方案深度融合AI、大模型、聲源定位等前沿技術(shù),宛如為機器人賦予了“超級大腦”和“敏銳聽覺”,有效彌補了傳統(tǒng)機器人
    的頭像 發(fā)表于 05-20 19:04 ?941次閱讀
    從機械應(yīng)答到<b class='flag-5'>深度</b>交互,移遠通信如何<b class='flag-5'>讓</b><b class='flag-5'>機器人</b>“靈魂覺醒”?

    盤點#機器人開發(fā)平臺

    地瓜機器人RDK X5開發(fā)套件地瓜機器人RDK X5開發(fā)套件產(chǎn)品介紹 旭日5芯片10TOPs算力-電子發(fā)燒友網(wǎng)機器人開發(fā)套件 Kria KR260機器人開發(fā)套件 Kria KR260-
    發(fā)表于 05-13 15:02

    詳細介紹機場智能指路機器人的工作原理

    負責接收旅客的語音指令,以便機器人理解旅客的需求。 環(huán)境感知與信息融合 :這些傳感器收集到的信息會進行融合處理。例如,激光雷達提供的距離信息和攝像頭捕捉的視覺信息相結(jié)合,能讓機器人更準確地識別周圍環(huán)境
    發(fā)表于 05-10 18:26

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    : 一、機器人視覺:從理論到實踐 第7章詳細介紹了ROS2在機器視覺領(lǐng)域的應(yīng)用,涵蓋了相機標定、OpenCV集成、視覺巡線、二維碼識別以及深度學(xué)習(xí)
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】機器人入門的引路書

    ROS的全稱:Robot Operating System 機器人操作系統(tǒng) ROS的 目的 :ROS支持通用庫,是通信總線,協(xié)調(diào)多個傳感器 為了解決機器人里各廠商模塊不通用的問題,機器人
    發(fā)表于 04-30 01:05

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+ROS2應(yīng)用案例

    深度學(xué)習(xí)視覺巡線、相機標定、OpenCV圖像處理等。這些內(nèi)容雖然在本次閱讀體驗中沒有詳細展開,但它們同樣對于機器人的視覺感知和環(huán)境理解具有重要作用。
    發(fā)表于 04-27 11:42

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+內(nèi)容初識

    機器人技術(shù)的飛速發(fā)展,ROS 2 作為其核心工具之一,為開發(fā)者提供了強大的支持。與傳統(tǒng)的理論書籍不同,本書深入淺出地講解了 ROS 2 的架構(gòu)、開發(fā)流程以及在智能機器人項目中的應(yīng)用,以代碼作為切入口,
    發(fā)表于 04-27 11:24

    大象機器人攜手進迭時空推出 RISC-V 全棧開源六軸機械臂產(chǎn)品

    機器人場景的量產(chǎn)應(yīng)用。更多的面向智能機器人的RISC-V AI軟硬件技術(shù)創(chuàng)新以及應(yīng)用案例,將陸續(xù)在公司微信公眾號做介紹,敬請大家期待。
    發(fā)表于 04-25 17:59

    復(fù)合機器人抓取精度的影響因素及提升策略

    復(fù)合機器人結(jié)合了移動機器人(如AGV)和機械臂的功能,廣泛應(yīng)用于物流、制造等領(lǐng)域。抓取精度是其核心性能指標之一,直接影響作業(yè)效率和產(chǎn)品質(zhì)量。
    的頭像 發(fā)表于 04-12 11:15 ?1040次閱讀