天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于深度學(xué)習(xí)的機(jī)械臂抓取位姿檢測(cè)方法研究

發(fā)布時(shí)間:2021-08-03 06:32
  智能化機(jī)器人作為全新的機(jī)器人形式,有望代替人類在未知環(huán)境中執(zhí)行耗時(shí)、高強(qiáng)度和危險(xiǎn)任務(wù)。搭載末端夾持器機(jī)械臂抓取技術(shù)研究面對(duì)結(jié)構(gòu)化環(huán)境、單一已知目標(biāo)的抓取已取得重大進(jìn)展和應(yīng)用。然而目前很多工作場(chǎng)景中環(huán)境未知、工作目標(biāo)形態(tài)各異,且易受到環(huán)境光照變化、物體遮擋等影響,要求機(jī)器人抓取系統(tǒng)擁有較高的自主性和魯棒性。本文利用深度學(xué)習(xí)技術(shù)強(qiáng)大的知識(shí)遷移和非線性擬合能力,對(duì)卷積神經(jīng)網(wǎng)絡(luò)在夾持器抓取位置和姿態(tài)檢測(cè)上的應(yīng)用進(jìn)行探索。本論文深入研究機(jī)械臂抓取系統(tǒng)流程及抓取表示方法,基于卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)了兩種機(jī)械臂抓取位姿自主檢測(cè)方法,完成了面對(duì)未知環(huán)境、陌生目標(biāo)的機(jī)械臂自主抓取流程,主要研究?jī)?nèi)容包括:首先,設(shè)計(jì)了機(jī)器人抓取場(chǎng)景和抓取流程,討論了機(jī)械臂末端夾持器在三維場(chǎng)景中對(duì)物體的抓取位置和姿態(tài)在二維圖像上的表示;其次,采用卷積神經(jīng)網(wǎng)絡(luò)完成對(duì)夾持器抓取位姿的端到端檢測(cè)。設(shè)計(jì)了一個(gè)卷積網(wǎng)絡(luò)模型,得到合適的物體抓取中心位置。隨后基于抓取中心位置,采用啟發(fā)式搜索方法得到抓取角度和夾持器張開(kāi)寬度。在康奈爾數(shù)據(jù)集上進(jìn)行了訓(xùn)練測(cè)試,得到了87.5%的抓取檢測(cè)準(zhǔn)確率。再次,針對(duì)以整幅圖像作為輸入的端到端方法,背景信息以及無(wú)... 

【文章來(lái)源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校

【文章頁(yè)數(shù)】:65 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的機(jī)械臂抓取位姿檢測(cè)方法研究


機(jī)器人應(yīng)用示例

直方圖,方法,機(jī)器學(xué)習(xí),物體


物體特征到夾持器抓取位姿的映射關(guān)系。其中一個(gè)方向是利用傳統(tǒng)機(jī)器學(xué)習(xí)技術(shù)將特征進(jìn)行分類。如JiangY[17]等人分類器采用支持向量機(jī)方法,特征選用空間直方圖。J.Shotton[18]等人采用紋理特征對(duì)物體進(jìn)行檢測(cè)。Ferrari等人提出使用由k個(gè)連接的直線輪廓線段作為局部特征用于物體類檢測(cè)[19]。人工提取特征的方法工作量大,且由于人類認(rèn)知的局限性,人工提取特征的方法難以對(duì)特征進(jìn)行更深入復(fù)雜的表示,通常只可以對(duì)特定場(chǎng)景下的特定任務(wù)有效,方法的泛化性不夠強(qiáng)。a)使用空間直方圖作為特征[17]b)kAS特征檢測(cè)[19]圖1-2傳統(tǒng)特征識(shí)別方法強(qiáng)化學(xué)習(xí)作為機(jī)器學(xué)習(xí)方法的一種,通過(guò)根據(jù)環(huán)境變化來(lái)調(diào)整策略,從而完成預(yù)先設(shè)置的任務(wù)。依托于大量實(shí)際試驗(yàn)中傳感器和動(dòng)作執(zhí)行結(jié)果的數(shù)據(jù),強(qiáng)化學(xué)習(xí)方法可以直接學(xué)習(xí)到傳感器到動(dòng)作輸出的控制策略。如圖1-3所示,LerrelPinto[20]等人認(rèn)為對(duì)抗性抓取訓(xùn)練可以幫助機(jī)械臂提升自主抓取能力。在700小時(shí)5萬(wàn)次抓取對(duì)抗過(guò)程中訓(xùn)練的AlexNet網(wǎng)絡(luò)在實(shí)際抓取過(guò)程中能達(dá)到66%的成功率。DmitryKalashnikov[21]等人提出了一種可擴(kuò)展自監(jiān)督學(xué)習(xí)方法(QT-Opt)。該方法采集數(shù)據(jù)訓(xùn)練了一個(gè)深度強(qiáng)化的Q函數(shù)并用其對(duì)抓取位姿進(jìn)行評(píng)估。實(shí)驗(yàn)中采用多個(gè)機(jī)器人同時(shí)對(duì)抓取任務(wù)進(jìn)行訓(xùn)練,在訓(xùn)練了58萬(wàn)步

機(jī)械臂,學(xué)習(xí)算法


哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文-4-后對(duì)陌生物體的抓取成功率達(dá)到了96%;趶(qiáng)化學(xué)習(xí)的抓取方法缺點(diǎn)是需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,且當(dāng)外界環(huán)境和抓取任務(wù)發(fā)生變化時(shí),要求系統(tǒng)重新學(xué)習(xí)相應(yīng)的機(jī)器人抓取策略,這無(wú)疑大大限制了強(qiáng)化學(xué)習(xí)抓取策略在實(shí)際工業(yè)中的可應(yīng)用范圍。a)左右互搏方式訓(xùn)練機(jī)械臂抓取[20]b)多機(jī)械臂訓(xùn)練QT-Opt[21]圖1-3強(qiáng)化學(xué)習(xí)算法訓(xùn)練機(jī)械臂抓取1.2.2基于深度學(xué)習(xí)的機(jī)器人抓取檢測(cè)方法研究現(xiàn)狀深度學(xué)習(xí)方法通過(guò)大量圖片數(shù)據(jù)集(dataset)訓(xùn)練一個(gè)映射模型(model),通過(guò)該模型可將圖像數(shù)據(jù)映射到一個(gè)或多個(gè)抓取位姿表示。利用卷積神經(jīng)的特征學(xué)習(xí)和表達(dá)能力,能提取到圖像的更深層特征,使得基于卷積神經(jīng)網(wǎng)絡(luò)的抓取方法擁有較好的泛化能力。如圖1-4所示,康奈爾大學(xué)的Lenz[22]等人設(shè)計(jì)了一個(gè)以RGBD圖像為輸入的兩級(jí)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)用于機(jī)器人抓齲該方法以滑動(dòng)窗口的方式對(duì)整個(gè)圖像進(jìn)行采樣,得到若干個(gè)候選抓取框。利用SAE提取抓取框內(nèi)圖像特征后,通過(guò)第一個(gè)較小的神經(jīng)網(wǎng)絡(luò)篩選出具有較大概率的目標(biāo)位置,隨后通過(guò)第二個(gè)較大的神經(jīng)網(wǎng)絡(luò)選取最優(yōu)的抓取位置。與之類似的是仲訓(xùn)杲[23]等人的方法,不同的是仲等人采用DAE作為特征提取器。圖1-4Lenz級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)抓取[22]華盛頓大學(xué)的Redmon[24]等人將目標(biāo)檢測(cè)的one-stage思想引入抓取檢測(cè)問(wèn)題中,輸入RGB圖片后經(jīng)過(guò)AlexNet模型直接輸出抓取框的位置。Redmon

【參考文獻(xiàn)】:
期刊論文
[1]達(dá)芬奇機(jī)器人直腸癌根治術(shù)的現(xiàn)狀和發(fā)展[J]. 許劍民,常文舉,鑒謐.  中華普外科手術(shù)學(xué)雜志(電子版). 2020(01)
[2]基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)的研究綜述[J]. 羅元,王薄宇,陳旭.  半導(dǎo)體光電. 2020(01)
[3]淺析家庭型服務(wù)機(jī)器人的發(fā)展前景[J]. 袁政華,夏雪.  信息記錄材料. 2019(07)
[4]基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的機(jī)器人平面抓取位姿快速檢測(cè)[J]. 夏晶,錢(qián)堃,馬旭東,劉環(huán).  機(jī)器人. 2018(06)
[5]基于三級(jí)卷積神經(jīng)網(wǎng)絡(luò)的物體抓取檢測(cè)[J]. 喻群超,尚偉偉,張馳.  機(jī)器人. 2018(05)
[6]基于深度學(xué)習(xí)的機(jī)器人抓取位置檢測(cè)方法[J]. 閆哲,杜學(xué)丹,曹淼,蔡瑩皓,魯濤,王碩.  高技術(shù)通訊. 2018(01)
[7]基于多模特征深度學(xué)習(xí)的機(jī)器人抓取判別方法[J]. 仲訓(xùn)杲,徐敏,仲訓(xùn)昱,彭俠夫.  自動(dòng)化學(xué)報(bào). 2016(07)
[8]基于滑動(dòng)窗口的遙感圖像人造目標(biāo)檢測(cè)算法[J]. 李玲玲,劉永進(jìn),王自樺,金泰松.  廈門(mén)大學(xué)學(xué)報(bào)(自然科學(xué)版). 2014(06)
[9]基于支持向量機(jī)的目標(biāo)檢測(cè)算法綜述[J]. 郭明瑋,趙宇宙,項(xiàng)俊平,張陳斌,陳宗海.  控制與決策. 2014(02)
[10]我國(guó)家庭服務(wù)機(jī)器人產(chǎn)業(yè)發(fā)展現(xiàn)狀調(diào)研報(bào)告[J]. 徐方,張希偉,杜振軍.  機(jī)器人技術(shù)與應(yīng)用. 2009(02)

碩士論文
[1]基于深度學(xué)習(xí)的機(jī)器人抓取位置檢測(cè)[D]. 趙鐸.中國(guó)科學(xué)技術(shù)大學(xué) 2019



本文編號(hào):3319133

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3319133.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶e28db***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com