天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于優(yōu)化ResNet結(jié)構(gòu)的機器人抓取算法研究

發(fā)布時間:2021-03-04 18:04
  機器人技術(shù)是跨越傳統(tǒng)工程界線的相對較新的現(xiàn)代技術(shù),它的出現(xiàn)大大地提高了社會生產(chǎn)力。抓取是機器人走進真實世界必不可少的一個功能。對于人類來說,識別和抓取物體是一項比較簡單的任務(wù)。但對于機器人來說,識別和抓取物體是一項非常具有挑戰(zhàn)性的任務(wù),涉及到目標(biāo)檢測、抓取位姿判別、機械臂的運動規(guī)劃與控制等內(nèi)容。隨著卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型在很多應(yīng)用領(lǐng)域展現(xiàn)出優(yōu)異的效果,越來越多的學(xué)者開始關(guān)注基于卷積神經(jīng)網(wǎng)絡(luò)模型的研究。神經(jīng)網(wǎng)絡(luò)模型的規(guī)模過大,會造成網(wǎng)絡(luò)不工作或者會出現(xiàn)過擬合問題,也會產(chǎn)生計算代價過高、連接數(shù)量冗余大等問題。因此需要對神經(jīng)網(wǎng)絡(luò)模型進行優(yōu)化。本文提出了一種基于基于優(yōu)化ResNet-50結(jié)構(gòu)的機器人抓取位姿檢測算法,并在仿真環(huán)境里進行了實驗來對算法進行驗證。首先,本文建立了機器人抓取系統(tǒng)框架,框架分為三個部分:目標(biāo)感知、位姿檢測和抓取執(zhí)行。介紹了深度圖像的獲取方式,深度相機測距原理,針孔成像原理,以及深度相機拍攝得到的彩色圖像空間和深度圖像空間之間的映射關(guān)系。建立了物體抓取位姿表示方法,研究了圖像的像素坐標(biāo)系與機器人基坐標(biāo)系之間的坐標(biāo)轉(zhuǎn)換關(guān)系。其次,本文對神經(jīng)網(wǎng)絡(luò)模型中的基本單元進行了介紹... 

【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校

【文章頁數(shù)】:76 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于優(yōu)化ResNet結(jié)構(gòu)的機器人抓取算法研究


機器人場景識別系統(tǒng)結(jié)構(gòu)

架構(gòu)圖,算法,目標(biāo)檢測,實時性


哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文-4-早使用深度神經(jīng)網(wǎng)絡(luò)模型的目標(biāo)檢測算法是R-CNN(Region-basedCNN),但是由于R-CNN算法是由兩步完成的以及參數(shù)很多,導(dǎo)致計算量很大,所以運算很慢無法到達(dá)實時性要求[11];另一方面由于網(wǎng)絡(luò)模型中存在全連接層,因此對網(wǎng)絡(luò)模型輸入的數(shù)據(jù)會有限制,這也影響了輸出結(jié)果。因為R-CNN算法的一些缺陷,SPPNet算法出現(xiàn)了,它是由何愷明等人提出的。該網(wǎng)絡(luò)應(yīng)用空間金字塔池化的方法成功地解決了R-CNN算法對輸入層尺寸要求固定的問題,從而使得網(wǎng)絡(luò)的輸入尺寸靈活[11]。但是SPPNet算法的計算量還是很大,還是不能滿足實時性等要求。于是,F(xiàn)astR-CNN算法出現(xiàn)了,大大的增加了網(wǎng)絡(luò)的計算速度,主要解決了SPPNet算法和R-CNN算法會有大量的計算重復(fù)這個問題。但是FastR-CNN算法的預(yù)測時間還是太長,依然不能滿足實時性等要求。接著,F(xiàn)asterR-CNN算法又出現(xiàn)了,F(xiàn)asterR-CNN算法的結(jié)構(gòu)示意圖如圖1-3所示,將預(yù)測所用的時間大大降低了[12]。但是FasterR-CNN算法還是不能滿足實時性等要求。圖1-3FasterR-CNN架構(gòu)圖[6]上面的R-CNN、SPPNet、FastR-CNN和FasterR-CNN這類的目標(biāo)檢測算法都是基于區(qū)域生成方法的,而接下來介紹的YOLO[13]是基于回歸方法的檢測算法。YOLO是端到端的目標(biāo)檢測算法,一次只用訓(xùn)練一個網(wǎng)絡(luò)即可,大大地增加了網(wǎng)絡(luò)的預(yù)測速度,但是損失了一點預(yù)測準(zhǔn)確度。YOLOv3是YOLO目前最新的版本,在當(dāng)前所有的基于深度學(xué)習(xí)的目標(biāo)檢測算法中,它是最快的,且它的預(yù)測準(zhǔn)確度也不差,實時性要求也能滿足。YOLOv3性能與其他算法比較如圖1-4所示。

三維圖像,性能,算法,機器人


哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文-5-圖1-4YOLOv3同其他算法性能比較[11]在2016年Liu等人提出了SSD算法,其主要引用了YOLOv2的回歸思想以及FasterR-CNN的錨框機制[11]。SSD算法使用了卷積輸出、殘差單元和多尺度預(yù)測,預(yù)測的精度和速度都有所保證。1.3.3機器人抓取機器人技術(shù)越來越多的應(yīng)用到人類生活的方方面面,在所有機器人應(yīng)用中,抓取是基本且十分重要的,因為它會為社會帶來巨大的生產(chǎn)力。在早期,機械臂不具備感知能力,而是通過手動控制機械臂來操作機械手進行抓齲后來,借助諸如數(shù)據(jù)手套之類的觸覺傳感器,機器人可以通過應(yīng)對人的手的行為來進行抓齲這兩種方法仍然依靠人工方式,并且缺乏智能。隨著光學(xué)傳感器的發(fā)展,機器人已經(jīng)能夠通過基于視覺的感知系統(tǒng)自動進行抓齲但是目前機器人抓取技術(shù)在工業(yè)上的應(yīng)用只是通過簡單的定位來進行抓齲由于各種條件的限制,機器人抓取技術(shù)總體上尚未成熟,大部分還處于實驗研究階段[14]。而且很多研究也只是對視野范圍內(nèi)的單個物體進行抓取,對多個物體的抓取研究還比較少,這種抓取的智能化程度還遠(yuǎn)遠(yuǎn)達(dá)不到人類的需求。為了提高機器人抓取的智能化水平,很多學(xué)者開始研究將在機器人抓取中使用深度學(xué)習(xí)技術(shù)[15]。具有二維或三維圖像輸入的深度學(xué)習(xí)網(wǎng)絡(luò)模型被提出,對目標(biāo)物體位置的獲取也越來越準(zhǔn)確,極大地促進了機器人抓取的進步。Yavsan等人提出一個基于動作的控制方法,用深度相機來實時識別和模仿人體上肢運動。這個過程類似目前很火熱的主從控制機器人技術(shù),首先是深度

【參考文獻】:
期刊論文
[1]深度學(xué)習(xí)在智能機器人中的應(yīng)用研究綜述[J]. 龍慧,朱定局,田娟.  計算機科學(xué). 2018(S2)
[2]機械臂抓取行為規(guī)劃研究綜述[J]. 韓麗麗,王奇志,楊永剛.  計算機與現(xiàn)代化. 2018(09)
[3]自動駕駛仿真系統(tǒng)中網(wǎng)絡(luò)安全測試方法研究[J]. 羅瓔珞,石娟.  摩托車技術(shù). 2018(06)
[4]基于神經(jīng)網(wǎng)絡(luò)的機械臂的模仿學(xué)習(xí)研究[J]. 于建均,徐驄馳,阮曉鋼,門玉森.  控制工程. 2017(11)
[5]非線性最優(yōu)機器人手眼標(biāo)定[J]. 王君臣,王田苗,楊艷,胡磊.  西安交通大學(xué)學(xué)報. 2011(09)

碩士論文
[1]連續(xù)空間下基于面部圖像的情感分析方法研究[D]. 劉磊.西安理工大學(xué) 2019
[2]基于FPGA的復(fù)合卷積神經(jīng)網(wǎng)絡(luò)算法加速設(shè)計[D]. 肖揚.西安理工大學(xué) 2019
[3]基于人工神經(jīng)網(wǎng)絡(luò)的中外合作辦學(xué)專業(yè)高考分?jǐn)?shù)線預(yù)測研究[D]. 吳凱.江西財經(jīng)大學(xué) 2019
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的機器人抓取位姿自主檢測算法研究[D]. 周彪.華中科技大學(xué) 2019
[5]基于深度圖像和深度學(xué)習(xí)的機器人抓取檢測算法研究[D]. 王斌.浙江大學(xué) 2019
[6]基于雙流卷積神經(jīng)網(wǎng)絡(luò)的監(jiān)控視頻中打斗行為識別研究[D]. 高陽.西安理工大學(xué) 2018
[7]基于深度學(xué)習(xí)的物體檢測和抓取技術(shù)研究[D]. 夏壯.哈爾濱工業(yè)大學(xué) 2018
[8]基于深度學(xué)習(xí)的機器人抓取仿真訓(xùn)練技術(shù)研究[D]. 柳俊先.哈爾濱工業(yè)大學(xué) 2018
[9]基于模型學(xué)習(xí)和線性二次型最優(yōu)控制的機械臂控制器設(shè)計[D]. 于程隆.哈爾濱工業(yè)大學(xué) 2018
[10]基于深度學(xué)習(xí)的短視頻內(nèi)容分析算法研究[D]. 李夏南.哈爾濱工業(yè)大學(xué) 2018



本文編號:3063654

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3063654.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶bac5d***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com