天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 計算機應(yīng)用論文 >

基于深度學(xué)習(xí)和深度相機的移動機器人抓取方法研究

發(fā)布時間:2021-11-20 11:12
  目前,無論是在日常生活還是工業(yè)上,自動化技術(shù)都在朝著智能化的方向快速發(fā)展。智能化的發(fā)展離不開智能的算法,也離不開其載體——機器人。擁有一個性能優(yōu)越的視覺感知系統(tǒng)是機器人的智能化表現(xiàn)之一。近些年,隨著計算機性能的提升,大數(shù)據(jù)以及機器學(xué)習(xí)技術(shù)得到了前所未有的發(fā)展,機器學(xué)習(xí)中的深度學(xué)習(xí)的方法也為傳統(tǒng)機器視覺領(lǐng)域打開了一扇新的大門。盡管深度學(xué)習(xí)的目標(biāo)檢測算法已經(jīng)日益成熟,但是將這種理論算法應(yīng)用于實際機器人上的發(fā)展卻相對緩慢。論文以移動機器人平臺為載體,針對深度學(xué)習(xí)中的Faster R-CNN目標(biāo)檢測算法進(jìn)行改進(jìn),建立了新的目標(biāo)檢測網(wǎng)絡(luò)模型,此外,借助于深度相機提供的深度圖像信息,實現(xiàn)了目標(biāo)物體的抓取點定位。最后,在實際移動機器人上完成了指定目標(biāo)的抓取任務(wù)。主要研究內(nèi)容包括:深度學(xué)習(xí)中目標(biāo)檢測算法的理論研究;數(shù)據(jù)集中的標(biāo)注真實框?qū)τ?xùn)練目標(biāo)檢測網(wǎng)絡(luò)的影響,并以此設(shè)計了自適應(yīng)數(shù)據(jù)集的錨框選取算法;改進(jìn)的Faster R-CNN目標(biāo)檢測網(wǎng)絡(luò)模型的搭建與訓(xùn)練;以及基于深度相機的抓取點定位與位姿估計。論文首先對10類日常商品:牙刷、牙膏、薯片、餅干、牛奶、可樂、紙巾、洗發(fā)水、書、果汁制作了圖像數(shù)據(jù)集,總共... 

【文章來源】:長沙理工大學(xué)湖南省

【文章頁數(shù)】:65 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)和深度相機的移動機器人抓取方法研究


圖1.1亞馬遜機器人挑戰(zhàn)賽(左)與京東機器人挑戰(zhàn)賽(右)??RFID二

直方圖,圖像,特征提取,毛巾


?碩士學(xué)位論文???1.*賴fiur傭?2.?i?3?雌權(quán)屮獨、y??will:?爾綱肅Jim?預(yù)測點進(jìn)行找?J?J?"?M^5lJ?-?&???部搜索?出抓収點??JL?m?m?l?_P|?.?一?一,—一』mm:,??fcwN^I?? ̄f'??9i3??圖1.2聯(lián)合特征提取方法[AmauRamisa等人,2013]??設(shè)計一種特征描述,通過捕獲這種特征描述的方式來處理圖像信息,從而得知當(dāng)前圖像??內(nèi)是否存在目標(biāo)物體。??Jeremy?Maitin-Shepard丨川等人對毛巾這一對象進(jìn)行了機器人識另丨J抓取的研究,針對??毛巾所采用的布料的幾何特征,對毛巾的識別與抓取主要分為三個步驟:首先對圖像進(jìn)??行前景提取,僅獲得毛巾的圖像信息;然后根據(jù)圖像灰度的不連續(xù)性判斷出毛巾的邊界??位置;最后通過隨機抽樣一致性算法(Random?Sample?Consensus,?RANSAC)對邊界位??置的候選抓取點進(jìn)行篩眩實驗表明由于該方法是根據(jù)布料的幾何特征設(shè)計的,因此對??材質(zhì)的變化、大孝外觀等方面的魯棒性較好。??Amau尺3111丨53[32]等人構(gòu)建了一個3D幾何特征與物體外觀相結(jié)合的特征算法,再通??過滑動窗口算法與支持向量機(Support?Vector?Machine,?SVM),使用提出的可抓取估??計方法選出最優(yōu)抓取點。首先獲取圖像并使用測量深度直方圖(Geodesic-Depth??Histogram,?GDH)來提取圖像特征,接著使用基于邏輯回歸檢測的滑動窗口算法進(jìn)行??分類,并將每個在概率圖上獨立預(yù)測的點進(jìn)行聚類;然后使用SVM進(jìn)行峰值檢測與局??部搜索;最后通過最優(yōu)的

數(shù)據(jù)集,卷積,神經(jīng)網(wǎng)絡(luò),機器人


梅隆大學(xué)的機器人研究院的Lerrel?Pinto與Abhinav?Gupta[33]分析了當(dāng)前??使用人為標(biāo)注數(shù)據(jù)集進(jìn)行深度學(xué)習(xí)完成抓取任務(wù)的不足:1.?一種物體可以以多種方式被??機器人抓取,因此手動標(biāo)注抓取位置是一個相當(dāng)復(fù)雜的任務(wù)。2.人為標(biāo)注的抓取位置往??往帶有偏差。于是Lerrel?Pinto與Abhinav?Gupta嘗試訓(xùn)練機器人來進(jìn)行試錯實驗,與以??往不同的是,他們大幅度增加了訓(xùn)練數(shù)據(jù)集,在700個小時內(nèi)由機器人的試錯實驗獲取??r?聲通■T“i??n?物?^??圖1.3訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的部分?jǐn)?shù)據(jù)集[Lerrel?Pinto與Abhinav?Gupta,2015】??7??

【參考文獻(xiàn)】:
期刊論文
[1]基于RFID的車載定位定向技術(shù)研究與應(yīng)用[J]. 陳思,仲啟媛,譚立龍,王鵬,張彥濤.  火炮發(fā)射與控制學(xué)報. 2019(01)
[2]深度學(xué)習(xí)在智能機器人中的應(yīng)用研究綜述[J]. 龍慧,朱定局,田娟.  計算機科學(xué). 2018(S2)
[3]基于圖像處理的機器人控制系統(tǒng)的研究設(shè)計[J]. 羅朝輝,李麗宏,譚爽.  現(xiàn)代制造工程. 2018(10)
[4]一種融合稀疏幾何特征與深度流的深度視覺SLAM算法[J]. 方正,趙世博,李昊來.  機器人. 2019(02)
[5]基于激光信息的移動機器人SLAM研究[J]. 柳俊城,李迪,翁瀟文.  自動化與儀表. 2018(06)
[6]全球機器人市場統(tǒng)計數(shù)據(jù)分析[J]. 梁文莉.  機器人技術(shù)與應(yīng)用. 2018(02)
[7]優(yōu)化初始聚類中心及確定K值的K-means算法[J]. 蔣麗,薛善良.  計算機與數(shù)字工程. 2018(01)
[8]深度學(xué)習(xí)在目標(biāo)視覺檢測中的應(yīng)用進(jìn)展與展望[J]. 張慧,王坤峰,王飛躍.  自動化學(xué)報. 2017(08)
[9]智能制造——“中國制造2025”的主攻方向[J]. 周濟.  中國機械工程. 2015(17)
[10]工業(yè)機器人的技術(shù)發(fā)展及其應(yīng)用[J]. 駱敏舟,方健,趙江海.  機械制造與自動化. 2015(01)

碩士論文
[1]基于視覺導(dǎo)航的自動導(dǎo)引車設(shè)計與實現(xiàn)[D]. 趙博.山東大學(xué) 2017



本文編號:3507204

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3507204.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶09a39***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com