天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于移動機器人的目標檢測方法研究

發(fā)布時間:2021-08-28 08:49
  近年來移動機器人的功能日益強大,使得交通、醫(yī)療和工業(yè)等領域均得到受益。由于現(xiàn)實生活環(huán)境的復雜程度日益上升,移動機器人需要應對來自光照、遮擋和尺度大小等因素的干擾,以至于人類對移動機器人的性能要求也越來越高。為使移動機器人能夠更好的理解所處環(huán)境且為后續(xù)移動提供判斷依據,基于移動機器人的目標檢測方法研究成為當前移動機器人的一大熱門方向,其研究的主要問題是通過改進目標檢測算法來提高移動機器人的檢測效率與魯棒性。為此對街景環(huán)境中移動機器人目標檢測系統(tǒng)進行設計及研究。主要通過對移動機器人、深度學習和目標檢測的技術發(fā)展路程進行研究與梳理,了解相關知識并對當前基于移動機器人的目標檢測方法進行了課題研究意義與研究背景的分析。介紹和分析當前基于深度學習的單階段目標檢測代表算法YOLO與兩階段目標檢測代表算法Faster R-CNN,通過對兩種算法優(yōu)缺點的考量,選取Faster R-CNN作為移動機器人目標檢測系統(tǒng)的基本算法。其次,通過對兩階段目標檢測算法Faster R-CNN的實現(xiàn),針對其現(xiàn)階段檢測性能上的不足,做出相應改進,首先使用深層線性卷積神經網絡充分提取目標特征;然后針對難檢測的車輛目標,在區(qū)... 

【文章來源】:北京建筑大學北京市

【文章頁數】:58 頁

【學位級別】:碩士

【部分圖文】:

基于移動機器人的目標檢測方法研究


反池化示意圖

示意圖,特征圖,原圖,示意圖


第2章基于深度學習的移動機器人目標檢測算法研究11圖2-3特征圖對應原圖示意圖Fig.2-3Featuremapcorrespondingtotheoriginalimage2.2.1常用特征提取層FasterR-CNN在輸入圖片后,首先對于輸入圖片做基于卷積神經網絡的特征表達,通常由簡單的卷積層和池化層疊加組成,特征提取常用的卷積神經網絡為ZF網絡與VGG-16網絡[40]。ZF網絡是由RobFergus和MatthewZeiler設計并提出,其名稱也來源于兩位研究人員的名字縮寫,該算法基于AlexNet進行了架構調整和超參數改變等策略,并在2012年的ILSVRC比賽中獲勝。ZF網絡利用網絡可視化的技術展示出神經網絡每層的輸出,形象的解釋了不同層的神經網絡的具體作用,找到神經網絡對網絡性能的具體貢獻,通過網絡過程透明化來找到下一步優(yōu)化和改進的方向。ZF網絡代表性的改進是提出反池化過程,原本的池化過程是一個正向操作,通過記錄在池化過程中最大值所處的位置信息,也就是坐標信息,經過反池化操作,只激活池化操作的最大值所在位置的數據,其他數據都設置為零,示意圖如圖2-4所示。圖2-4反池化示意圖Fig.2-4Schematicdiagramofanti-poolingVGG-16網絡全稱為視覺幾何群網絡(VisualGeometryGroupNetwork),是2014年

示意圖,網絡結構,示意圖,卷積


第2章基于深度學習的移動機器人目標檢測算法研究12由牛津大學的Simonyan等人提出,該網絡共有13個卷積層,4個池化層與3個全連接層,卷積層中卷積核的大小均為3×3,可以有效地提取輸入圖片的細小特征,卷積過程中使用SAME參數保證不改變特征圖的大小,池化層采用2×2的滑動窗口,步長為2,保證了平移不變性,同時防止信息冗余,該網絡的優(yōu)點為局部連接且權值共享,降低計算量,其網絡結構如圖2-5所示。圖2-5VGG-16網絡結構示意圖Fig.2-5VGG-16networkstructurediagram2.2.2RPN網絡RPN網絡用于提取車輛目標候選區(qū)域,是一種全卷積網絡,與特征提取部分共享卷積層[41],對特征提取層輸出的特征圖使用特有網絡進行滑動得到帶有目標得分的目標待選區(qū)域。RPN網絡的輸入為特征圖的d個n×n空間區(qū)域,映射到d維向量;最后將低維向量輸入兩個全連接層,即候選區(qū)域分類層與候選區(qū)域框回歸層,在每個滑動窗口位置中心對應原圖預測k個目標區(qū)域建議框,所以對于每個位置,候選區(qū)域分類層有2k個輸出,即屬于前景和背景的概率,候選區(qū)域框回歸層有4k個輸出,即平移縮放參數,如圖2-6所示。

【參考文獻】:
期刊論文
[1]基于深度學習的場景識別方法綜述[J]. 李新葉,朱婧,麻麗娜.  計算機工程與應用. 2020(05)
[2]基于深度學習的目標檢測技術的研究綜述[J]. 羅元,王薄宇,陳旭.  半導體光電. 2020(01)
[3]移動機器人長期自主環(huán)境適應研究進展和展望[J]. 曹風魁,莊嚴,閆飛,楊奇峰,王偉.  自動化學報. 2020(02)
[4]面向實時應用的深度學習研究綜述[J]. 張政馗,龐為光,謝文靜,呂鳴松,王義.  軟件學報. 2020(09)
[5]基于改進型YOLO算法的遙感圖像艦船檢測[J]. 王璽坤,姜宏旭,林珂玉.  北京航空航天大學學報. 2020(06)
[6]深度學習在圖像識別中的應用研究綜述[J]. 鄭遠攀,李廣陽,李曄.  計算機工程與應用. 2019(12)
[7]基于改進Mask RCNN和Kinect的服務機器人物品識別系統(tǒng)[J]. 石杰,周亞麗,張奇志.  儀器儀表學報. 2019(04)
[8]改進的YOLO V3算法及其在小目標檢測中的應用[J]. 鞠默然,羅海波,王仲博,何淼,常錚,惠斌.  光學學報. 2019(07)
[9]基于Faster RCNN和YOLO的交通場景下的車輛檢測[J]. 徐亮,黃李波,白杰.  佳木斯大學學報(自然科學版). 2019(02)
[10]基于難分樣本挖掘的快速區(qū)域卷積神經網絡目標檢測研究[J]. 張燁,許艇,馮定忠,蔣美仙,吳光華.  電子與信息學報. 2019(06)



本文編號:3368203

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3368203.html


Copyright(c)文論論文網All Rights Reserved | 網站地圖 |

版權申明:資料由用戶015aa***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com