天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于深度學習的無人車場景實例分割技術(shù)研究

發(fā)布時間:2021-01-26 20:47
  隨著計算機技術(shù)的發(fā)展,無人駕駛已成為當下研究的熱點技術(shù)之一。隨著深度學習與計算機視覺算法的快速發(fā)展,無人駕駛的智能程度得到了極大的提高,使無人駕駛利用低成本的圖像對復雜場景信息進行分析成為了可能。在無人駕駛中常用的計算機視覺算法有目標檢測算法、圖像語義分割算法等。目標檢測算法雖然能預測環(huán)境中每個實例所處的大致區(qū)域,卻無法對實例進行像素級分類。圖像語義分割能提供全局的像素級分類信息,卻無法區(qū)分不同的實例。而實例分割算法綜合了目標檢測與圖像語義分割兩個任務的預測結(jié)果,為無人駕駛場景提供環(huán)境中更加豐富具體的實例相關(guān)信息,使無人駕駛視覺技術(shù)擁有更強的環(huán)境信息分析能力。目前成熟的實例分割算法大多為兩階段的,推理速度較慢,不適合實時性要求較高的無人駕駛場景。本課題提出一種基于單階段目標檢測算法的快速實例分割算法模型,該方法將Mask RCNN目標檢測部分由原來的先產(chǎn)生候選框,再對候選框進行回歸精修的方式替換為由YOLOv3算法直接生成最終的目標包圍框,利用再池化技術(shù)將包圍框從對應特征圖中摳取出來并裁剪為固定大小,之后從這些固定大小的特征圖中預測實例的掩模,最后通過上采樣操作生成原圖中的目標實例掩模... 

【文章來源】:哈爾濱工業(yè)大學黑龍江省 211工程院校 985工程院校

【文章頁數(shù)】:61 頁

【學位級別】:碩士

【部分圖文】:

基于深度學習的無人車場景實例分割技術(shù)研究


殘差學習模塊[46]

目標檢測,算法


哈爾濱工業(yè)大學工學碩士學位論文-9-路,一種是基于候選區(qū)域的兩階段目標檢測算法,一種是直接預測目標包圍框的單階段目標檢測算法。兩階段算法的思路是先產(chǎn)生可能包含物體的候選框,再對候選框進行重回歸得到目標框位置。針對候選框的生成,早期使用滑動窗口生成,由于計算量太大,被改進為采用選擇性搜索算法生成候選框,此類算法以文獻[8,9,11]為代表。選擇新搜索算法雖然能稍微緩解計算量大的問題,但該問題仍然存在。為了解決這個問題,后以文獻[10,45]為代表的算法采用基于候選區(qū)域網(wǎng)絡的方式生成區(qū)域候選框,減少計算量的同時讓網(wǎng)絡自動產(chǎn)生候選區(qū)域。一階段算法思路由文獻[12]開啟,其將包圍框預測問題轉(zhuǎn)換為回歸問題,直接預測包圍框的位置。文獻[13-16]在次基礎上引入特征金字塔,提高了目標檢測算法的預測能力,其中文獻[16]通過引入foaclloss損失函數(shù),緩解了類別不均衡樣本的目標檢測誤差大的問題。圖2-2基于深度學習的目標檢測算法可以看出,基于深度學習的目標檢測算法已經(jīng)相對成熟,目前流行的是以FastR-CNN為代表的兩階段目標檢測算法和以YOLO、SSD為代表的單階段目標檢測算法,兩種類型的算法關(guān)注點不同,前者注重精度,后者注重速度。雖然設計思路不同,但是許多思想也有相互借鑒,下面就目標檢測涉及到的相關(guān)基礎知識進行深入剖析。2.3.1候選區(qū)域生成兩階段的目標檢測算法一般是基于候選區(qū)域的,主要思想是通過生成一系列的候選區(qū)域,對候選區(qū)域進行分類粗略的得到包含物體的候選框,再對候選框進行精修,即對選中的候選框進行回歸得到物體的具體包圍框。早期的算法利用多

框架圖,框架,算法,區(qū)域


哈爾濱工業(yè)大學工學碩士學位論文-10-尺度的滑動窗口在原圖中產(chǎn)生大量的推薦區(qū)域,然后利用卷積神經(jīng)網(wǎng)絡對這些候選區(qū)域進行回歸和分類,得到最終的結(jié)果。但是計算量龐大,時間成本太高。文獻[8]隨后提出了圖2-3所示的R-CNN算法,算法使用了選擇性搜索并將候選區(qū)域縮小到2000個左右,隨后對2000個區(qū)域進行目標檢測,但仍然計算量大。圖2-3R-CNN算法框架[8]在此之后,文獻[10]在R-CNN基礎上提出了圖2-4所示的FastRCNN算法,先利卷積神經(jīng)網(wǎng)絡提取圖片的特征,再在特征圖上進行選擇性搜索得到特征圖的候選推薦區(qū)域,這樣從計算2000張候選區(qū)域的特征變?yōu)榱酥恍枰崛∫淮翁卣,極大減少了計算量。圖2-4FastRCNN算法框架[10]文獻[45]創(chuàng)造性地提出候選區(qū)域生成網(wǎng)絡(RegionProposalNetworks,RPN),使候選區(qū)域的生成自動化。RPN框架如圖2-5所示。FasterR-CNN與文獻[10]做法一樣都是對整張圖像進行特征提取,RPN和最終的目標檢測任務共享特征。RPN預設了9個尺度的錨點,并在CNN輸出的卷積圖上滑動掃描每個像素點的9個不同尺度的特征圖,以此獲取候選區(qū)域,對區(qū)域推薦映射的特征進行降維后,最終輸出區(qū)域推薦的坐標信息和分類分數(shù)。在RPN提取候選區(qū)域階段并不關(guān)注目標的

【參考文獻】:
期刊論文
[1]基于深度學習的目標檢測算法綜述[J]. 周曉彥,王珂,李凌燕.  電子測量技術(shù). 2017(11)
[2]基于DCNN的圖像語義分割綜述[J]. 魏云超,趙耀.  北京交通大學學報. 2016(04)
[3]無人駕駛汽車的發(fā)展現(xiàn)狀和展望[J]. 楊帆.  上海汽車. 2014(03)
[4]深度學習研究綜述[J]. 孫志軍,薛磊,許陽明,王正.  計算機應用研究. 2012(08)



本文編號:3001789

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3001789.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶f92c4***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com