基于深度學(xué)習(xí)的道路車輛目標(biāo)檢測方法研究
發(fā)布時(shí)間:2021-07-10 16:31
近年來,人工智能技術(shù)正在以高速發(fā)展的趨勢,滲透于我們生活的方方面面,從無人駕駛到刷臉線上支付,從視頻處理到語音處理,隨處可見的都是人工智能的應(yīng)用。尤其現(xiàn)在隨著大眾生活水平的提高,人們對產(chǎn)品的便捷要求、質(zhì)量要求、舒適度要求以及安全性要求也越來越高,這一點(diǎn)在無人駕駛智能汽車上表現(xiàn)的尤其明顯。而目前對無人駕駛汽車的最大的現(xiàn)實(shí)需求就是使其能夠快速有效安全的感知道路上的行使車輛,因此對基于視覺的道路車輛感知方法進(jìn)行研究是很有現(xiàn)實(shí)意義和作用的,而在基于視覺的道路感知方法研究中,目標(biāo)檢測算法占據(jù)著極其重要的位置,但在傳統(tǒng)的道路車輛檢測方法中,都是2D目標(biāo)檢測,但在實(shí)際的環(huán)境下,道路上的車輛都是呈現(xiàn)3維立體形態(tài)的,僅僅使用2D目標(biāo)檢測,已經(jīng)無法滿足無人駕駛技術(shù)的快速發(fā)展,并且2D目標(biāo)檢測的在檢測精度上的表現(xiàn)也不如3D目標(biāo)檢測。在3D目標(biāo)車輛檢測中,很多前沿的研究者們都是結(jié)合深度學(xué)習(xí)網(wǎng)絡(luò)以及雷達(dá)點(diǎn)云數(shù)據(jù),因?yàn)樯疃葘W(xué)習(xí)網(wǎng)絡(luò)具有很強(qiáng)的自學(xué)習(xí)性和優(yōu)秀的魯棒性,而雷達(dá)點(diǎn)云數(shù)據(jù)則能很好的提供目標(biāo)的深度信息,有助于目標(biāo)的回歸。然而由于雷達(dá)點(diǎn)云數(shù)據(jù)存在這稀疏性和不規(guī)則性的缺點(diǎn),使得在3D目標(biāo)檢測中僅僅使用雷達(dá)點(diǎn)云數(shù)據(jù)...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:78 頁
【學(xué)位級別】:碩士
【部分圖文】:
無人駕駛環(huán)境感知框架
電子科技大學(xué)碩士學(xué)位論文6目前Apollo已經(jīng)開源,以其為例,其中使用的YOLO3D[35],場景中的目標(biāo)物體是通過一個多任務(wù)的網(wǎng)絡(luò)進(jìn)行檢測的。如ShuranSong等設(shè)計(jì)的DeepSlidingShapes[36]模型,該模型是一種3D的卷積模型,如下圖1-2所示,其網(wǎng)絡(luò)的輸入數(shù)據(jù)包含了兩個部分,一個部分是2D的RGB圖像,另外一個是與該圖像對應(yīng)的景深圖,從圖中可知該模型是利用了一種3D滑動窗口的方式,來對目標(biāo)實(shí)現(xiàn)3D目標(biāo)檢測,得到我們需要的3D檢測框,是一種高效的3D目標(biāo)檢測算法。如在CVPR2017上Momenta提出的DeepMANTA[37],該方法預(yù)測目標(biāo)車輛特定部件的三維尺寸是通過使用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的,然后從已有的三維模型庫中匹配到最為相似的模型,最后是通過模型中的3D關(guān)鍵點(diǎn)和通過在圖像中被檢測出的2D關(guān)鍵點(diǎn),來進(jìn)行匹配得到目標(biāo)車輛在3D空間中的姿態(tài),匹配時(shí)用到的匹配方式為PnP匹配。圖1-2網(wǎng)絡(luò)模型(3)只使用雙目相機(jī)作為數(shù)據(jù)輸入盡管我們可以使用單目相機(jī)就可以達(dá)到3D目標(biāo)檢測的目的,但其檢測精度的確很難滿足無人駕駛的需求,而雙目相機(jī)因?yàn)槠渚哂懈S富的信息,使用雙目相機(jī)進(jìn)行3D目標(biāo)檢測可以達(dá)到更好的檢測效果。而且采用雙目相機(jī)進(jìn)行目標(biāo)深度信息提取的時(shí)候,不會回到多尺度問題的影響。雙目數(shù)據(jù)的采集只需要使用雙目相機(jī)就可以獲得,并且使用基于雙目數(shù)據(jù)的3D目標(biāo)檢測相對于基于激光雷達(dá)3D目標(biāo)檢測,在方法上更加容易實(shí)現(xiàn)。如香港科技大學(xué)提出的StereoR-CNN[38],該算法于2019年發(fā)布在計(jì)算機(jī)視覺領(lǐng)域頂級會議CVPR上,如圖1-3所示,該方法是
ereoR-CNN與2D的FasterR-CNN不同的是,該方法在FasterR-CNN的基礎(chǔ)上額外增加了輸入,其第一步是在雙目圖像中都生成目標(biāo)候選區(qū)域。然后使用不同的分支來對視角、關(guān)鍵點(diǎn)和對象的維度進(jìn)行預(yù)測,其目的是將從左右圖像中得到的2D檢測結(jié)果和預(yù)測得到的關(guān)鍵點(diǎn)相結(jié)合,來大概的得到目標(biāo)的3D候選框區(qū)域,如圖所1-3示,后續(xù)還要細(xì)化3DBoundingbox,細(xì)化的方法是將左右圖像對應(yīng)的感興趣區(qū)域(RegionofInterest,簡稱ROI)通過光度對準(zhǔn)原則進(jìn)行對準(zhǔn)矯正。該方法在性能上與其他比較主流的基于雙目的3D目標(biāo)檢測算法相比,具有很大的優(yōu)勢。圖1-3網(wǎng)絡(luò)結(jié)構(gòu)示意圖(4)將RGB圖像和雷達(dá)點(diǎn)云數(shù)據(jù)聯(lián)合作為輸入如AVOD[39],AVOD算法的輸入數(shù)據(jù)包括兩部分,第一部分為RGB圖像,第二部分為與該RGB圖像對應(yīng)的激光雷達(dá)點(diǎn)云的BEV(BirdEyeView),然后該算法使用FPN網(wǎng)絡(luò)對輸入的數(shù)據(jù)進(jìn)行處理,得到其全分辨的特征圖,然后將BEV圖像和RGB圖像得到的特征圖對應(yīng)的區(qū)域進(jìn)行融合來提取3D候選框,然后再利用得到的3D候選框進(jìn)行3D目標(biāo)檢測。如MV3D[40],該算法的數(shù)據(jù)包括了3部分,處了AVOD中RGB圖像和對應(yīng)的點(diǎn)云的鳥瞰圖圖像之外,還包括對應(yīng)的點(diǎn)云的前視圖圖像,首先利用點(diǎn)云的鳥瞰圖通過卷積層得到其特征圖,然后使用該特征圖得到粗略的3D候選框,然后將粗略得到的3D候選框投影在RGB圖像、鳥瞰圖圖像和前視圖圖像得到的特征圖上,得到各視圖下ROI區(qū)域特征,最后將三個ROI區(qū)域特征進(jìn)行融合,得到融合后的特征圖,最后通過該特征圖得到最后精細(xì)化的3D檢測框。綜上所述,目標(biāo)檢測作為基于視覺的道路車輛感知研究方法中的主要組成技術(shù),已經(jīng)得到了越來越多的廣泛關(guān)注。由于實(shí)際情況下,道路上的車輛是以立體的形式被感知的,所以對基于雷達(dá)數(shù)據(jù)或者圖像數(shù)據(jù)提供景深信息來進(jìn)行3D目標(biāo)?
【參考文獻(xiàn)】:
期刊論文
[1]人工智能綜述[J]. 李玉環(huán). 科技創(chuàng)新導(dǎo)報(bào). 2016(16)
[2]從ADAS系統(tǒng)產(chǎn)業(yè)發(fā)展看未來無人駕駛汽車技術(shù)前景[J]. 陳思宇,烏偉民,童杰,姜海濤,孫志濤. 黑龍江交通科技. 2015(11)
[3]無人駕駛技術(shù)研究及展望[J]. 賈祝廣,孫效玉,王斌,張維國. 礦業(yè)裝備. 2014(05)
[4]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽明,王正. 計(jì)算機(jī)應(yīng)用研究. 2012(08)
本文編號:3276273
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:78 頁
【學(xué)位級別】:碩士
【部分圖文】:
無人駕駛環(huán)境感知框架
電子科技大學(xué)碩士學(xué)位論文6目前Apollo已經(jīng)開源,以其為例,其中使用的YOLO3D[35],場景中的目標(biāo)物體是通過一個多任務(wù)的網(wǎng)絡(luò)進(jìn)行檢測的。如ShuranSong等設(shè)計(jì)的DeepSlidingShapes[36]模型,該模型是一種3D的卷積模型,如下圖1-2所示,其網(wǎng)絡(luò)的輸入數(shù)據(jù)包含了兩個部分,一個部分是2D的RGB圖像,另外一個是與該圖像對應(yīng)的景深圖,從圖中可知該模型是利用了一種3D滑動窗口的方式,來對目標(biāo)實(shí)現(xiàn)3D目標(biāo)檢測,得到我們需要的3D檢測框,是一種高效的3D目標(biāo)檢測算法。如在CVPR2017上Momenta提出的DeepMANTA[37],該方法預(yù)測目標(biāo)車輛特定部件的三維尺寸是通過使用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的,然后從已有的三維模型庫中匹配到最為相似的模型,最后是通過模型中的3D關(guān)鍵點(diǎn)和通過在圖像中被檢測出的2D關(guān)鍵點(diǎn),來進(jìn)行匹配得到目標(biāo)車輛在3D空間中的姿態(tài),匹配時(shí)用到的匹配方式為PnP匹配。圖1-2網(wǎng)絡(luò)模型(3)只使用雙目相機(jī)作為數(shù)據(jù)輸入盡管我們可以使用單目相機(jī)就可以達(dá)到3D目標(biāo)檢測的目的,但其檢測精度的確很難滿足無人駕駛的需求,而雙目相機(jī)因?yàn)槠渚哂懈S富的信息,使用雙目相機(jī)進(jìn)行3D目標(biāo)檢測可以達(dá)到更好的檢測效果。而且采用雙目相機(jī)進(jìn)行目標(biāo)深度信息提取的時(shí)候,不會回到多尺度問題的影響。雙目數(shù)據(jù)的采集只需要使用雙目相機(jī)就可以獲得,并且使用基于雙目數(shù)據(jù)的3D目標(biāo)檢測相對于基于激光雷達(dá)3D目標(biāo)檢測,在方法上更加容易實(shí)現(xiàn)。如香港科技大學(xué)提出的StereoR-CNN[38],該算法于2019年發(fā)布在計(jì)算機(jī)視覺領(lǐng)域頂級會議CVPR上,如圖1-3所示,該方法是
ereoR-CNN與2D的FasterR-CNN不同的是,該方法在FasterR-CNN的基礎(chǔ)上額外增加了輸入,其第一步是在雙目圖像中都生成目標(biāo)候選區(qū)域。然后使用不同的分支來對視角、關(guān)鍵點(diǎn)和對象的維度進(jìn)行預(yù)測,其目的是將從左右圖像中得到的2D檢測結(jié)果和預(yù)測得到的關(guān)鍵點(diǎn)相結(jié)合,來大概的得到目標(biāo)的3D候選框區(qū)域,如圖所1-3示,后續(xù)還要細(xì)化3DBoundingbox,細(xì)化的方法是將左右圖像對應(yīng)的感興趣區(qū)域(RegionofInterest,簡稱ROI)通過光度對準(zhǔn)原則進(jìn)行對準(zhǔn)矯正。該方法在性能上與其他比較主流的基于雙目的3D目標(biāo)檢測算法相比,具有很大的優(yōu)勢。圖1-3網(wǎng)絡(luò)結(jié)構(gòu)示意圖(4)將RGB圖像和雷達(dá)點(diǎn)云數(shù)據(jù)聯(lián)合作為輸入如AVOD[39],AVOD算法的輸入數(shù)據(jù)包括兩部分,第一部分為RGB圖像,第二部分為與該RGB圖像對應(yīng)的激光雷達(dá)點(diǎn)云的BEV(BirdEyeView),然后該算法使用FPN網(wǎng)絡(luò)對輸入的數(shù)據(jù)進(jìn)行處理,得到其全分辨的特征圖,然后將BEV圖像和RGB圖像得到的特征圖對應(yīng)的區(qū)域進(jìn)行融合來提取3D候選框,然后再利用得到的3D候選框進(jìn)行3D目標(biāo)檢測。如MV3D[40],該算法的數(shù)據(jù)包括了3部分,處了AVOD中RGB圖像和對應(yīng)的點(diǎn)云的鳥瞰圖圖像之外,還包括對應(yīng)的點(diǎn)云的前視圖圖像,首先利用點(diǎn)云的鳥瞰圖通過卷積層得到其特征圖,然后使用該特征圖得到粗略的3D候選框,然后將粗略得到的3D候選框投影在RGB圖像、鳥瞰圖圖像和前視圖圖像得到的特征圖上,得到各視圖下ROI區(qū)域特征,最后將三個ROI區(qū)域特征進(jìn)行融合,得到融合后的特征圖,最后通過該特征圖得到最后精細(xì)化的3D檢測框。綜上所述,目標(biāo)檢測作為基于視覺的道路車輛感知研究方法中的主要組成技術(shù),已經(jīng)得到了越來越多的廣泛關(guān)注。由于實(shí)際情況下,道路上的車輛是以立體的形式被感知的,所以對基于雷達(dá)數(shù)據(jù)或者圖像數(shù)據(jù)提供景深信息來進(jìn)行3D目標(biāo)?
【參考文獻(xiàn)】:
期刊論文
[1]人工智能綜述[J]. 李玉環(huán). 科技創(chuàng)新導(dǎo)報(bào). 2016(16)
[2]從ADAS系統(tǒng)產(chǎn)業(yè)發(fā)展看未來無人駕駛汽車技術(shù)前景[J]. 陳思宇,烏偉民,童杰,姜海濤,孫志濤. 黑龍江交通科技. 2015(11)
[3]無人駕駛技術(shù)研究及展望[J]. 賈祝廣,孫效玉,王斌,張維國. 礦業(yè)裝備. 2014(05)
[4]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽明,王正. 計(jì)算機(jī)應(yīng)用研究. 2012(08)
本文編號:3276273
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/3276273.html
教材專著