基于視覺的車輛智能檢測技術的研究
發(fā)布時間:2020-09-27 20:01
自動駕駛系統(tǒng)可以根據(jù)對環(huán)境的監(jiān)測信息,自動或者輔助駕駛員進行車輛的控制決策來提高駕駛的安全性。因此,自動駕駛技術在最近幾年,隨著傳感器技術、檢測和控制算法的發(fā)展得到了廣泛的關注和研究。環(huán)境感知、行為估計和控制決策的重要基礎之一就是目標檢測算法。目前許多基于視覺的2D目標檢測算法雖然檢測速度較快,但其無法較為準確地提供車輛的姿態(tài)和尺寸信息。而大部分3D車輛目標檢測方法又都是基于LiDAR提供的深度信息,成本較高;谝曈X的3D目標檢測可以提供比LiDAR更為低成本的3D目標檢測方案。然而目前許多基于視覺的3D車輛目標檢測方法需要復雜的神經網絡和先驗模型,很難在小型平臺部署或者實現(xiàn)較快的檢測速度。本文給出了一種利用車輛2D邊界框、車輛類型和觀察角度來獲得其3D邊界框的單目3D目標檢測方法。本文所提出的方法可以使用現(xiàn)有的2D目標檢測方法,且觀察角估計部分獨立于2D目標檢測網絡,減輕了數(shù)據(jù)集的標注難度、卷積網絡設計和訓練的難度。本文提出的算法不需要復雜的網絡去估計出表示車輛3D邊界框的7個或9個自由度參數(shù),僅僅根據(jù)2D邊界框、車輛類型和觀察角度信息,即可得出車輛的3D邊界框,計算量較小,可以在低性能平臺或者移動端部署。除此之外,相機內參的變化不需要對整個網絡重新訓練,算法的修改和移植比較方便。為了使目標檢測系統(tǒng)與本文所用硬件平臺匹配,本文首先對YOLOv3-tiny的主干進行了優(yōu)化,充分利用了GPU資源,提升了2D目標檢測的準確度。為了得出車輛的觀察角度,本文設計了殘差網絡并在制作的觀察角度數(shù)據(jù)集上進行訓練,使得網絡可以根據(jù)車輛圖片直接輸出車輛的觀察角度值。得到2D邊界框和觀察角度后,本文又通過傳統(tǒng)計算機視覺的方法,聯(lián)合相機內參等先驗信息解方程組,獲得車輛3D姿態(tài)信息及3D邊界框。在KITTI數(shù)據(jù)集上的測試結果表明,Easy模式的AP50,AP70、AOS和AP3D達到了95.1%,77.8%,76.9%和1.8%,雖然與最先進的目標檢測準確度還有一定距離,但是對硬件的要求大大降低,顯存占用1GB以內。為了對車輛目標檢測的結果進行應用和直觀顯示,本文在得出2D、3D信息基礎上,在鳥瞰圖中直觀給出了車輛位置、車道線等信息。
【學位單位】:電子科技大學
【學位級別】:碩士
【學位年份】:2019
【中圖分類】:U495;TP391.41
【部分圖文】:
Bc.LiborNovák等人提出所使用的端到端網絡的輸出層
DVP目標檢測系統(tǒng)結構
XiaozhiChen等人提出的3D車輛檢測算法框圖
本文編號:2828316
【學位單位】:電子科技大學
【學位級別】:碩士
【學位年份】:2019
【中圖分類】:U495;TP391.41
【部分圖文】:
Bc.LiborNovák等人提出所使用的端到端網絡的輸出層
DVP目標檢測系統(tǒng)結構
XiaozhiChen等人提出的3D車輛檢測算法框圖
【參考文獻】
相關期刊論文 前2條
1 蔣如意;劉洪濤;胡文;王石剛;;改進的圖像距離變換方法在車道檢測中應用[J];上海交通大學學報;2012年09期
2 張玲,陳麗敏,何偉,郭磊民;基于視頻的改進幀差法在車流量檢測中的應用[J];重慶大學學報(自然科學版);2004年05期
相關博士學位論文 前1條
1 文學志;基于機器學習的路面對象識別關鍵技術研究[D];東北大學;2008年
本文編號:2828316
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/2828316.html