高速行駛車輛的實時檢測識別方法研究
發(fā)布時間:2021-08-13 16:23
視頻監(jiān)控作為智能交通系統(tǒng)的重要組成部分,通過全天候不間斷的工作,收集著道路交通畫面,為道路交通管理者們提供了真實可靠的輔助研判信息,有效的提高了道路管理效率,降低了管理者們的工作壓力。與此同時,視頻監(jiān)控的數(shù)量及其產(chǎn)生的數(shù)據(jù)也在激增,不僅對管理者來說難以高效的利用,而且對長時間的存儲也帶來的巨大壓力。種種因素使得這種傳統(tǒng)的視頻監(jiān)控數(shù)據(jù)已經(jīng)無法滿足管理者的日常需求,因此需要一些工具來從這些視頻畫面中抽絲剝繭,提取有用信息,過濾掉大部分冗余信息。為此,本文首先收集了不同路況和不同天氣下監(jiān)控攝像頭錄制的真實場景數(shù)據(jù),其中有城市道路,高速道路,晴天,雨天,多云,夜晚,擁堵等常見場景。多樣化的數(shù)據(jù)是訓(xùn)練模型的基礎(chǔ),也是檢驗?zāi)P托阅艿幕A(chǔ)。隨后開展了高速行駛車輛的實時檢測算法研究,并在實時檢測及車輛定位精度高的基礎(chǔ)上做了聯(lián)合車輛檢測與車輛多屬性識別一體化的研究,最后通過這些真實場景下的監(jiān)控數(shù)據(jù)來驗證了本算法研究的可行性和高效性。高速行駛車輛的實時檢測算法研究。首先通過K-means++聚類方法,優(yōu)化anchor預(yù)設(shè)值,讓網(wǎng)絡(luò)在訓(xùn)練階段能更好的適應(yīng)真實場景下的車輛尺寸變化。然后設(shè)計了快速下采樣特征提取...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:100 頁
【學(xué)位級別】:碩士
【部分圖文】:
研究[35]中提出的基于卷積神經(jīng)網(wǎng)絡(luò)的顏色識別解決方案
第一章緒論7間中有各自擅長的顏色,但是平均準(zhǔn)確度最高的還是RGB空間,最終在研究[34]提出的數(shù)據(jù)集上取得94.47%的平均準(zhǔn)確度。圖1-3研究[36]中使用的雙路CNN模型1.2.2.2車輛類型識別研究現(xiàn)狀車型識別,不同于顏色識別,它更專注于車輛局部細(xì)節(jié)。而顏色識別,由于類和類之間區(qū)別大,可分辨程度高,使得其更加關(guān)注整個目標(biāo)區(qū)域,而不是目標(biāo)的局部細(xì)節(jié)。2016年,來自芬蘭坦佩雷科技大學(xué)的學(xué)者在研究[37]中同樣是將CNN模型引入實驗替代傳統(tǒng)方法作為車輛類型識別模型,并且在該文自建的測試集上達(dá)到98.06%的準(zhǔn)確度。相比于動則十?dāng)?shù)層或者多路的CNN,以及兩三百甚至數(shù)千分辨率的輸入情況,作者僅僅使用了4層網(wǎng)絡(luò)(兩個卷積層,兩個全連接層96*96的小尺寸輸入,詳情見圖1-4。圖1-4研究[37]設(shè)計的一個只有兩層卷積層、兩層全連接層的微型CNN2016年,來自中國西交利物浦大學(xué)的學(xué)者在研究[38]中指出,整車圖像的光照、姿態(tài)等信息與車輛類型信息之間有一定的聯(lián)系,提取這些輔助信息有利于車輛類型的判別。于是該研究創(chuàng)新性的通過多任務(wù)學(xué)習(xí)機(jī)制將光照和姿態(tài)信息融合到CNN模型,詳情見圖1-5。通過EdgeBoxes算法[39]和隨機(jī)森林分類器(Random
第一章緒論7間中有各自擅長的顏色,但是平均準(zhǔn)確度最高的還是RGB空間,最終在研究[34]提出的數(shù)據(jù)集上取得94.47%的平均準(zhǔn)確度。圖1-3研究[36]中使用的雙路CNN模型1.2.2.2車輛類型識別研究現(xiàn)狀車型識別,不同于顏色識別,它更專注于車輛局部細(xì)節(jié)。而顏色識別,由于類和類之間區(qū)別大,可分辨程度高,使得其更加關(guān)注整個目標(biāo)區(qū)域,而不是目標(biāo)的局部細(xì)節(jié)。2016年,來自芬蘭坦佩雷科技大學(xué)的學(xué)者在研究[37]中同樣是將CNN模型引入實驗替代傳統(tǒng)方法作為車輛類型識別模型,并且在該文自建的測試集上達(dá)到98.06%的準(zhǔn)確度。相比于動則十?dāng)?shù)層或者多路的CNN,以及兩三百甚至數(shù)千分辨率的輸入情況,作者僅僅使用了4層網(wǎng)絡(luò)(兩個卷積層,兩個全連接層96*96的小尺寸輸入,詳情見圖1-4。圖1-4研究[37]設(shè)計的一個只有兩層卷積層、兩層全連接層的微型CNN2016年,來自中國西交利物浦大學(xué)的學(xué)者在研究[38]中指出,整車圖像的光照、姿態(tài)等信息與車輛類型信息之間有一定的聯(lián)系,提取這些輔助信息有利于車輛類型的判別。于是該研究創(chuàng)新性的通過多任務(wù)學(xué)習(xí)機(jī)制將光照和姿態(tài)信息融合到CNN模型,詳情見圖1-5。通過EdgeBoxes算法[39]和隨機(jī)森林分類器(Random
【參考文獻(xiàn)】:
期刊論文
[1]基于三幀差法和交叉熵閾值法的車輛檢測[J]. 李秋林,何家峰. 計算機(jī)工程. 2011(04)
本文編號:3340756
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:100 頁
【學(xué)位級別】:碩士
【部分圖文】:
研究[35]中提出的基于卷積神經(jīng)網(wǎng)絡(luò)的顏色識別解決方案
第一章緒論7間中有各自擅長的顏色,但是平均準(zhǔn)確度最高的還是RGB空間,最終在研究[34]提出的數(shù)據(jù)集上取得94.47%的平均準(zhǔn)確度。圖1-3研究[36]中使用的雙路CNN模型1.2.2.2車輛類型識別研究現(xiàn)狀車型識別,不同于顏色識別,它更專注于車輛局部細(xì)節(jié)。而顏色識別,由于類和類之間區(qū)別大,可分辨程度高,使得其更加關(guān)注整個目標(biāo)區(qū)域,而不是目標(biāo)的局部細(xì)節(jié)。2016年,來自芬蘭坦佩雷科技大學(xué)的學(xué)者在研究[37]中同樣是將CNN模型引入實驗替代傳統(tǒng)方法作為車輛類型識別模型,并且在該文自建的測試集上達(dá)到98.06%的準(zhǔn)確度。相比于動則十?dāng)?shù)層或者多路的CNN,以及兩三百甚至數(shù)千分辨率的輸入情況,作者僅僅使用了4層網(wǎng)絡(luò)(兩個卷積層,兩個全連接層96*96的小尺寸輸入,詳情見圖1-4。圖1-4研究[37]設(shè)計的一個只有兩層卷積層、兩層全連接層的微型CNN2016年,來自中國西交利物浦大學(xué)的學(xué)者在研究[38]中指出,整車圖像的光照、姿態(tài)等信息與車輛類型信息之間有一定的聯(lián)系,提取這些輔助信息有利于車輛類型的判別。于是該研究創(chuàng)新性的通過多任務(wù)學(xué)習(xí)機(jī)制將光照和姿態(tài)信息融合到CNN模型,詳情見圖1-5。通過EdgeBoxes算法[39]和隨機(jī)森林分類器(Random
第一章緒論7間中有各自擅長的顏色,但是平均準(zhǔn)確度最高的還是RGB空間,最終在研究[34]提出的數(shù)據(jù)集上取得94.47%的平均準(zhǔn)確度。圖1-3研究[36]中使用的雙路CNN模型1.2.2.2車輛類型識別研究現(xiàn)狀車型識別,不同于顏色識別,它更專注于車輛局部細(xì)節(jié)。而顏色識別,由于類和類之間區(qū)別大,可分辨程度高,使得其更加關(guān)注整個目標(biāo)區(qū)域,而不是目標(biāo)的局部細(xì)節(jié)。2016年,來自芬蘭坦佩雷科技大學(xué)的學(xué)者在研究[37]中同樣是將CNN模型引入實驗替代傳統(tǒng)方法作為車輛類型識別模型,并且在該文自建的測試集上達(dá)到98.06%的準(zhǔn)確度。相比于動則十?dāng)?shù)層或者多路的CNN,以及兩三百甚至數(shù)千分辨率的輸入情況,作者僅僅使用了4層網(wǎng)絡(luò)(兩個卷積層,兩個全連接層96*96的小尺寸輸入,詳情見圖1-4。圖1-4研究[37]設(shè)計的一個只有兩層卷積層、兩層全連接層的微型CNN2016年,來自中國西交利物浦大學(xué)的學(xué)者在研究[38]中指出,整車圖像的光照、姿態(tài)等信息與車輛類型信息之間有一定的聯(lián)系,提取這些輔助信息有利于車輛類型的判別。于是該研究創(chuàng)新性的通過多任務(wù)學(xué)習(xí)機(jī)制將光照和姿態(tài)信息融合到CNN模型,詳情見圖1-5。通過EdgeBoxes算法[39]和隨機(jī)森林分類器(Random
【參考文獻(xiàn)】:
期刊論文
[1]基于三幀差法和交叉熵閾值法的車輛檢測[J]. 李秋林,何家峰. 計算機(jī)工程. 2011(04)
本文編號:3340756
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/3340756.html
教材專著