基于卷積神經(jīng)網(wǎng)絡(luò)的細(xì)粒度車輛識別系統(tǒng)研究
發(fā)布時(shí)間:2020-04-22 10:35
【摘要】:在當(dāng)今城市化深刻發(fā)展的大背景下,隨著經(jīng)濟(jì)和工業(yè)水平的發(fā)展,汽車普及率和保有量飛速增加,隨之而來的眾多問題成為城市面臨的重大挑戰(zhàn)。為了緩解城市交通壓力、縮短阻塞時(shí)長、減小交通事故發(fā)生頻率、改善空氣質(zhì)量,需要建立一種人、車、路和諧、密切配合的智能交通系統(tǒng)(Intelligent Transportation System,簡稱ITS)。ITS融合了信息通信、數(shù)據(jù)分析、計(jì)算機(jī)視覺等多種前沿學(xué)科。本文設(shè)計(jì)實(shí)現(xiàn)了一種基于卷積神經(jīng)網(wǎng)絡(luò)的車輛識別系統(tǒng),該系統(tǒng)融合了運(yùn)動(dòng)目標(biāo)檢測、細(xì)粒度圖像識別、多任務(wù)學(xué)習(xí)和分布式架構(gòu)等多種技術(shù),實(shí)現(xiàn)視頻車輛的多屬性識別,為交通管理提供道路車輛的基礎(chǔ)屬性信息。論文主要內(nèi)容安排如下:前兩章對本文選題背景和意義,相關(guān)理論和關(guān)鍵技術(shù)進(jìn)行簡要闡述。第三章討論了在細(xì)粒度車輛多屬性識別要求下,一般單任務(wù)學(xué)習(xí)通過分割子任務(wù)分別單獨(dú)訓(xùn)練的方式,不僅耗費(fèi)時(shí)間成本,而且忽略了子任務(wù)之間的內(nèi)在聯(lián)系。為解決單任務(wù)學(xué)習(xí)遇到的瓶頸,本文提出一種基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的細(xì)粒度車輛屬性識別的方法,該方法提出了一種針對車輛多屬性的多任務(wù)卷積神經(jīng)網(wǎng)絡(luò),通過增加相似性約束,采用聯(lián)合優(yōu)化的方式,實(shí)現(xiàn)細(xì)粒度車輛屬性識別。仿真結(jié)果表明多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)不僅減少了對復(fù)雜任務(wù)訓(xùn)練時(shí)間的投入,還考慮各屬性之間的相關(guān)聯(lián)系,一定程度上提高了識別準(zhǔn)確率。第四章闡述了基于卷積神經(jīng)網(wǎng)絡(luò)的車輛識別系統(tǒng)的具體設(shè)計(jì)和實(shí)現(xiàn)過程。首先從系統(tǒng)需求分析和系統(tǒng)功能需求分析入手,設(shè)計(jì)了系統(tǒng)的總體架構(gòu)和各個(gè)功能模塊,并對系統(tǒng)的工作流程和業(yè)務(wù)流程進(jìn)行設(shè)計(jì)。然后按照各個(gè)功能模塊分別從實(shí)現(xiàn)、接口和算法支持角度詳細(xì)說明了模塊的實(shí)現(xiàn)。特別地針對運(yùn)動(dòng)車輛檢測中出現(xiàn)的 鬼影‖現(xiàn)象造成系統(tǒng)資源浪費(fèi)的問題,利用直方圖匹配的方法很好地抑制了 鬼影‖現(xiàn)象,提高系統(tǒng)的資源利用率。通過系統(tǒng)測試系統(tǒng)完成了對于監(jiān)控視頻中車輛的檢測識別,滿足交通監(jiān)控的實(shí)時(shí)性要求,具有實(shí)際應(yīng)用價(jià)值。
【圖文】:
圖 2.4 LeNet-5 網(wǎng)絡(luò)結(jié)構(gòu)模型示意圖LeNet-5 是一個(gè) 7 層的網(wǎng)絡(luò)結(jié)構(gòu),主要包括:輸入層(Input),卷積層(C),池化層(S),全連接層(F)和輸出層(Output)?梢钥闯,LeNet-5 奠定了 CNN的基本結(jié)構(gòu),卷積層和池化層交替出現(xiàn)的結(jié)構(gòu)被廣泛流傳,現(xiàn)如今流行的 CNN 模型大多也都是在此基礎(chǔ)上發(fā)展而來的,可以說 LeNet-5 是卷積神經(jīng)網(wǎng)絡(luò)的開端。(2) AlexNetAlexNet 網(wǎng)絡(luò)模型是在 LeNet-5 的基礎(chǔ)上發(fā)展而來的,可以說是 LeNet-5 的一種更寬更深的版本。AlexNet 首次在 CNN 應(yīng)用 ReLU、Dropout 和 LRN,并利用數(shù)據(jù)增強(qiáng)技術(shù)擴(kuò)大數(shù)據(jù)集規(guī)模,有效避免了過擬合現(xiàn)象的產(chǎn)生。另一方面,AlexNet 首次利用 GPU 強(qiáng)大的計(jì)算能力處理神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)產(chǎn)生的大量矩陣運(yùn)算,將 AlexNet分布在兩個(gè) GPU 上并行運(yùn)行,同時(shí)控制了兩通道中的通信損耗。其網(wǎng)絡(luò)結(jié)構(gòu)如下:
圖 2.4 LeNet-5 網(wǎng)絡(luò)結(jié)構(gòu)模型示意圖LeNet-5 是一個(gè) 7 層的網(wǎng)絡(luò)結(jié)構(gòu),主要包括:輸入層(Input),卷積層(C化層(S),全連接層(F)和輸出層(Output)?梢钥闯,LeNet-5 奠定了 C基本結(jié)構(gòu),卷積層和池化層交替出現(xiàn)的結(jié)構(gòu)被廣泛流傳,現(xiàn)如今流行的 CNN大多也都是在此基礎(chǔ)上發(fā)展而來的,可以說 LeNet-5 是卷積神經(jīng)網(wǎng)絡(luò)的開端。(2) AlexNetAlexNet 網(wǎng)絡(luò)模型是在 LeNet-5 的基礎(chǔ)上發(fā)展而來的,可以說是 LeNet-5 的一寬更深的版本。AlexNet 首次在 CNN 應(yīng)用 ReLU、Dropout 和 LRN,并利用數(shù)強(qiáng)技術(shù)擴(kuò)大數(shù)據(jù)集規(guī)模,有效避免了過擬合現(xiàn)象的產(chǎn)生。另一方面,AlexNet利用 GPU 強(qiáng)大的計(jì)算能力處理神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)產(chǎn)生的大量矩陣運(yùn)算,,將 Alex布在兩個(gè) GPU 上并行運(yùn)行,同時(shí)控制了兩通道中的通信損耗。其網(wǎng)絡(luò)結(jié)構(gòu)如
【學(xué)位授予單位】:重慶郵電大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2018
【分類號】:U495;TP391.41;TP183
本文編號:2636428
【圖文】:
圖 2.4 LeNet-5 網(wǎng)絡(luò)結(jié)構(gòu)模型示意圖LeNet-5 是一個(gè) 7 層的網(wǎng)絡(luò)結(jié)構(gòu),主要包括:輸入層(Input),卷積層(C),池化層(S),全連接層(F)和輸出層(Output)?梢钥闯,LeNet-5 奠定了 CNN的基本結(jié)構(gòu),卷積層和池化層交替出現(xiàn)的結(jié)構(gòu)被廣泛流傳,現(xiàn)如今流行的 CNN 模型大多也都是在此基礎(chǔ)上發(fā)展而來的,可以說 LeNet-5 是卷積神經(jīng)網(wǎng)絡(luò)的開端。(2) AlexNetAlexNet 網(wǎng)絡(luò)模型是在 LeNet-5 的基礎(chǔ)上發(fā)展而來的,可以說是 LeNet-5 的一種更寬更深的版本。AlexNet 首次在 CNN 應(yīng)用 ReLU、Dropout 和 LRN,并利用數(shù)據(jù)增強(qiáng)技術(shù)擴(kuò)大數(shù)據(jù)集規(guī)模,有效避免了過擬合現(xiàn)象的產(chǎn)生。另一方面,AlexNet 首次利用 GPU 強(qiáng)大的計(jì)算能力處理神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)產(chǎn)生的大量矩陣運(yùn)算,將 AlexNet分布在兩個(gè) GPU 上并行運(yùn)行,同時(shí)控制了兩通道中的通信損耗。其網(wǎng)絡(luò)結(jié)構(gòu)如下:
圖 2.4 LeNet-5 網(wǎng)絡(luò)結(jié)構(gòu)模型示意圖LeNet-5 是一個(gè) 7 層的網(wǎng)絡(luò)結(jié)構(gòu),主要包括:輸入層(Input),卷積層(C化層(S),全連接層(F)和輸出層(Output)?梢钥闯,LeNet-5 奠定了 C基本結(jié)構(gòu),卷積層和池化層交替出現(xiàn)的結(jié)構(gòu)被廣泛流傳,現(xiàn)如今流行的 CNN大多也都是在此基礎(chǔ)上發(fā)展而來的,可以說 LeNet-5 是卷積神經(jīng)網(wǎng)絡(luò)的開端。(2) AlexNetAlexNet 網(wǎng)絡(luò)模型是在 LeNet-5 的基礎(chǔ)上發(fā)展而來的,可以說是 LeNet-5 的一寬更深的版本。AlexNet 首次在 CNN 應(yīng)用 ReLU、Dropout 和 LRN,并利用數(shù)強(qiáng)技術(shù)擴(kuò)大數(shù)據(jù)集規(guī)模,有效避免了過擬合現(xiàn)象的產(chǎn)生。另一方面,AlexNet利用 GPU 強(qiáng)大的計(jì)算能力處理神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)產(chǎn)生的大量矩陣運(yùn)算,,將 Alex布在兩個(gè) GPU 上并行運(yùn)行,同時(shí)控制了兩通道中的通信損耗。其網(wǎng)絡(luò)結(jié)構(gòu)如
【學(xué)位授予單位】:重慶郵電大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2018
【分類號】:U495;TP391.41;TP183
【參考文獻(xiàn)】
相關(guān)博士學(xué)位論文 前1條
1 胡耀民;基于視頻的車型識別關(guān)鍵技術(shù)研究[D];華南理工大學(xué);2014年
相關(guān)碩士學(xué)位論文 前3條
1 路新宇;基于多傳感器融合的車型識別系統(tǒng)研究[D];華南理工大學(xué);2015年
2 楊儒良;基于MVC架構(gòu)原理的電子文檔權(quán)限管控系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D];北京郵電大學(xué);2015年
3 袁愛龍;基于視頻的汽車車型識別研究[D];電子科技大學(xué);2013年
本文編號:2636428
本文鏈接:http://sikaile.net/kejilunwen/jiaotonggongchenglunwen/2636428.html
最近更新
教材專著