交通場(chǎng)景中基于深度學(xué)習(xí)的視頻圖像處理算法及應(yīng)用研究
發(fā)布時(shí)間:2021-07-22 02:41
隨著道路交通的迅速發(fā)展,交通場(chǎng)景下視頻圖像處理系統(tǒng)的重要性日益增加。目標(biāo)檢測(cè)作為圖像處理算法中的一個(gè)重要步驟,其精度和速度對(duì)于整個(gè)系統(tǒng)來(lái)說(shuō)至關(guān)重要。傳統(tǒng)的目標(biāo)檢測(cè)需要依靠經(jīng)驗(yàn)由人工定義特征,檢測(cè)性能不佳且魯棒性差,而近年來(lái)深度學(xué)習(xí)的迅速發(fā)展使得基于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法在檢測(cè)精度和速度方面都有令人驚喜的表現(xiàn)。本文主要研究將基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法應(yīng)用于交通場(chǎng)景中的視頻圖像處理中,利用深度學(xué)習(xí)完成目標(biāo)檢測(cè)功能,在此基礎(chǔ)上實(shí)現(xiàn)交通場(chǎng)景中典型違法現(xiàn)象的檢測(cè)并完成系統(tǒng)實(shí)現(xiàn)。本文的主要工作如下:(1)研究深度學(xué)習(xí)中目標(biāo)檢測(cè)技術(shù)在交通場(chǎng)景視頻監(jiān)控系統(tǒng)的應(yīng)用。選擇YOLOv3作為本文目標(biāo)檢測(cè)所用的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),給出了在YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)下針對(duì)特定目標(biāo)的參數(shù)訓(xùn)練方法,并利用YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)和自行訓(xùn)練的參數(shù)完成了交通場(chǎng)景中特定目標(biāo)的檢測(cè)。另外,對(duì)YOLOv3模型進(jìn)行改進(jìn),增加預(yù)處理層對(duì)夜間圖像進(jìn)行圖像增強(qiáng),提升了該模型在夜間圖像上的檢測(cè)性能。(2)研究實(shí)際監(jiān)控場(chǎng)景下違法現(xiàn)象的判定方法。通過(guò)基于YOLOv3的目標(biāo)檢測(cè)算法檢測(cè)出每幀圖像中的目標(biāo)信息,在此基礎(chǔ)上給出了基于最大目標(biāo)面積匹配算法實(shí)現(xiàn)...
【文章來(lái)源】:東南大學(xué)江蘇省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:71 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
傳統(tǒng)目標(biāo)檢測(cè)的過(guò)程
樣本學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力[24]。本章主要討論深度學(xué)習(xí)中一些較為基礎(chǔ)的理論知識(shí),以及幾類經(jīng)典的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法。2.2卷積神經(jīng)網(wǎng)絡(luò)各深度學(xué)習(xí)模型中,應(yīng)用最為廣泛的就是卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN),它的網(wǎng)絡(luò)結(jié)構(gòu)與哺乳動(dòng)物大腦中的神經(jīng)網(wǎng)絡(luò)很類似,它的特殊之處在于它的神經(jīng)元之間的連接是非全連接的,而且有些神經(jīng)元之間的連接的權(quán)值是共享的。這就大幅降低了網(wǎng)絡(luò)的復(fù)雜度,也縮減了模型中的參數(shù)數(shù)量,使得CNN在圖像識(shí)別領(lǐng)域取得了非常廣泛的應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu)如圖2-1所示,為輸入層--->卷積層--->激勵(lì)層--->池化層......--->全連接層--->輸出層,其中卷積層--->激勵(lì)層--->池化層這一操作可反復(fù)進(jìn)行[25]。在這一結(jié)構(gòu)中,輸入層負(fù)責(zé)對(duì)原始圖像做一些初始化的操作,之后通過(guò)卷積層、激勵(lì)層和池化層通常的交替進(jìn)行,提取到特征向量,最后通過(guò)全連接層,采用歸一化指數(shù)函數(shù)(Softmax函數(shù))回歸對(duì)輸入特征進(jìn)行分類。以下將對(duì)其中重要的幾層進(jìn)行詳細(xì)介紹[26]。圖2-1卷積神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu)(1)輸入層輸入層負(fù)責(zé)對(duì)輸入圖像進(jìn)行預(yù)處理操作,其中較為常見的有去均值處理和歸一化處理等。去均值:將輸入數(shù)據(jù)各個(gè)維度都中心化到0,即計(jì)算所有樣本的均值之后再減去這個(gè)均值。
東南大學(xué)碩士學(xué)位論文8歸一化:將幅度歸一化到同樣的范圍,比如0至1之間,目的是減少各維度數(shù)據(jù)取值范圍的差異帶來(lái)的干擾,加快網(wǎng)絡(luò)訓(xùn)練時(shí)的收斂。常見方式有線性函數(shù)轉(zhuǎn)換、反余切函數(shù)轉(zhuǎn)換和對(duì)數(shù)函數(shù)轉(zhuǎn)換。(2)卷積層卷積層中的操作會(huì)涉及到若干個(gè)濾波器,濾波器中的值均為參數(shù),需要后續(xù)進(jìn)行訓(xùn)練得到而非事先進(jìn)行設(shè)定,此處為了清楚地進(jìn)行介紹,直接以具體數(shù)值的濾波器進(jìn)行說(shuō)明。卷積層的工作原理如圖2-2所示,這里假設(shè)輸入圖像的大小為66,濾波器1的大小為33,首先將圖像左上角33大小的區(qū)域與濾波器分別對(duì)應(yīng)相乘后相加,得到的值即為輸出矩陣的第一個(gè)值,之后將濾波器的位置挪動(dòng)一定的距離,挪動(dòng)的距離叫作步長(zhǎng)(圖中設(shè)置為1),按照同樣的方式進(jìn)行計(jì)算,得到第二個(gè)值,以此類推,得到一個(gè)輸出的矩陣。在一個(gè)卷積層中不只有一個(gè)濾波器,假設(shè)該卷積層有N個(gè)濾波器,每個(gè)濾波器都按照上述的方式與輸入圖像進(jìn)行運(yùn)算,之后得到的N個(gè)矩陣合起來(lái)稱為特征圖(featuremap)。圖2-2卷積層工作原理示意圖(3)激勵(lì)層激勵(lì)層一般在卷積層之后,主要用于對(duì)卷積層的輸出進(jìn)行一個(gè)非線性映射。卷積神經(jīng)網(wǎng)絡(luò)中較常用的激勵(lì)函數(shù)是修正線性單元(RectifiedLinearUnit,ReLU),函數(shù)表達(dá)式如2-1式所示。xxf),0max()((2-1)ReLU函數(shù)圖像如圖2-3所示,它具有求梯度簡(jiǎn)單,收斂快的優(yōu)點(diǎn)。
【參考文獻(xiàn)】:
期刊論文
[1]關(guān)于深度學(xué)習(xí)的綜述與討論[J]. 胡越,羅東陽(yáng),花奎,路海明,張學(xué)工. 智能系統(tǒng)學(xué)報(bào). 2019(01)
[2]基于改進(jìn)YOLO算法的全景多目標(biāo)實(shí)時(shí)檢測(cè)[J]. 蔡成濤,吳科君,劉秋飛,程海濤,馬強(qiáng). 計(jì)算機(jī)工程與設(shè)計(jì). 2018(10)
[3]深度學(xué)習(xí)原理及應(yīng)用綜述[J]. 付文博,孫濤,梁藉,閆寶偉,范福新. 計(jì)算機(jī)科學(xué). 2018(S1)
[4]基于最小二乘法的誤差分析與誤差修正[J]. 陳林斌,孫賜恩. 中國(guó)新通信. 2018(07)
[5]基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法綜述[J]. 周曉彥,王珂,李凌燕. 電子測(cè)量技術(shù). 2017(11)
[6]基于Matlab的YUV視頻流色彩空間變換[J]. 郭睿,呂碩,臧淼. 現(xiàn)代信息科技. 2017(04)
[7]基于視覺(jué)的目標(biāo)檢測(cè)與跟蹤綜述[J]. 尹宏鵬,陳波,柴毅,劉兆棟. 自動(dòng)化學(xué)報(bào). 2016(10)
[8]深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)中的應(yīng)用研究綜述[J]. 盧宏濤,張秦川. 數(shù)據(jù)采集與處理. 2016(01)
[9]基于支持向量機(jī)的目標(biāo)檢測(cè)算法綜述[J]. 郭明瑋,趙宇宙,項(xiàng)俊平,張陳斌,陳宗海. 控制與決策. 2014(02)
碩士論文
[1]交通違法視頻檢測(cè)關(guān)鍵技術(shù)研究及系統(tǒng)實(shí)現(xiàn)[D]. 黃勇.東南大學(xué) 2018
[2]低照度圖像增強(qiáng)與去噪研究[D]. 余瑾.華中師范大學(xué) 2018
[3]基于空間金字塔池化的卷積神經(jīng)網(wǎng)絡(luò)圖像分類算法[D]. 侯明偉.武漢大學(xué) 2018
[4]基于深度學(xué)習(xí)的交通監(jiān)控圖像目標(biāo)檢測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D]. 陶靜.北京郵電大學(xué) 2018
[5]基于深度學(xué)習(xí)的目標(biāo)檢測(cè)研究[D]. 付若楠.北京交通大學(xué) 2017
[6]基于深度學(xué)習(xí)的圖像分類的研究[D]. 閆蕾芳.山東大學(xué) 2017
[7]基于深度學(xué)習(xí)的交通場(chǎng)景多目標(biāo)檢測(cè)[D]. 李珊珊.湖南大學(xué) 2017
[8]基于深度學(xué)習(xí)的車牌識(shí)別技術(shù)研究[D]. 趙振興.青島科技大學(xué) 2017
[9]多場(chǎng)景復(fù)雜環(huán)境智能交通視頻處理關(guān)鍵技術(shù)研究及實(shí)現(xiàn)[D]. 吳細(xì)老.東南大學(xué) 2017
[10]基于深度學(xué)習(xí)的快速目標(biāo)檢測(cè)技術(shù)研究[D]. 王震.天津理工大學(xué) 2017
本文編號(hào):3296270
【文章來(lái)源】:東南大學(xué)江蘇省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:71 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
傳統(tǒng)目標(biāo)檢測(cè)的過(guò)程
樣本學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力[24]。本章主要討論深度學(xué)習(xí)中一些較為基礎(chǔ)的理論知識(shí),以及幾類經(jīng)典的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法。2.2卷積神經(jīng)網(wǎng)絡(luò)各深度學(xué)習(xí)模型中,應(yīng)用最為廣泛的就是卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN),它的網(wǎng)絡(luò)結(jié)構(gòu)與哺乳動(dòng)物大腦中的神經(jīng)網(wǎng)絡(luò)很類似,它的特殊之處在于它的神經(jīng)元之間的連接是非全連接的,而且有些神經(jīng)元之間的連接的權(quán)值是共享的。這就大幅降低了網(wǎng)絡(luò)的復(fù)雜度,也縮減了模型中的參數(shù)數(shù)量,使得CNN在圖像識(shí)別領(lǐng)域取得了非常廣泛的應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu)如圖2-1所示,為輸入層--->卷積層--->激勵(lì)層--->池化層......--->全連接層--->輸出層,其中卷積層--->激勵(lì)層--->池化層這一操作可反復(fù)進(jìn)行[25]。在這一結(jié)構(gòu)中,輸入層負(fù)責(zé)對(duì)原始圖像做一些初始化的操作,之后通過(guò)卷積層、激勵(lì)層和池化層通常的交替進(jìn)行,提取到特征向量,最后通過(guò)全連接層,采用歸一化指數(shù)函數(shù)(Softmax函數(shù))回歸對(duì)輸入特征進(jìn)行分類。以下將對(duì)其中重要的幾層進(jìn)行詳細(xì)介紹[26]。圖2-1卷積神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu)(1)輸入層輸入層負(fù)責(zé)對(duì)輸入圖像進(jìn)行預(yù)處理操作,其中較為常見的有去均值處理和歸一化處理等。去均值:將輸入數(shù)據(jù)各個(gè)維度都中心化到0,即計(jì)算所有樣本的均值之后再減去這個(gè)均值。
東南大學(xué)碩士學(xué)位論文8歸一化:將幅度歸一化到同樣的范圍,比如0至1之間,目的是減少各維度數(shù)據(jù)取值范圍的差異帶來(lái)的干擾,加快網(wǎng)絡(luò)訓(xùn)練時(shí)的收斂。常見方式有線性函數(shù)轉(zhuǎn)換、反余切函數(shù)轉(zhuǎn)換和對(duì)數(shù)函數(shù)轉(zhuǎn)換。(2)卷積層卷積層中的操作會(huì)涉及到若干個(gè)濾波器,濾波器中的值均為參數(shù),需要后續(xù)進(jìn)行訓(xùn)練得到而非事先進(jìn)行設(shè)定,此處為了清楚地進(jìn)行介紹,直接以具體數(shù)值的濾波器進(jìn)行說(shuō)明。卷積層的工作原理如圖2-2所示,這里假設(shè)輸入圖像的大小為66,濾波器1的大小為33,首先將圖像左上角33大小的區(qū)域與濾波器分別對(duì)應(yīng)相乘后相加,得到的值即為輸出矩陣的第一個(gè)值,之后將濾波器的位置挪動(dòng)一定的距離,挪動(dòng)的距離叫作步長(zhǎng)(圖中設(shè)置為1),按照同樣的方式進(jìn)行計(jì)算,得到第二個(gè)值,以此類推,得到一個(gè)輸出的矩陣。在一個(gè)卷積層中不只有一個(gè)濾波器,假設(shè)該卷積層有N個(gè)濾波器,每個(gè)濾波器都按照上述的方式與輸入圖像進(jìn)行運(yùn)算,之后得到的N個(gè)矩陣合起來(lái)稱為特征圖(featuremap)。圖2-2卷積層工作原理示意圖(3)激勵(lì)層激勵(lì)層一般在卷積層之后,主要用于對(duì)卷積層的輸出進(jìn)行一個(gè)非線性映射。卷積神經(jīng)網(wǎng)絡(luò)中較常用的激勵(lì)函數(shù)是修正線性單元(RectifiedLinearUnit,ReLU),函數(shù)表達(dá)式如2-1式所示。xxf),0max()((2-1)ReLU函數(shù)圖像如圖2-3所示,它具有求梯度簡(jiǎn)單,收斂快的優(yōu)點(diǎn)。
【參考文獻(xiàn)】:
期刊論文
[1]關(guān)于深度學(xué)習(xí)的綜述與討論[J]. 胡越,羅東陽(yáng),花奎,路海明,張學(xué)工. 智能系統(tǒng)學(xué)報(bào). 2019(01)
[2]基于改進(jìn)YOLO算法的全景多目標(biāo)實(shí)時(shí)檢測(cè)[J]. 蔡成濤,吳科君,劉秋飛,程海濤,馬強(qiáng). 計(jì)算機(jī)工程與設(shè)計(jì). 2018(10)
[3]深度學(xué)習(xí)原理及應(yīng)用綜述[J]. 付文博,孫濤,梁藉,閆寶偉,范福新. 計(jì)算機(jī)科學(xué). 2018(S1)
[4]基于最小二乘法的誤差分析與誤差修正[J]. 陳林斌,孫賜恩. 中國(guó)新通信. 2018(07)
[5]基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法綜述[J]. 周曉彥,王珂,李凌燕. 電子測(cè)量技術(shù). 2017(11)
[6]基于Matlab的YUV視頻流色彩空間變換[J]. 郭睿,呂碩,臧淼. 現(xiàn)代信息科技. 2017(04)
[7]基于視覺(jué)的目標(biāo)檢測(cè)與跟蹤綜述[J]. 尹宏鵬,陳波,柴毅,劉兆棟. 自動(dòng)化學(xué)報(bào). 2016(10)
[8]深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)中的應(yīng)用研究綜述[J]. 盧宏濤,張秦川. 數(shù)據(jù)采集與處理. 2016(01)
[9]基于支持向量機(jī)的目標(biāo)檢測(cè)算法綜述[J]. 郭明瑋,趙宇宙,項(xiàng)俊平,張陳斌,陳宗海. 控制與決策. 2014(02)
碩士論文
[1]交通違法視頻檢測(cè)關(guān)鍵技術(shù)研究及系統(tǒng)實(shí)現(xiàn)[D]. 黃勇.東南大學(xué) 2018
[2]低照度圖像增強(qiáng)與去噪研究[D]. 余瑾.華中師范大學(xué) 2018
[3]基于空間金字塔池化的卷積神經(jīng)網(wǎng)絡(luò)圖像分類算法[D]. 侯明偉.武漢大學(xué) 2018
[4]基于深度學(xué)習(xí)的交通監(jiān)控圖像目標(biāo)檢測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D]. 陶靜.北京郵電大學(xué) 2018
[5]基于深度學(xué)習(xí)的目標(biāo)檢測(cè)研究[D]. 付若楠.北京交通大學(xué) 2017
[6]基于深度學(xué)習(xí)的圖像分類的研究[D]. 閆蕾芳.山東大學(xué) 2017
[7]基于深度學(xué)習(xí)的交通場(chǎng)景多目標(biāo)檢測(cè)[D]. 李珊珊.湖南大學(xué) 2017
[8]基于深度學(xué)習(xí)的車牌識(shí)別技術(shù)研究[D]. 趙振興.青島科技大學(xué) 2017
[9]多場(chǎng)景復(fù)雜環(huán)境智能交通視頻處理關(guān)鍵技術(shù)研究及實(shí)現(xiàn)[D]. 吳細(xì)老.東南大學(xué) 2017
[10]基于深度學(xué)習(xí)的快速目標(biāo)檢測(cè)技術(shù)研究[D]. 王震.天津理工大學(xué) 2017
本文編號(hào):3296270
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/3296270.html
最近更新
教材專著