基于深度學(xué)習(xí)的復(fù)雜場(chǎng)景車牌識(shí)別研究
發(fā)布時(shí)間:2021-04-17 01:10
車牌識(shí)別技術(shù)在實(shí)際生活中的重要性不言而喻,傳統(tǒng)的機(jī)動(dòng)車牌照識(shí)別算法基于對(duì)車牌位置進(jìn)行定位、車牌字符進(jìn)行分割、字符識(shí)別三步,對(duì)于特定場(chǎng)景可以實(shí)現(xiàn)有效應(yīng)用,但面對(duì)復(fù)雜場(chǎng)景的車牌圖像難以表現(xiàn)出可靠性能。近年來,深度學(xué)習(xí)伴隨著顯卡性能的大幅提升實(shí)現(xiàn)復(fù)興,基于神經(jīng)網(wǎng)絡(luò)的車牌識(shí)別算法成為學(xué)術(shù)界的主要研究方向。本文利用深度學(xué)習(xí)中的Faster R-CNN和LSTM等模型實(shí)現(xiàn)了有效的車牌識(shí)別系統(tǒng)。該系統(tǒng)分為兩個(gè)級(jí)聯(lián)的部分,第一部分是車牌檢測(cè)系統(tǒng),主要功能是完成對(duì)圖像中的車牌進(jìn)行定位;第二部分是字符識(shí)別系統(tǒng),根據(jù)第一部分裁剪出的車牌區(qū)域?qū)ζ渲形淖诌M(jìn)行識(shí)別輸出。在車牌檢測(cè)算法中,RPN網(wǎng)絡(luò)的引入大幅提高了模型的定位準(zhǔn)確率,在字符識(shí)別算法中,LSTM網(wǎng)絡(luò)使字符識(shí)別問題轉(zhuǎn)化為序列標(biāo)注問題,更好地實(shí)現(xiàn)了識(shí)別效果。相比于傳統(tǒng)的車牌識(shí)別方法,本文設(shè)計(jì)的算法充分發(fā)揮了深度神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì),其應(yīng)用場(chǎng)景不限于現(xiàn)有大部分類似系統(tǒng)所要求的固定場(chǎng)合,如車庫(kù)或停車場(chǎng)入口等,而是可以擴(kuò)展到各類復(fù)雜場(chǎng)景,面對(duì)較不理想的拍攝條件,如圖像模糊、光照不足等,均表現(xiàn)出了較高的魯棒性和準(zhǔn)確性。最后,本文還對(duì)CCPD數(shù)據(jù)集進(jìn)行了大量的整理、篩選和...
【文章來源】:中國(guó)地質(zhì)大學(xué)(北京)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:76 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
中國(guó)車牌樣例[15]
車牌識(shí)別相關(guān)算法8圖2-2.文獻(xiàn)[14]算法流程圖表2-1列舉了包含傳統(tǒng)車牌檢測(cè)和使用神經(jīng)網(wǎng)絡(luò)的車牌檢測(cè)在內(nèi)的算法召回率和準(zhǔn)確率。表2-1算法召回率準(zhǔn)確率CMSER&Sobel79.43%42.31%Color&Sobel77.01%41.60%CMSER&Color82.05%69.34%FasterR-CNN+ZF92.72%89.17%FasterR-CNN+YGG_CNN_M_102491.87%86.98%FasterR-CNN+VGG1692.32%89.01%Ref81.23%79.89%YOLO-finetunning88.30%85.04%SSD-finetunning83.73%81.36%文獻(xiàn)[14]99.10%98.68%文獻(xiàn)[23]采用了主成分分析網(wǎng)絡(luò)(PCANet)作為車牌檢測(cè)的主要算法。PCANet可以理解為一種精簡(jiǎn)版的CNN,將哈希算法應(yīng)用在非線性層,使用逐塊直方圖實(shí)現(xiàn)特征生成層。與典型的卷積神經(jīng)網(wǎng)絡(luò)相比,此網(wǎng)絡(luò)的優(yōu)勢(shì)在于其參數(shù)調(diào)整相對(duì)容易,且訓(xùn)練效率高、識(shí)別效果好。[23]提出的方法首先通過PCA網(wǎng)絡(luò)進(jìn)行特征提取,再利用提取到的特征和SVM算法對(duì)車牌區(qū)域進(jìn)行識(shí)別,其整體流程框
中國(guó)地質(zhì)大學(xué)(北京)碩士學(xué)位論文133.神經(jīng)網(wǎng)絡(luò)原理3.1神經(jīng)網(wǎng)絡(luò)基礎(chǔ)神經(jīng)網(wǎng)絡(luò)主要包含以下四個(gè)方面:一,層。所謂網(wǎng)絡(luò)(或稱模型)就是由多個(gè)層堆疊而成;二,輸入數(shù)據(jù)和相應(yīng)的目標(biāo);三,損失函數(shù),即用于學(xué)習(xí)的反饋信號(hào);四,優(yōu)化器,根據(jù)損失函數(shù)對(duì)權(quán)重進(jìn)行調(diào)整,從而控制著學(xué)習(xí)進(jìn)程。網(wǎng)絡(luò)由多個(gè)級(jí)聯(lián)的層組成,通過逐層提取特征,將輸入數(shù)據(jù)映射為預(yù)測(cè)值。損失函數(shù)的作用是,將這些預(yù)測(cè)值與目標(biāo)函數(shù)進(jìn)行比較,進(jìn)而得到損失值。而損失值是判斷預(yù)測(cè)值與目標(biāo)結(jié)果之間匹配程度的關(guān)鍵。優(yōu)化器利用這個(gè)損失值對(duì)網(wǎng)絡(luò)的權(quán)重進(jìn)行更新[24]。這些要素的關(guān)系如圖3-1所示:圖3-1.網(wǎng)絡(luò)、層、損失函數(shù)和優(yōu)化器之間的關(guān)系
本文編號(hào):3142519
【文章來源】:中國(guó)地質(zhì)大學(xué)(北京)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:76 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
中國(guó)車牌樣例[15]
車牌識(shí)別相關(guān)算法8圖2-2.文獻(xiàn)[14]算法流程圖表2-1列舉了包含傳統(tǒng)車牌檢測(cè)和使用神經(jīng)網(wǎng)絡(luò)的車牌檢測(cè)在內(nèi)的算法召回率和準(zhǔn)確率。表2-1算法召回率準(zhǔn)確率CMSER&Sobel79.43%42.31%Color&Sobel77.01%41.60%CMSER&Color82.05%69.34%FasterR-CNN+ZF92.72%89.17%FasterR-CNN+YGG_CNN_M_102491.87%86.98%FasterR-CNN+VGG1692.32%89.01%Ref81.23%79.89%YOLO-finetunning88.30%85.04%SSD-finetunning83.73%81.36%文獻(xiàn)[14]99.10%98.68%文獻(xiàn)[23]采用了主成分分析網(wǎng)絡(luò)(PCANet)作為車牌檢測(cè)的主要算法。PCANet可以理解為一種精簡(jiǎn)版的CNN,將哈希算法應(yīng)用在非線性層,使用逐塊直方圖實(shí)現(xiàn)特征生成層。與典型的卷積神經(jīng)網(wǎng)絡(luò)相比,此網(wǎng)絡(luò)的優(yōu)勢(shì)在于其參數(shù)調(diào)整相對(duì)容易,且訓(xùn)練效率高、識(shí)別效果好。[23]提出的方法首先通過PCA網(wǎng)絡(luò)進(jìn)行特征提取,再利用提取到的特征和SVM算法對(duì)車牌區(qū)域進(jìn)行識(shí)別,其整體流程框
中國(guó)地質(zhì)大學(xué)(北京)碩士學(xué)位論文133.神經(jīng)網(wǎng)絡(luò)原理3.1神經(jīng)網(wǎng)絡(luò)基礎(chǔ)神經(jīng)網(wǎng)絡(luò)主要包含以下四個(gè)方面:一,層。所謂網(wǎng)絡(luò)(或稱模型)就是由多個(gè)層堆疊而成;二,輸入數(shù)據(jù)和相應(yīng)的目標(biāo);三,損失函數(shù),即用于學(xué)習(xí)的反饋信號(hào);四,優(yōu)化器,根據(jù)損失函數(shù)對(duì)權(quán)重進(jìn)行調(diào)整,從而控制著學(xué)習(xí)進(jìn)程。網(wǎng)絡(luò)由多個(gè)級(jí)聯(lián)的層組成,通過逐層提取特征,將輸入數(shù)據(jù)映射為預(yù)測(cè)值。損失函數(shù)的作用是,將這些預(yù)測(cè)值與目標(biāo)函數(shù)進(jìn)行比較,進(jìn)而得到損失值。而損失值是判斷預(yù)測(cè)值與目標(biāo)結(jié)果之間匹配程度的關(guān)鍵。優(yōu)化器利用這個(gè)損失值對(duì)網(wǎng)絡(luò)的權(quán)重進(jìn)行更新[24]。這些要素的關(guān)系如圖3-1所示:圖3-1.網(wǎng)絡(luò)、層、損失函數(shù)和優(yōu)化器之間的關(guān)系
本文編號(hào):3142519
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3142519.html
最近更新
教材專著