基于深度學(xué)習(xí)的車(chē)牌識(shí)別技術(shù)的研究與實(shí)現(xiàn)
發(fā)布時(shí)間:2022-02-15 04:15
隨著現(xiàn)代社會(huì)的發(fā)展,機(jī)動(dòng)車(chē)輛日益增多,這為智能化的交通管理提出了更高的要求。車(chē)輛的車(chē)牌信息是車(chē)輛的主要特征,因此車(chē)牌識(shí)別算法在智能化的交通管理系統(tǒng)中有著舉足輕重的地位。車(chē)牌識(shí)別算法廣泛應(yīng)用于出入口控制、收費(fèi)站等場(chǎng)景,此外,在無(wú)人機(jī)和手機(jī)拍攝等圖像識(shí)別中也有相關(guān)的應(yīng)用。傳統(tǒng)的方法識(shí)別車(chē)牌需要多種方法綜合,實(shí)現(xiàn)步驟復(fù)雜,而且在識(shí)別率和魯棒性上與深度學(xué)習(xí)方法相比有一定的差距。國(guó)內(nèi)車(chē)牌形式多樣,顏色繁雜,尺寸不完全統(tǒng)一,如今還出現(xiàn)了8個(gè)字符的車(chē)牌。傳統(tǒng)方法在光照變化、圖像模糊、車(chē)牌破損、車(chē)牌尺寸變化等情況下難以準(zhǔn)確的識(shí)別車(chē)牌。本文主要針對(duì)傳統(tǒng)方法在車(chē)牌識(shí)別上缺乏魯棒性,而提出了基于深度學(xué)習(xí)的車(chē)牌識(shí)別方法,并將其應(yīng)用到校園出入口場(chǎng)景下實(shí)現(xiàn)較魯棒,較準(zhǔn)確的車(chē)牌識(shí)別。本文的主要研究工作和貢獻(xiàn)如下:(1)研究了深度學(xué)習(xí)中的目標(biāo)檢測(cè)算法,通過(guò)改進(jìn)將其應(yīng)用到車(chē)牌定位上。本文主要實(shí)現(xiàn)了改進(jìn)的多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)(Multi-task Convolutional Neural Networks,MTCNN)算法,改進(jìn)的You Only Look Once(YOLO)算法,并提出了基于RetinaNet的改進(jìn)算法...
【文章來(lái)源】:廣西師范大學(xué)廣西壯族自治區(qū)
【文章頁(yè)數(shù)】:99 頁(yè)
【學(xué)位級(jí)別】:碩士
【圖文】:
車(chē)牌識(shí)別系統(tǒng)算法流程
率基本上達(dá)到極限,總錯(cuò)誤率僅為5%。2.2卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)不管是在目標(biāo)檢測(cè)還是在圖像分類(lèi)等任務(wù)中通常都會(huì)包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋型神經(jīng)網(wǎng)絡(luò),該卷積網(wǎng)絡(luò)模型通常包括卷積層、池化層、激活函數(shù)層、全連接層等不同的層,這些層有著不同的作用。下面本文將重點(diǎn)說(shuō)明卷積神經(jīng)網(wǎng)絡(luò)中的各種層。2.2.1卷積層卷積在信號(hào)與系統(tǒng)中是一種運(yùn)算,在深度學(xué)習(xí)中使用的卷積運(yùn)算通常是離散的。卷積神經(jīng)網(wǎng)絡(luò)最基本組成部分是卷積層,其實(shí)質(zhì)是通過(guò)卷積核的參數(shù)提取數(shù)據(jù)中的特征,通過(guò)矩陣的點(diǎn)積運(yùn)算和求和運(yùn)算獲得運(yùn)算結(jié)果。如下圖2-1所示為一個(gè)基本的二維卷積運(yùn)算過(guò)程。公式為y=wx+b。這里本文使用的特征圖(x)其大小為1×5×5,前面的1代表特征圖的通道數(shù)為1,后面的5×5為特征圖的尺寸,使用的卷積核為3×3,卷積核在特征圖上滑動(dòng)步長(zhǎng)(stride)為1,偏置(b)為1,為了得到輸入和輸出特征維度一致,需要對(duì)特征圖進(jìn)行填充(padding),這里使用zeropadding,即采用0來(lái)填充,從圖2-1中的特征圖上,我們可以看出在原特征圖邊緣填充了一圈0。卷積核特征圖卷積結(jié)果圖2-1卷積計(jì)算基本過(guò)程卷積核參數(shù)在特征圖的對(duì)應(yīng)位置逐個(gè)元素相乘,然后再將其計(jì)算結(jié)果累加。以上圖2-1為例,其計(jì)算為1×0+0×0+1×0+0×0+1×1+0×8+1×0+0×6+1×7+1×1=9,然后在特征圖上滑動(dòng),即可得到所有計(jì)算結(jié)果。卷積計(jì)算過(guò)程中,特征圖的維度通常都不會(huì)為1,如果輸入特征圖維度為m×win×hin,輸出特征圖維度為n×wout×hout,則當(dāng)卷積核為n×m×k×k時(shí),其進(jìn)行的乘法運(yùn)算的操作次數(shù)為n×wout×hout×m×k×k。2.2.2激活函數(shù)層神經(jīng)網(wǎng)絡(luò)如果只是單純的由線性卷積運(yùn)算堆疊而成,則無(wú)法形成復(fù)雜的表達(dá)空間,也很難提取出高層語(yǔ)義信息,因此需要加入非線性映射,也?
第2章深度學(xué)習(xí)理論基礎(chǔ)12常使用的激活函數(shù)主要是Sigmoid、ReLU以及Softmax函數(shù)等。1.Sigmoid函數(shù)Sigmoid函數(shù),或者稱(chēng)作Logistic函數(shù),它具有生物神經(jīng)元的特性,即當(dāng)輸入到神經(jīng)元的值大于某個(gè)閾值時(shí),輸入神經(jīng)元的值經(jīng)過(guò)非線性變換后能夠得到某一個(gè)大于0的值而處于激活的狀態(tài),否則其經(jīng)過(guò)非線性變換后值為0或者非常小而處于抑制的狀態(tài),其函數(shù)表達(dá)式如下2-1所示。()=11+exp()(2-1)Sigmoid函數(shù)曲線如下圖2-2中紅色曲線所示,可以看到該函數(shù)將特征壓縮到了(0,1)區(qū)間,0對(duì)應(yīng)抑制狀態(tài),1對(duì)應(yīng)激活狀態(tài),中間部分梯度很大。Sigmoid可以用于二分類(lèi),但計(jì)算量大,根據(jù)下圖中Sigmoid函數(shù)的導(dǎo)函數(shù)曲線的兩側(cè)導(dǎo)數(shù)為0,在其函數(shù)兩側(cè)附近容易出現(xiàn)梯度消失問(wèn)題。圖2-2Sigmoid函數(shù)和其梯度曲線2.ReLU函數(shù)將整流線性單元(RectifiedLinearUnit,ReLU)引入神經(jīng)網(wǎng)絡(luò)以緩解梯度消失問(wèn)題。由于其優(yōu)越的性能和優(yōu)雅簡(jiǎn)潔的實(shí)現(xiàn),在卷積神經(jīng)網(wǎng)絡(luò)中使用比較多的激活函數(shù)之一就是ReLU激活函數(shù),其函數(shù)的表達(dá)式如下2-2所示。()=max(0,)={0,<0,≥0(2-2)下圖2-3為ReLU函數(shù)及其梯度曲線?梢钥闯,在小于0部分,其值和梯度均為0,而在大于0的部分導(dǎo)數(shù)恒為1,從而避免了Sigmoid函數(shù)中梯度接近0的情況而導(dǎo)致的梯度消失的問(wèn)題。
【參考文獻(xiàn)】:
期刊論文
[1]多尺度并行融合的輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)[J]. 范瑞,蔣品群,曾上游,夏海英,廖志賢,李鵬. 廣西師范大學(xué)學(xué)報(bào)(自然科學(xué)版). 2019(03)
[2]基于深度學(xué)習(xí)的車(chē)牌定位和識(shí)別方法[J]. 李祥鵬,閔衛(wèi)東,韓清,劉瑞康. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2019(06)
[3]車(chē)牌定位方法綜述[J]. 羅山,李玉蓮. 山西電子技術(shù). 2019(01)
[4]目標(biāo)檢測(cè)算法研究綜述[J]. 方路平,何杭江,周?chē)?guó)民. 計(jì)算機(jī)工程與應(yīng)用. 2018(13)
[5]基于自適應(yīng)數(shù)學(xué)形態(tài)學(xué)的車(chē)牌定位研究[J]. 王曉群,劉宏志. 圖學(xué)學(xué)報(bào). 2017(06)
[6]基于卷積神經(jīng)網(wǎng)絡(luò)的車(chē)牌字符識(shí)別[J]. 董峻妃,鄭伯川,楊澤靜. 計(jì)算機(jī)應(yīng)用. 2017(07)
[7]基于字符邊緣點(diǎn)提取的車(chē)牌定位方法[J]. 鐘偉釗,杜志發(fā),徐小紅,黃曉然,朱同林. 計(jì)算機(jī)工程與設(shè)計(jì). 2017(03)
[8]基于局部二值模式與多層感知器的中文車(chē)牌字符識(shí)別高效算法[J]. 王玨,李洪研. 計(jì)算機(jī)應(yīng)用. 2015(S1)
[9]基于聚類(lèi)分析的個(gè)性化美國(guó)車(chē)牌分割算法[J]. 李旭,徐舒暢,尤玉才,張三元. 浙江大學(xué)學(xué)報(bào)(工學(xué)版). 2012(12)
[10]基于卷積神經(jīng)網(wǎng)絡(luò)LeNet-5的車(chē)牌字符識(shí)別研究[J]. 趙志宏,楊紹普,馬增強(qiáng). 系統(tǒng)仿真學(xué)報(bào). 2010(03)
碩士論文
[1]基于深度學(xué)習(xí)的車(chē)牌識(shí)別系統(tǒng)研究[D]. 張佑賢.廣西師范大學(xué) 2019
[2]基于卡口的車(chē)牌識(shí)別系統(tǒng)的優(yōu)化研究[D]. 陳盛.廣西師范大學(xué) 2018
[3]基于深度學(xué)習(xí)的交通對(duì)象檢測(cè)與識(shí)別[D]. 王賀璋.北京郵電大學(xué) 2018
[4]車(chē)牌及車(chē)標(biāo)識(shí)別技術(shù)的研究[D]. 蒙佳.廣西師范大學(xué) 2017
本文編號(hào):3625895
【文章來(lái)源】:廣西師范大學(xué)廣西壯族自治區(qū)
【文章頁(yè)數(shù)】:99 頁(yè)
【學(xué)位級(jí)別】:碩士
【圖文】:
車(chē)牌識(shí)別系統(tǒng)算法流程
率基本上達(dá)到極限,總錯(cuò)誤率僅為5%。2.2卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)不管是在目標(biāo)檢測(cè)還是在圖像分類(lèi)等任務(wù)中通常都會(huì)包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋型神經(jīng)網(wǎng)絡(luò),該卷積網(wǎng)絡(luò)模型通常包括卷積層、池化層、激活函數(shù)層、全連接層等不同的層,這些層有著不同的作用。下面本文將重點(diǎn)說(shuō)明卷積神經(jīng)網(wǎng)絡(luò)中的各種層。2.2.1卷積層卷積在信號(hào)與系統(tǒng)中是一種運(yùn)算,在深度學(xué)習(xí)中使用的卷積運(yùn)算通常是離散的。卷積神經(jīng)網(wǎng)絡(luò)最基本組成部分是卷積層,其實(shí)質(zhì)是通過(guò)卷積核的參數(shù)提取數(shù)據(jù)中的特征,通過(guò)矩陣的點(diǎn)積運(yùn)算和求和運(yùn)算獲得運(yùn)算結(jié)果。如下圖2-1所示為一個(gè)基本的二維卷積運(yùn)算過(guò)程。公式為y=wx+b。這里本文使用的特征圖(x)其大小為1×5×5,前面的1代表特征圖的通道數(shù)為1,后面的5×5為特征圖的尺寸,使用的卷積核為3×3,卷積核在特征圖上滑動(dòng)步長(zhǎng)(stride)為1,偏置(b)為1,為了得到輸入和輸出特征維度一致,需要對(duì)特征圖進(jìn)行填充(padding),這里使用zeropadding,即采用0來(lái)填充,從圖2-1中的特征圖上,我們可以看出在原特征圖邊緣填充了一圈0。卷積核特征圖卷積結(jié)果圖2-1卷積計(jì)算基本過(guò)程卷積核參數(shù)在特征圖的對(duì)應(yīng)位置逐個(gè)元素相乘,然后再將其計(jì)算結(jié)果累加。以上圖2-1為例,其計(jì)算為1×0+0×0+1×0+0×0+1×1+0×8+1×0+0×6+1×7+1×1=9,然后在特征圖上滑動(dòng),即可得到所有計(jì)算結(jié)果。卷積計(jì)算過(guò)程中,特征圖的維度通常都不會(huì)為1,如果輸入特征圖維度為m×win×hin,輸出特征圖維度為n×wout×hout,則當(dāng)卷積核為n×m×k×k時(shí),其進(jìn)行的乘法運(yùn)算的操作次數(shù)為n×wout×hout×m×k×k。2.2.2激活函數(shù)層神經(jīng)網(wǎng)絡(luò)如果只是單純的由線性卷積運(yùn)算堆疊而成,則無(wú)法形成復(fù)雜的表達(dá)空間,也很難提取出高層語(yǔ)義信息,因此需要加入非線性映射,也?
第2章深度學(xué)習(xí)理論基礎(chǔ)12常使用的激活函數(shù)主要是Sigmoid、ReLU以及Softmax函數(shù)等。1.Sigmoid函數(shù)Sigmoid函數(shù),或者稱(chēng)作Logistic函數(shù),它具有生物神經(jīng)元的特性,即當(dāng)輸入到神經(jīng)元的值大于某個(gè)閾值時(shí),輸入神經(jīng)元的值經(jīng)過(guò)非線性變換后能夠得到某一個(gè)大于0的值而處于激活的狀態(tài),否則其經(jīng)過(guò)非線性變換后值為0或者非常小而處于抑制的狀態(tài),其函數(shù)表達(dá)式如下2-1所示。()=11+exp()(2-1)Sigmoid函數(shù)曲線如下圖2-2中紅色曲線所示,可以看到該函數(shù)將特征壓縮到了(0,1)區(qū)間,0對(duì)應(yīng)抑制狀態(tài),1對(duì)應(yīng)激活狀態(tài),中間部分梯度很大。Sigmoid可以用于二分類(lèi),但計(jì)算量大,根據(jù)下圖中Sigmoid函數(shù)的導(dǎo)函數(shù)曲線的兩側(cè)導(dǎo)數(shù)為0,在其函數(shù)兩側(cè)附近容易出現(xiàn)梯度消失問(wèn)題。圖2-2Sigmoid函數(shù)和其梯度曲線2.ReLU函數(shù)將整流線性單元(RectifiedLinearUnit,ReLU)引入神經(jīng)網(wǎng)絡(luò)以緩解梯度消失問(wèn)題。由于其優(yōu)越的性能和優(yōu)雅簡(jiǎn)潔的實(shí)現(xiàn),在卷積神經(jīng)網(wǎng)絡(luò)中使用比較多的激活函數(shù)之一就是ReLU激活函數(shù),其函數(shù)的表達(dá)式如下2-2所示。()=max(0,)={0,<0,≥0(2-2)下圖2-3為ReLU函數(shù)及其梯度曲線?梢钥闯,在小于0部分,其值和梯度均為0,而在大于0的部分導(dǎo)數(shù)恒為1,從而避免了Sigmoid函數(shù)中梯度接近0的情況而導(dǎo)致的梯度消失的問(wèn)題。
【參考文獻(xiàn)】:
期刊論文
[1]多尺度并行融合的輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)[J]. 范瑞,蔣品群,曾上游,夏海英,廖志賢,李鵬. 廣西師范大學(xué)學(xué)報(bào)(自然科學(xué)版). 2019(03)
[2]基于深度學(xué)習(xí)的車(chē)牌定位和識(shí)別方法[J]. 李祥鵬,閔衛(wèi)東,韓清,劉瑞康. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2019(06)
[3]車(chē)牌定位方法綜述[J]. 羅山,李玉蓮. 山西電子技術(shù). 2019(01)
[4]目標(biāo)檢測(cè)算法研究綜述[J]. 方路平,何杭江,周?chē)?guó)民. 計(jì)算機(jī)工程與應(yīng)用. 2018(13)
[5]基于自適應(yīng)數(shù)學(xué)形態(tài)學(xué)的車(chē)牌定位研究[J]. 王曉群,劉宏志. 圖學(xué)學(xué)報(bào). 2017(06)
[6]基于卷積神經(jīng)網(wǎng)絡(luò)的車(chē)牌字符識(shí)別[J]. 董峻妃,鄭伯川,楊澤靜. 計(jì)算機(jī)應(yīng)用. 2017(07)
[7]基于字符邊緣點(diǎn)提取的車(chē)牌定位方法[J]. 鐘偉釗,杜志發(fā),徐小紅,黃曉然,朱同林. 計(jì)算機(jī)工程與設(shè)計(jì). 2017(03)
[8]基于局部二值模式與多層感知器的中文車(chē)牌字符識(shí)別高效算法[J]. 王玨,李洪研. 計(jì)算機(jī)應(yīng)用. 2015(S1)
[9]基于聚類(lèi)分析的個(gè)性化美國(guó)車(chē)牌分割算法[J]. 李旭,徐舒暢,尤玉才,張三元. 浙江大學(xué)學(xué)報(bào)(工學(xué)版). 2012(12)
[10]基于卷積神經(jīng)網(wǎng)絡(luò)LeNet-5的車(chē)牌字符識(shí)別研究[J]. 趙志宏,楊紹普,馬增強(qiáng). 系統(tǒng)仿真學(xué)報(bào). 2010(03)
碩士論文
[1]基于深度學(xué)習(xí)的車(chē)牌識(shí)別系統(tǒng)研究[D]. 張佑賢.廣西師范大學(xué) 2019
[2]基于卡口的車(chē)牌識(shí)別系統(tǒng)的優(yōu)化研究[D]. 陳盛.廣西師范大學(xué) 2018
[3]基于深度學(xué)習(xí)的交通對(duì)象檢測(cè)與識(shí)別[D]. 王賀璋.北京郵電大學(xué) 2018
[4]車(chē)牌及車(chē)標(biāo)識(shí)別技術(shù)的研究[D]. 蒙佳.廣西師范大學(xué) 2017
本文編號(hào):3625895
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3625895.html
最近更新
教材專(zhuān)著