天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于特征融合的端到端車牌檢測和識別算法研究

發(fā)布時間:2020-11-17 22:27
   隨著大數(shù)據、深度學習、物聯(lián)網和5G通信技術的飛速發(fā)展,以及中國城鎮(zhèn)化速度的加快,建設智慧城市已經成為一種趨勢。智能交通在智慧城市中扮演著非常重要的角色,其不僅僅能緩解城市交通擁堵問題,還能夠提高交通道路的使用效率、節(jié)約石油資源和改善生態(tài)環(huán)境等。另外,交通智能監(jiān)控系統(tǒng)也具有保護城市的作用,該系統(tǒng)能夠幫助公安機關快速跟蹤可疑車輛和犯罪嫌疑人,從而讓我們所生活的城市變得更加安全。由于車牌號碼相當于一輛汽車的“身份證號碼”,因此車牌檢測和識別算法技術在智能交通系統(tǒng)建設中起著十分重要的作用。傳統(tǒng)的車牌檢測和識別算法通常在一些簡單的場景下能取得良好的識別效果,但是在光照不足、傾斜、模糊和惡劣天氣等復雜的場景下,這些傳統(tǒng)的方法就不能夠準確識別出車牌號碼。許多研究者通常把車牌檢測和識別過程分成車牌檢測和車牌識別兩個步驟,或者分為車牌檢測、車牌字符分割和車牌字符識別三個步驟。車牌字符識別與前面的車牌檢測和車牌字符分割兩個步驟是高度相關的,當車牌檢測算法預測出錯誤的車牌邊界框時,就會影響后面車牌字符的識別,或者導致后面車牌字符分割錯誤,最終導致車牌字符識別算法預測出錯誤的車牌號碼。為了解決車牌檢測和識別算法存在的問題,本文將基于深度學習的目標檢測算法應用到車牌檢測和識別方法當中,設計了一種基于特征融合的端到端車牌檢測和識別網絡模型。該網絡模型結構是由車牌特征提取網絡、特征融合網絡、多尺度特征網絡、位置檢測器和字符識別器五個部分組成的。在該網絡模型中,把不同尺寸的特征圖進行融合,目的是用來保存淺層特征圖上的車牌位置語義信息,這樣做的目的是為了進一步提高車牌位置和字符的識別準確率。與分成多個步驟的車牌檢測和識別算法相比,該網絡模型能夠進行端到端的訓練。當輸入測試圖片時,能夠同時輸出車牌的邊界框和號碼,從而避免了分段車牌識別算法所產生的中間誤差積累和放大問題。由于該網絡模型通過共享基礎特征提取網絡,減少了網絡計算參數(shù),從而顯著提高了車牌檢測和識別的速度。本文制作了一個車牌數(shù)據集用于該網絡模型的訓練和測試,其中車牌圖片都是在復雜場景下收集的。通過與其他算法進行實驗對比,證明了該網絡模型能夠有效提高車牌位置和字符的識別準確率。
【學位單位】:江西財經大學
【學位級別】:碩士
【學位年份】:2020
【中圖分類】:U495;TP18;TP391.41
【部分圖文】:

框架圖,目標檢測,算法,框架


第2章目標檢測和車牌識別相關算法理論研究11圖2-2常見一端目標檢測算法框架2.1.1FasterR-CNN目標算法分析在2015年,RossGirshick等人提出了一種先進的目標檢測算法FasterR-CNN,F(xiàn)asterR-CNN是在FastR-CNN算法基礎上改進而來的。FasterR-CNN主要的創(chuàng)新點是解決了FastR-CNN需要先使用選擇性搜索算法SS(SelectiveSearch,SS)[25]提取候選框而造成目標檢測速度非常慢的問題,F(xiàn)asterR-CNN設計了一種候選區(qū)域生成網絡(RegionProposalNetwork,RPN)用來取代SS算法,同時讓RPN網絡和FastR-CNN網絡共同使用基礎特征提取網絡輸出的特征圖。這種網絡設計方法把基礎特征提娶候選框生成、目標對象分類和定位都集成到統(tǒng)一的深度神經網絡模型中,使網絡模型沒有重復計算,完全在GPU中完成,不僅速度得到了較大的提高,而且還取得了更加準確的檢測結果。FasterR-CNN

網絡結構圖,卷積,神經網絡,目標對象


基于特征融合的端到端車牌檢測和識別算法研究12檢測的準確度和速度相比于FastR-CNN算法有了較大的提高,例如,基于ZF網絡[36]的FasterR-CNN檢測目標對象的速度為17FPS,在PASCALVOC[37]數(shù)據集上的準確率為59.9%;基于VGG網絡的FasterR-CNN檢測目標對象的速度為5FPS,在PASCALVOC數(shù)據集上的準確率為78.8%。FasterR-CNN算法的網絡結構圖如圖2-3所示。圖2-3FasterR-CNN網絡結構圖從圖2-3中可以觀察到,F(xiàn)asterR-CNN算法的深度卷積網絡結構圖主要分為三大模塊,分別是基礎特征提取網絡、候選區(qū)域生成網絡和目標分類回歸網絡。下面將對這三大模塊分別進行介紹;A特征提取網絡的目的是提取訓練數(shù)據中的基礎特征,用于后面的目標分類和定位;A特征提取網絡使用一個卷積神經網絡得到特征圖,然后將特征圖分別輸入到后面的RPN網絡和ROIPooling網絡中。其中卷積神經網絡不一定非要使用VGG和ZF網絡,也可以使用LeNet、AlexNet、GooleNet、ResNet等經典卷積神經網絡,因此可以根據自己的實際需求選擇合適的卷積神經網絡。幾種常見的經典卷積神經網絡結構圖如圖2-4所示。

結構圖,卷積,經典,神經網絡


第2章目標檢測和車牌識別相關算法理論研究13圖2-4經典卷積神經網絡結構圖候選區(qū)域生成網絡主要目的是用于生成目標對象的候選框,RPN網絡結構示意圖如圖2-5所示。從圖中可以觀察到,使用滑動窗口在特征圖的每個像素點上進行滑動,每一個像素點會對應產生k個不同尺寸和比例的錨點(anchors),即k個候選框,然后通過分類器判斷每一個錨點屬于前景(foreground)或者背景(background),即是目標對象或者不是目標對象,通過位置回歸器修正錨點從而得到精確的候選框。RPN網絡把位置誤差和分類誤差作為整體誤差進行訓練,
【參考文獻】

相關期刊論文 前4條

1 孫金嶺;龐娟;張澤龍;;基于顏色特征和改進Canny算子的車牌圖像定位[J];吉林大學學報(理學版);2015年04期

2 馬爽;樊養(yǎng)余;雷濤;吳鵬;;一種基于多特征提取的實用車牌識別方法[J];計算機應用研究;2013年11期

3 王洪亞;;基于HSV的夜間車牌識別算法[J];智能計算機與應用;2013年02期

4 張曉娜;何仁;陳士安;姚明;;基于主動學習AdaBoost算法與顏色特征的車牌定位[J];交通運輸工程學報;2013年01期



本文編號:2887994

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2887994.html


Copyright(c)文論論文網All Rights Reserved | 網站地圖 |

版權申明:資料由用戶d9e12***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com
国产又大又黄又粗的黄色| 午夜激情视频一区二区| 色涩一区二区三区四区| 亚洲熟妇中文字幕五十路| 亚洲国产色婷婷久久精品| 中文字幕人妻av不卡| 中文字幕日韩一区二区不卡 | 欧美日韩亚洲精品在线观看| 欧美日韩国产综合特黄| 99久久无色码中文字幕免费| 久久精品少妇内射毛片| 91欧美一区二区三区成人| 午夜精品福利视频观看| 在线播放欧美精品一区| 日韩一区欧美二区国产| 老司机精品福利视频在线播放| 国产精品视频一区二区秋霞| 日韩免费国产91在线| 草草视频精品在线观看| 深夜视频成人在线观看| 99久久国产精品免费| 男人和女人草逼免费视频| 极品少妇嫩草视频在线观看| 男女午夜福利院在线观看| 午夜视频成人在线免费| 东京热电东京热一区二区三区| 91偷拍与自偷拍精品| 99久久精品视频一区二区| 国产精品推荐在线一区| 激情偷拍一区二区三区视频| 日韩欧美综合中文字幕| 99久久国产综合精品二区| 亚洲男人的天堂就去爱| 99久久国产精品成人观看| 亚洲男人天堂成人在线视频| 午夜精品一区免费视频| 午夜精品成年人免费视频| 日韩不卡一区二区三区色图| 亚洲中文字幕乱码亚洲| 国产精品第一香蕉视频| 欧美中文字幕日韩精品|