基于YOLOv3的國內(nèi)交通標志識別及嵌入式實現(xiàn)
發(fā)布時間:2021-08-17 13:22
近年來,隨著人工智能領(lǐng)域的研究突破,汽車的輔助駕駛系統(tǒng)的推出改變了以往的駕駛模式。系統(tǒng)通過獲取實時的路況信息,及時地提醒駕駛員做出準確的操作,從而防止因疲勞駕駛而導致車禍發(fā)生。交通標志是重要的路況信息,如何快速準確地識別交通標志牌至關(guān)重要。然而傳統(tǒng)的目標檢測算法在實景測試中面臨著一些弊端,例如:易受光線、角度、障礙物遮擋、行車速度等因素限制,而且難以實現(xiàn)多目標檢測、容易漏檢、識別慢。本文面向交通標志實時準確識別的需要采取了針對性的研究和開發(fā),主要工作如下:(1)鑒于國內(nèi)交通標志的研究樣本較少,選擇了數(shù)據(jù)集較為完整的CCTSDB數(shù)據(jù)集,并對CCTSDB進行了預處理和擴充。標注數(shù)據(jù)有三大類:指示標志、禁止標志、警告標志。常見的交通標志均已包含,圖片所選環(huán)境的復雜程度符合實際情況。(2)首先利用深度學習網(wǎng)絡(luò)YOLOv3對CCTSDB做初步訓練,在測試中,對于圖片的識別上,準確率均到達98%以上,識別所需時間為0.03s左右?梢娎肶OLOv3可以進行實時檢測識別。然而,在視頻識別上,對于遠處小目標容易出現(xiàn)漏檢,甚至是錯檢。針對這一問題,本文對yolo層下的anchor值做了聚類分析,結(jié)合了...
【文章來源】:海南大學海南省 211工程院校
【文章頁數(shù)】:45 頁
【學位級別】:碩士
【部分圖文】:
目標檢測算法的發(fā)展進程
基于YOLOv3的國內(nèi)交通標志識別及嵌入式實現(xiàn)62YOLO目標檢測系列算法研究2.1YOLO系列之YOLOv12.1.1YOLOv1檢測原理Yolov1出自在CVPR2016上發(fā)表的論文《YouOnlyLookOnce:Unified,Real-Time物體Detection》,是經(jīng)典的one-stage檢測算法,它憑借著簡潔的網(wǎng)絡(luò)結(jié)構(gòu)、簡單的復現(xiàn)過程而受到眾多開發(fā)人員的追捧。YOLO算法的設(shè)計思想就是簡單的端對端的理念,即整個檢測樣本輸入,通過中間層的特征提取后,最后在輸出層logistics回歸出預測框的坐標信息與類別信息。雖然fasterRCNN也是直接將整個圖片作為輸入,但采用的是R-CNN系列的proposal+classifier的思想,只不過將提取proposal的步驟在CNN中實現(xiàn)[27]。YOLOv1的檢測過程如圖2.1所示,具體步驟如下:圖2.1YOLO算法檢測流程Fig2.1YOLOalgorithmdetectionprocess首先將原始圖片調(diào)整大小到448x448,再劃分為SxS(例:7x7)個單元格,這是為了方便劃分物體中心位置點。每個單元格能單獨檢測物體對象。假如物體的中心坐標落在某個單元格內(nèi),那么該單元格對這個物體的預測相比相鄰的單元格就更加重要,它給出的預測信息就決定著該物體是否能被準確識別,簡單來說就是該單元格要對該物體負責。其中,每個單元格需要預測B個boundingbox值(邊界框值包含坐標(x,y)和寬高(w,h)),同時為每個邊界框值預測一個置信度(confidencescores)。因此單元格預測B個5維數(shù)組,即(x,y,w,h,confidence)。其中(x,y)是邊界框的中心位置相對于當前單元格左上角的偏移量,取值范圍在0-1之間,(w,h)是
海南大學碩士學位論文7邊界框相對于整張圖片的寬長占比,取值范圍在0-1之間。對于置信度confidence,這個置信度的計算包含兩個部分,一是單元格內(nèi)是否存在物體;二是預測框與真實框的IoU值。置信度的計算公式為truthpred)Pr(IoUObject(2.1)1.如果單元格內(nèi)有物體,則1)Object(Pr,此時置信度等于IoU2.如果單元格內(nèi)沒有物體,則0)Object(Pr,此時置信度等于0接著每個單元格還要給出C(預測物體的種類個數(shù))個條件概率值。記為:ObjectClass)|Pr(i(2.2)這里輸出的種類概率值是針對當前單元格的,不是針對邊界框的。所以一個單元格只會輸出C個類別的條件概率信息,故而只能預測一種類別的物體。在檢測目標時,考慮到C個類別的預測信息,confidence的公式就變成:truthpreditruthpredibjectClassO)Pr()Pr()|Pr(IoUClassIoUbjectO(2.3)最后通過設(shè)置一個閾值,將confidence的低分部分濾掉,剩下的使用NMS(非極大值抑制)去除多余框,得到最終的標定框,也就是圖2.1中最后得到的預測框。2.1.2網(wǎng)絡(luò)結(jié)構(gòu)圖2.2YOLOv1的網(wǎng)絡(luò)結(jié)構(gòu)Fig2.2ThenetworkstructureofYOLOv1Yolov1的網(wǎng)絡(luò)架構(gòu)采用的是CNN的經(jīng)典形式,開始是convolutionallayers提取特征,再是fullyconnectedlayers進行預測結(jié)果。其內(nèi)部的具體設(shè)計是受GoogleNet的啟發(fā),見圖2.2,448x448分辨率的輸入圖片通過24個卷積層(均是1x1卷積層+3x3
【參考文獻】:
期刊論文
[1]基于YOLO v3的交通標志牌檢測識別[J]. 潘衛(wèi)國,劉博,陳英昊,石洪麗. 傳感器與微系統(tǒng). 2019(11)
[2]基于感興趣區(qū)域和HOG-CTH特征的交通標志檢測[J]. 孫露霞,張尤賽,李永順,張碩. 計算機與數(shù)字工程. 2018(06)
[3]基于改進SIFT算法的英國交通標志識別研究[J]. 趙炎,藍箭,李印,斯杭煜. 工業(yè)控制計算機. 2016(02)
本文編號:3347846
【文章來源】:海南大學海南省 211工程院校
【文章頁數(shù)】:45 頁
【學位級別】:碩士
【部分圖文】:
目標檢測算法的發(fā)展進程
基于YOLOv3的國內(nèi)交通標志識別及嵌入式實現(xiàn)62YOLO目標檢測系列算法研究2.1YOLO系列之YOLOv12.1.1YOLOv1檢測原理Yolov1出自在CVPR2016上發(fā)表的論文《YouOnlyLookOnce:Unified,Real-Time物體Detection》,是經(jīng)典的one-stage檢測算法,它憑借著簡潔的網(wǎng)絡(luò)結(jié)構(gòu)、簡單的復現(xiàn)過程而受到眾多開發(fā)人員的追捧。YOLO算法的設(shè)計思想就是簡單的端對端的理念,即整個檢測樣本輸入,通過中間層的特征提取后,最后在輸出層logistics回歸出預測框的坐標信息與類別信息。雖然fasterRCNN也是直接將整個圖片作為輸入,但采用的是R-CNN系列的proposal+classifier的思想,只不過將提取proposal的步驟在CNN中實現(xiàn)[27]。YOLOv1的檢測過程如圖2.1所示,具體步驟如下:圖2.1YOLO算法檢測流程Fig2.1YOLOalgorithmdetectionprocess首先將原始圖片調(diào)整大小到448x448,再劃分為SxS(例:7x7)個單元格,這是為了方便劃分物體中心位置點。每個單元格能單獨檢測物體對象。假如物體的中心坐標落在某個單元格內(nèi),那么該單元格對這個物體的預測相比相鄰的單元格就更加重要,它給出的預測信息就決定著該物體是否能被準確識別,簡單來說就是該單元格要對該物體負責。其中,每個單元格需要預測B個boundingbox值(邊界框值包含坐標(x,y)和寬高(w,h)),同時為每個邊界框值預測一個置信度(confidencescores)。因此單元格預測B個5維數(shù)組,即(x,y,w,h,confidence)。其中(x,y)是邊界框的中心位置相對于當前單元格左上角的偏移量,取值范圍在0-1之間,(w,h)是
海南大學碩士學位論文7邊界框相對于整張圖片的寬長占比,取值范圍在0-1之間。對于置信度confidence,這個置信度的計算包含兩個部分,一是單元格內(nèi)是否存在物體;二是預測框與真實框的IoU值。置信度的計算公式為truthpred)Pr(IoUObject(2.1)1.如果單元格內(nèi)有物體,則1)Object(Pr,此時置信度等于IoU2.如果單元格內(nèi)沒有物體,則0)Object(Pr,此時置信度等于0接著每個單元格還要給出C(預測物體的種類個數(shù))個條件概率值。記為:ObjectClass)|Pr(i(2.2)這里輸出的種類概率值是針對當前單元格的,不是針對邊界框的。所以一個單元格只會輸出C個類別的條件概率信息,故而只能預測一種類別的物體。在檢測目標時,考慮到C個類別的預測信息,confidence的公式就變成:truthpreditruthpredibjectClassO)Pr()Pr()|Pr(IoUClassIoUbjectO(2.3)最后通過設(shè)置一個閾值,將confidence的低分部分濾掉,剩下的使用NMS(非極大值抑制)去除多余框,得到最終的標定框,也就是圖2.1中最后得到的預測框。2.1.2網(wǎng)絡(luò)結(jié)構(gòu)圖2.2YOLOv1的網(wǎng)絡(luò)結(jié)構(gòu)Fig2.2ThenetworkstructureofYOLOv1Yolov1的網(wǎng)絡(luò)架構(gòu)采用的是CNN的經(jīng)典形式,開始是convolutionallayers提取特征,再是fullyconnectedlayers進行預測結(jié)果。其內(nèi)部的具體設(shè)計是受GoogleNet的啟發(fā),見圖2.2,448x448分辨率的輸入圖片通過24個卷積層(均是1x1卷積層+3x3
【參考文獻】:
期刊論文
[1]基于YOLO v3的交通標志牌檢測識別[J]. 潘衛(wèi)國,劉博,陳英昊,石洪麗. 傳感器與微系統(tǒng). 2019(11)
[2]基于感興趣區(qū)域和HOG-CTH特征的交通標志檢測[J]. 孫露霞,張尤賽,李永順,張碩. 計算機與數(shù)字工程. 2018(06)
[3]基于改進SIFT算法的英國交通標志識別研究[J]. 趙炎,藍箭,李印,斯杭煜. 工業(yè)控制計算機. 2016(02)
本文編號:3347846
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3347846.html
最近更新
教材專著