基于SSD算法的交通場景行人檢測研究
發(fā)布時間:2020-12-15 04:30
行人檢測技術(shù)是智能輔助駕駛系統(tǒng)中的關(guān)鍵技術(shù),一直以來也是計算機視覺領(lǐng)域的研究熱點之一,能有效減少交通事故的發(fā)生,提高駕駛的安全性,對保障人民群眾的生命財產(chǎn)安全具有重大意義。但是由于交通場景中的行人目標(biāo)存在姿態(tài)多變、行人所處的背景環(huán)境復(fù)雜以及行人目標(biāo)較小等情況,使得目前的行人檢測算法在實際應(yīng)用中存在檢測精度不高、檢測速度較慢的問題。因此針對道路交通場景下的行人檢測任務(wù),考慮精確度和實時性檢測的需要,論文基于SSD算法對交通場景行人目標(biāo)的檢測進行了研究。本文主要工作如下:首先介紹了目前主流的YOLO目標(biāo)檢測算法的工作原理及實現(xiàn)流程,通過對交通場景中行人的檢測,分析實驗數(shù)據(jù)可知該算法檢測速度較快,但對尺度變化較大的物體泛化能力較差,當(dāng)圖像中有過于密集的目標(biāo)時,容易發(fā)生誤檢、漏檢的情況。其次,為了解決上述問題,本文主要研究了與YOLO算法同樣滿足實時性要求的SSD算法,該算法達到了和兩階段方法相當(dāng)?shù)木?同時又保持了較快的運行速度。但是傳統(tǒng)的SSD算法對于交通場景中小尺度行人目標(biāo)的檢測能力仍然不夠理想,基于此,對SSD算法在網(wǎng)絡(luò)結(jié)構(gòu)上做出了以下改進:(1)卷積層結(jié)合稀疏連接。通過將主干網(wǎng)絡(luò)的卷...
【文章來源】:安徽師范大學(xué)安徽省
【文章頁數(shù)】:62 頁
【學(xué)位級別】:碩士
【部分圖文】:
基于HOG特征的行人檢測流程圖
各特征通道進行計算,解決了多種特征進行融合從而導(dǎo)致的計算速度變慢的難題。同時,由于這種特征結(jié)合了多種其它的特征,所以對圖像特征能從不同的角度來很好地表達,提高了檢測的準(zhǔn)確率。但是隨之帶來的圖像特征維度的增加,增加了模型對特征計算的時間和分類器的檢測時間,影響了檢測的實時性。2010年Zhu等[28]將AdaBoost分類器級聯(lián)的策略應(yīng)用到了人體檢測中,利用積分直方圖快速計算HOG特征,同時通過Adaboost算法構(gòu)建級聯(lián)分類器,該方法的檢測速度比Dalal等所提出的普通HOG特征算法快了將近70倍,大大提高了檢測速度。圖1-2是基于級聯(lián)Cascade分類器的檢測流程圖。圖1-2基于級聯(lián)Cascade分類器的檢測流程圖同年,P.F.Felzenszwalb等人[29]提出形變部件模型(DPM),使用HOG特征,對行人目標(biāo)的不同部位分別建模,解決了行人目標(biāo)檢測中遮擋嚴重的難題。此外,DPM也考慮到了目標(biāo)內(nèi)部的結(jié)構(gòu),能夠很好地檢測不同姿態(tài)的行人,并能很好地區(qū)分目標(biāo)和背景。但是也存在明顯的局限性。一方面是由于DPM特征的復(fù)雜,計算速度較慢;另一方面是基于人工設(shè)計的特征對于易于形變物體以及視角變化嚴重的物體檢測效果較差。基于人工構(gòu)造模型的方法雖然可通過提取顏色、紋理和梯度等人體的各種基本特征,再利用模式識別的方法進行分類,對于背景比較單一,尺度變化不大的目標(biāo)能檢測出來。但是由于使用到的特征相對比較單一,當(dāng)應(yīng)用于有旋轉(zhuǎn)、尺度變化、視角變化的行人目標(biāo)檢測時效果較差。所以,為了尋求解決行人檢測的遮擋情況、姿態(tài)多變、背景復(fù)雜以及目標(biāo)較小等難點問題,基于深度學(xué)習(xí)的行人檢測方法得到了國內(nèi)外學(xué)者和工程師廣泛地研究和應(yīng)用,并取得了較好的成果。(2)基于深度學(xué)習(xí)模型的方法從2012年開始,隨著大規(guī)模圖像分類識別數(shù)據(jù)集ImageNet發(fā)布,深度卷?
6對交通場景中小尺度行人的檢測能力。1.3行人檢測研究難點相比于通用的目標(biāo)檢測任務(wù),針對道路交通環(huán)境下以行人為目標(biāo)的檢測任務(wù),其具有很強的特殊性和復(fù)雜性,需要面對更大的困難和挑戰(zhàn)。主要表現(xiàn)在以下幾個方面:(1)更加復(fù)雜的背景由于是在道路交通場景中檢測行人,常伴隨著晝夜,晴雨雪天氣的影響以及光線的變化,還有障礙物的遮擋等情況,同時很多與行人在外形上相似的物體,容易對算法的檢測產(chǎn)生干擾,無法準(zhǔn)確區(qū)分背景和目標(biāo),導(dǎo)致算法的檢測效果變差。因此,行人檢測相對于通用的目標(biāo)檢測任務(wù)來說更加復(fù)雜,如下圖1-3所示是道路交通場景中的行人示意圖。從圖中可以發(fā)現(xiàn),行人極易受到障礙物的遮擋,導(dǎo)致光線視角不好,并且行人的穿著打扮豐富多變,人體的高矮胖瘦等體態(tài)變化較大,顯著性較低,加大了檢測的難度,很容易被漏檢誤檢,精確檢測比較困難[44]。此外,在一些人群比較密集的情況下,行人與行人之間遮擋嚴重,攝像頭只捕捉到行人軀干的一部分,這對目標(biāo)檢測算法帶來了嚴重的挑戰(zhàn)。圖1-3道路交通場景行人示意圖(2)多尺度的目標(biāo)針對道路交通場景下的行人檢測,首先,行人本身就具有高矮胖瘦等不同大小
本文編號:2917664
【文章來源】:安徽師范大學(xué)安徽省
【文章頁數(shù)】:62 頁
【學(xué)位級別】:碩士
【部分圖文】:
基于HOG特征的行人檢測流程圖
各特征通道進行計算,解決了多種特征進行融合從而導(dǎo)致的計算速度變慢的難題。同時,由于這種特征結(jié)合了多種其它的特征,所以對圖像特征能從不同的角度來很好地表達,提高了檢測的準(zhǔn)確率。但是隨之帶來的圖像特征維度的增加,增加了模型對特征計算的時間和分類器的檢測時間,影響了檢測的實時性。2010年Zhu等[28]將AdaBoost分類器級聯(lián)的策略應(yīng)用到了人體檢測中,利用積分直方圖快速計算HOG特征,同時通過Adaboost算法構(gòu)建級聯(lián)分類器,該方法的檢測速度比Dalal等所提出的普通HOG特征算法快了將近70倍,大大提高了檢測速度。圖1-2是基于級聯(lián)Cascade分類器的檢測流程圖。圖1-2基于級聯(lián)Cascade分類器的檢測流程圖同年,P.F.Felzenszwalb等人[29]提出形變部件模型(DPM),使用HOG特征,對行人目標(biāo)的不同部位分別建模,解決了行人目標(biāo)檢測中遮擋嚴重的難題。此外,DPM也考慮到了目標(biāo)內(nèi)部的結(jié)構(gòu),能夠很好地檢測不同姿態(tài)的行人,并能很好地區(qū)分目標(biāo)和背景。但是也存在明顯的局限性。一方面是由于DPM特征的復(fù)雜,計算速度較慢;另一方面是基于人工設(shè)計的特征對于易于形變物體以及視角變化嚴重的物體檢測效果較差。基于人工構(gòu)造模型的方法雖然可通過提取顏色、紋理和梯度等人體的各種基本特征,再利用模式識別的方法進行分類,對于背景比較單一,尺度變化不大的目標(biāo)能檢測出來。但是由于使用到的特征相對比較單一,當(dāng)應(yīng)用于有旋轉(zhuǎn)、尺度變化、視角變化的行人目標(biāo)檢測時效果較差。所以,為了尋求解決行人檢測的遮擋情況、姿態(tài)多變、背景復(fù)雜以及目標(biāo)較小等難點問題,基于深度學(xué)習(xí)的行人檢測方法得到了國內(nèi)外學(xué)者和工程師廣泛地研究和應(yīng)用,并取得了較好的成果。(2)基于深度學(xué)習(xí)模型的方法從2012年開始,隨著大規(guī)模圖像分類識別數(shù)據(jù)集ImageNet發(fā)布,深度卷?
6對交通場景中小尺度行人的檢測能力。1.3行人檢測研究難點相比于通用的目標(biāo)檢測任務(wù),針對道路交通環(huán)境下以行人為目標(biāo)的檢測任務(wù),其具有很強的特殊性和復(fù)雜性,需要面對更大的困難和挑戰(zhàn)。主要表現(xiàn)在以下幾個方面:(1)更加復(fù)雜的背景由于是在道路交通場景中檢測行人,常伴隨著晝夜,晴雨雪天氣的影響以及光線的變化,還有障礙物的遮擋等情況,同時很多與行人在外形上相似的物體,容易對算法的檢測產(chǎn)生干擾,無法準(zhǔn)確區(qū)分背景和目標(biāo),導(dǎo)致算法的檢測效果變差。因此,行人檢測相對于通用的目標(biāo)檢測任務(wù)來說更加復(fù)雜,如下圖1-3所示是道路交通場景中的行人示意圖。從圖中可以發(fā)現(xiàn),行人極易受到障礙物的遮擋,導(dǎo)致光線視角不好,并且行人的穿著打扮豐富多變,人體的高矮胖瘦等體態(tài)變化較大,顯著性較低,加大了檢測的難度,很容易被漏檢誤檢,精確檢測比較困難[44]。此外,在一些人群比較密集的情況下,行人與行人之間遮擋嚴重,攝像頭只捕捉到行人軀干的一部分,這對目標(biāo)檢測算法帶來了嚴重的挑戰(zhàn)。圖1-3道路交通場景行人示意圖(2)多尺度的目標(biāo)針對道路交通場景下的行人檢測,首先,行人本身就具有高矮胖瘦等不同大小
本文編號:2917664
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/2917664.html
教材專著