基于深度學(xué)習(xí)的人眼檢測(cè)及應(yīng)用研究
發(fā)布時(shí)間:2021-03-01 00:15
眼睛為人類提供了感知外界事物最主要和最直接的視覺(jué)能力,其有效傳遞了重要的身份和狀態(tài)信息。人眼檢測(cè)即在圖像中確定人眼的存在性、位置和尺度等。人眼檢測(cè)作為模式識(shí)別中的一個(gè)分支,具有重要的研究意義和應(yīng)用價(jià)值。傳統(tǒng)人眼檢測(cè)算法由于精度低且魯棒性差,已經(jīng)無(wú)法適應(yīng)如今復(fù)雜場(chǎng)景下的應(yīng)用需求。因此,本文著重研究了基于深度學(xué)習(xí)的復(fù)雜場(chǎng)景下人眼檢測(cè)算法,并將其應(yīng)用到人眼身份識(shí)別和疲勞駕駛檢測(cè)研究之中。所做具體工作如下:(1)以傳統(tǒng)Adaboost方法作為人眼檢測(cè)研究的出發(fā)點(diǎn),分析了影響基于Adaboost級(jí)聯(lián)分類器的人眼檢測(cè)性能的因素即正負(fù)樣本集選取規(guī)則和不同的特征模板,并通過(guò)對(duì)比實(shí)驗(yàn)總結(jié)最佳人眼檢測(cè)模型訓(xùn)練方案。依據(jù)傳統(tǒng)檢測(cè)模型在復(fù)雜場(chǎng)景下的實(shí)際表現(xiàn)論證了其應(yīng)對(duì)目前的人眼檢測(cè)還存在不足之處,進(jìn)而引出基于深度學(xué)習(xí)方法的人眼檢測(cè)研究方案。(2)提出了基于改進(jìn)YOLOv3的人眼檢測(cè)算法。針對(duì)復(fù)雜場(chǎng)景下傳統(tǒng)人眼檢測(cè)方法的局限性,提出了一種不依賴于人臉檢測(cè)的直接人眼檢測(cè)算法,解決了復(fù)雜場(chǎng)景下多尺度尤其是小尺度人眼檢測(cè)問(wèn)題。該算法通過(guò)減少骨干網(wǎng)絡(luò)中下采樣因子并且加入了擴(kuò)張殘差單元以提升小尺度人眼的檢測(cè)能力,對(duì)多尺度...
【文章來(lái)源】:北方工業(yè)大學(xué)北京市
【文章頁(yè)數(shù)】:66 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
積分圖示意圖
第二章基于Adaboost的人眼檢測(cè)初探9值,所以Adaboost算法的訓(xùn)練耗時(shí)會(huì)受到每一個(gè)待檢目標(biāo)區(qū)域所含特征數(shù)量多少的影響。輸入檢測(cè)圖像大小以及檢測(cè)窗口中特征模板的縮放、平移和旋轉(zhuǎn)都是造成大量特征計(jì)算的直接因素,而獲取這些特征并計(jì)算其特征值是訓(xùn)練分類器的必要前提。在一幅的30×30像素圖像中,大約需要描述的邊緣特征有5萬(wàn)個(gè),線性特征的數(shù)量則更多,如果采用基本Haar特征表征該圖像,在訓(xùn)練分類器時(shí)需要大約40萬(wàn)個(gè)Haar特征,換言之就是求解特征值需要經(jīng)過(guò)40萬(wàn)余次運(yùn)算。通過(guò)表2-1能夠直接看出不同大小待檢圖像窗口中Haar特征數(shù)量的多少[41]。表2-1窗口大小與Haar特征數(shù)量的關(guān)系窗口尺寸16×1620×2024×2430×3036×36特征數(shù)量3238478460162336394725816264隨著待檢窗口尺寸的增大,其窗口內(nèi)需要計(jì)算的特征數(shù)量基本呈現(xiàn)指數(shù)級(jí)增長(zhǎng),如此龐大的特征計(jì)算量勢(shì)必會(huì)直接導(dǎo)致分類器的訓(xùn)練效率和檢測(cè)速度大幅下降,導(dǎo)致算法無(wú)法被實(shí)際應(yīng)用。因此Viola在特征計(jì)算中使用積分圖的思想以加快計(jì)算速度[42]。如圖2-2所示,一幅圖像I(x,y)中某一個(gè)像素點(diǎn)A(x,y)處的積分圖表示為i(x,y)即圖像左上端點(diǎn)與該點(diǎn)A組成的矩形區(qū)域內(nèi)全部像素值的和,定義為公式(2-1):i(x,y)=∑I(x,,y,)x,≤x,y,≤y(2-1)圖2-2積分圖示意圖圖2-3積分圖計(jì)算示例按照積分圖的定義,圖2-3中像素點(diǎn)1處的積分圖為A矩形的像素值之和,像素點(diǎn)2處的積分圖為A矩形和B矩形的像素值之和,同理可得3、4、5、6四個(gè)像素點(diǎn)的積分圖,那么計(jì)算矩形D、F區(qū)域內(nèi)像素值之和如公式(2-2)和(2-3):Sum(D)=i(1)+i(4)-(i(2)+i(3))(2-2)Sum(F)=i(3)+i(6)-(i(4)+i(5))(2-3)
第二章基于Adaboost的人眼檢測(cè)初探16圖2-9不包含人眼的任意圖像(2)正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像,負(fù)樣本仍然為不包含人眼的任意圖像。訓(xùn)練正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像2430張,同樣選擇不包含人眼區(qū)域的任意圖像7300張作為負(fù)樣本,采用MB-LBP特征訓(xùn)練分類器并對(duì)正樣本歸一化大小為48×24。樣本選取如圖2-10所示。圖2-10擴(kuò)展到眉毛邊緣的矩形人眼區(qū)域圖像(3)正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像,負(fù)樣本去除人眼后的其他面部區(qū)域圖像。正樣本數(shù)量和(2)保持一致,負(fù)樣本集為7300張去除人眼后的其他面部區(qū)域圖像。同樣選擇MB-LBP特征訓(xùn)練分類器并歸一化正樣本大小為48×24。負(fù)樣本選取如圖2-11所示。圖2-11去除人眼后的其他面部區(qū)域圖像表2-2為三組不同訓(xùn)練集上測(cè)試的誤檢率及檢測(cè)率,從表中可以看出組合3是最佳人眼檢測(cè)方案,其檢測(cè)率明顯高于另外兩者,誤檢及漏檢也明顯較低。由此可以得出,正樣本數(shù)據(jù)中只包含特征信息較少的眼睛輪廓區(qū)域會(huì)導(dǎo)致分類器的檢測(cè)性能下降。負(fù)樣本中存在大部分與眼睛相似性很低的自然背景圖像時(shí),由于這些相關(guān)度較低的數(shù)據(jù)在訓(xùn)練時(shí)作為易于區(qū)分的樣本無(wú)法通過(guò)前幾層強(qiáng)分類器的判決,而主要負(fù)責(zé)對(duì)不易區(qū)分的樣本進(jìn)行決策的后幾層強(qiáng)分類器所需訓(xùn)練負(fù)樣本數(shù)量過(guò)少,從而導(dǎo)致分類器的檢測(cè)精度下降。
【參考文獻(xiàn)】:
期刊論文
[1]深度神經(jīng)網(wǎng)絡(luò)的關(guān)鍵技術(shù)及其在自動(dòng)駕駛領(lǐng)域的應(yīng)用[J]. 李升波,關(guān)陽(yáng),侯廉,高洪波,段京良,梁爽,汪玉,成波,李克強(qiáng),任偉,李駿. 汽車安全與節(jié)能學(xué)報(bào). 2019(02)
[2]混合Boost算法實(shí)現(xiàn)的行人檢測(cè)技術(shù)[J]. 陳超. 計(jì)算機(jī)應(yīng)用與軟件. 2019(06)
[3]基于積分投影和差分投影的人眼定位[J]. 侯向丹,趙丹,劉洪普,顧軍華. 計(jì)算機(jī)工程與科學(xué). 2017(03)
[4]基于面部特征識(shí)別的管制員疲勞監(jiān)測(cè)方法研究[J]. 汪磊,孫瑞山. 中國(guó)安全科學(xué)學(xué)報(bào). 2012(07)
[5]基于Hough變換圓檢測(cè)的人眼精確定位方法[J]. 張杰,楊曉飛,趙瑞蓮. 計(jì)算機(jī)工程與應(yīng)用. 2005(27)
博士論文
[1]人眼檢測(cè)與跟蹤的方法及應(yīng)用研究[D]. 孟春寧.南開(kāi)大學(xué) 2013
碩士論文
[1]多波段紅外圖像差異特征形成機(jī)理研究[D]. 朱小紅.中北大學(xué) 2016
[2]基于駕駛操作及車輛狀態(tài)的疲勞駕駛行為檢測(cè)研究[D]. 黃皓.東南大學(xué) 2016
[3]快速人眼檢測(cè)若干關(guān)鍵技術(shù)的研究[D]. 黃程.南昌大學(xué) 2015
本文編號(hào):3056660
【文章來(lái)源】:北方工業(yè)大學(xué)北京市
【文章頁(yè)數(shù)】:66 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
積分圖示意圖
第二章基于Adaboost的人眼檢測(cè)初探9值,所以Adaboost算法的訓(xùn)練耗時(shí)會(huì)受到每一個(gè)待檢目標(biāo)區(qū)域所含特征數(shù)量多少的影響。輸入檢測(cè)圖像大小以及檢測(cè)窗口中特征模板的縮放、平移和旋轉(zhuǎn)都是造成大量特征計(jì)算的直接因素,而獲取這些特征并計(jì)算其特征值是訓(xùn)練分類器的必要前提。在一幅的30×30像素圖像中,大約需要描述的邊緣特征有5萬(wàn)個(gè),線性特征的數(shù)量則更多,如果采用基本Haar特征表征該圖像,在訓(xùn)練分類器時(shí)需要大約40萬(wàn)個(gè)Haar特征,換言之就是求解特征值需要經(jīng)過(guò)40萬(wàn)余次運(yùn)算。通過(guò)表2-1能夠直接看出不同大小待檢圖像窗口中Haar特征數(shù)量的多少[41]。表2-1窗口大小與Haar特征數(shù)量的關(guān)系窗口尺寸16×1620×2024×2430×3036×36特征數(shù)量3238478460162336394725816264隨著待檢窗口尺寸的增大,其窗口內(nèi)需要計(jì)算的特征數(shù)量基本呈現(xiàn)指數(shù)級(jí)增長(zhǎng),如此龐大的特征計(jì)算量勢(shì)必會(huì)直接導(dǎo)致分類器的訓(xùn)練效率和檢測(cè)速度大幅下降,導(dǎo)致算法無(wú)法被實(shí)際應(yīng)用。因此Viola在特征計(jì)算中使用積分圖的思想以加快計(jì)算速度[42]。如圖2-2所示,一幅圖像I(x,y)中某一個(gè)像素點(diǎn)A(x,y)處的積分圖表示為i(x,y)即圖像左上端點(diǎn)與該點(diǎn)A組成的矩形區(qū)域內(nèi)全部像素值的和,定義為公式(2-1):i(x,y)=∑I(x,,y,)x,≤x,y,≤y(2-1)圖2-2積分圖示意圖圖2-3積分圖計(jì)算示例按照積分圖的定義,圖2-3中像素點(diǎn)1處的積分圖為A矩形的像素值之和,像素點(diǎn)2處的積分圖為A矩形和B矩形的像素值之和,同理可得3、4、5、6四個(gè)像素點(diǎn)的積分圖,那么計(jì)算矩形D、F區(qū)域內(nèi)像素值之和如公式(2-2)和(2-3):Sum(D)=i(1)+i(4)-(i(2)+i(3))(2-2)Sum(F)=i(3)+i(6)-(i(4)+i(5))(2-3)
第二章基于Adaboost的人眼檢測(cè)初探16圖2-9不包含人眼的任意圖像(2)正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像,負(fù)樣本仍然為不包含人眼的任意圖像。訓(xùn)練正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像2430張,同樣選擇不包含人眼區(qū)域的任意圖像7300張作為負(fù)樣本,采用MB-LBP特征訓(xùn)練分類器并對(duì)正樣本歸一化大小為48×24。樣本選取如圖2-10所示。圖2-10擴(kuò)展到眉毛邊緣的矩形人眼區(qū)域圖像(3)正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像,負(fù)樣本去除人眼后的其他面部區(qū)域圖像。正樣本數(shù)量和(2)保持一致,負(fù)樣本集為7300張去除人眼后的其他面部區(qū)域圖像。同樣選擇MB-LBP特征訓(xùn)練分類器并歸一化正樣本大小為48×24。負(fù)樣本選取如圖2-11所示。圖2-11去除人眼后的其他面部區(qū)域圖像表2-2為三組不同訓(xùn)練集上測(cè)試的誤檢率及檢測(cè)率,從表中可以看出組合3是最佳人眼檢測(cè)方案,其檢測(cè)率明顯高于另外兩者,誤檢及漏檢也明顯較低。由此可以得出,正樣本數(shù)據(jù)中只包含特征信息較少的眼睛輪廓區(qū)域會(huì)導(dǎo)致分類器的檢測(cè)性能下降。負(fù)樣本中存在大部分與眼睛相似性很低的自然背景圖像時(shí),由于這些相關(guān)度較低的數(shù)據(jù)在訓(xùn)練時(shí)作為易于區(qū)分的樣本無(wú)法通過(guò)前幾層強(qiáng)分類器的判決,而主要負(fù)責(zé)對(duì)不易區(qū)分的樣本進(jìn)行決策的后幾層強(qiáng)分類器所需訓(xùn)練負(fù)樣本數(shù)量過(guò)少,從而導(dǎo)致分類器的檢測(cè)精度下降。
【參考文獻(xiàn)】:
期刊論文
[1]深度神經(jīng)網(wǎng)絡(luò)的關(guān)鍵技術(shù)及其在自動(dòng)駕駛領(lǐng)域的應(yīng)用[J]. 李升波,關(guān)陽(yáng),侯廉,高洪波,段京良,梁爽,汪玉,成波,李克強(qiáng),任偉,李駿. 汽車安全與節(jié)能學(xué)報(bào). 2019(02)
[2]混合Boost算法實(shí)現(xiàn)的行人檢測(cè)技術(shù)[J]. 陳超. 計(jì)算機(jī)應(yīng)用與軟件. 2019(06)
[3]基于積分投影和差分投影的人眼定位[J]. 侯向丹,趙丹,劉洪普,顧軍華. 計(jì)算機(jī)工程與科學(xué). 2017(03)
[4]基于面部特征識(shí)別的管制員疲勞監(jiān)測(cè)方法研究[J]. 汪磊,孫瑞山. 中國(guó)安全科學(xué)學(xué)報(bào). 2012(07)
[5]基于Hough變換圓檢測(cè)的人眼精確定位方法[J]. 張杰,楊曉飛,趙瑞蓮. 計(jì)算機(jī)工程與應(yīng)用. 2005(27)
博士論文
[1]人眼檢測(cè)與跟蹤的方法及應(yīng)用研究[D]. 孟春寧.南開(kāi)大學(xué) 2013
碩士論文
[1]多波段紅外圖像差異特征形成機(jī)理研究[D]. 朱小紅.中北大學(xué) 2016
[2]基于駕駛操作及車輛狀態(tài)的疲勞駕駛行為檢測(cè)研究[D]. 黃皓.東南大學(xué) 2016
[3]快速人眼檢測(cè)若干關(guān)鍵技術(shù)的研究[D]. 黃程.南昌大學(xué) 2015
本文編號(hào):3056660
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3056660.html
最近更新
教材專著