基于視覺的駕駛員注意力檢測(cè)與判別研究
發(fā)布時(shí)間:2020-11-12 05:39
駕駛員注意力分散是交通事故頻繁發(fā)生的主要原因之一。近年來,基于視覺的駕駛員注意力檢測(cè)已成為熱點(diǎn)研究課題。然而大多數(shù)現(xiàn)有基于視覺的解決方案只關(guān)注駕駛員注意力分散的某一種特征,例如僅根據(jù)駕駛員面部信息進(jìn)行疲勞檢測(cè),這樣往往忽略了一些其他的重要信息。本文針對(duì)駕駛員注意力檢測(cè)與判別研究,提出了一種基于視覺的綜合性解決方案,它融合了駕駛員面部圖像和道路前景圖像兩種視覺數(shù)據(jù)。首先,本文從整體框架出發(fā)設(shè)計(jì)了一種基于視覺的綜合性駕駛員注意力檢測(cè)方案。該方案利用駕駛員面部信息和道路交通信息,綜合考慮駕駛員疲勞狀態(tài)、頭部偏離狀態(tài)、視線方向與道路危險(xiǎn)目標(biāo)的匹配情況,對(duì)駕駛員注意力進(jìn)行有效分析,通過最終的注意力決策模塊得到注意力判別結(jié)果。同時(shí),采集多組實(shí)驗(yàn)數(shù)據(jù),進(jìn)行數(shù)據(jù)篩選和整理,對(duì)本文提出的解決方案的可行性進(jìn)行了實(shí)驗(yàn)驗(yàn)證。結(jié)果表明,本文所提出的解決方案能夠有效地檢測(cè)出駕駛員注意力是否集中。其次,提出一種駕駛員面部特征參數(shù)自適應(yīng)學(xué)習(xí)方法,從而提高方案的自適應(yīng)性。針對(duì)不同的駕駛員,運(yùn)用統(tǒng)計(jì)學(xué)的方法研究不同駕駛員視覺參數(shù)變化規(guī)律,在面部檢測(cè)與分析模塊引入?yún)?shù)學(xué)習(xí)階段來自適應(yīng)學(xué)習(xí)不同的參數(shù),包括眼睛睜閉的閾值、嘴巴張合的閾值以及三個(gè)坐標(biāo)軸上頭部偏轉(zhuǎn)角的正常值。同時(shí)對(duì)學(xué)習(xí)階段的有效性進(jìn)行了實(shí)驗(yàn)驗(yàn)證。另外,還設(shè)計(jì)了簡(jiǎn)單有效的疲勞檢測(cè)、頭部偏離檢測(cè)以及視線方向與道路危險(xiǎn)目標(biāo)的匹配方案。最后,本文提出一種基于單目視覺的道路前方危險(xiǎn)目標(biāo)檢測(cè)算法,該算法結(jié)合連續(xù)三幀之間的ORB特征點(diǎn)匹配和k均值聚類算法以及光流法檢測(cè)候選目標(biāo)或區(qū)域,通過計(jì)算候選目標(biāo)或區(qū)域的危險(xiǎn)系數(shù),得到最終的道路前方危險(xiǎn)目標(biāo)檢測(cè)結(jié)果。該算法僅基于單目視覺,不需要復(fù)雜的雙目標(biāo)定和圖像校正過程,其檢測(cè)結(jié)果既不限于目標(biāo)類別,也不限于靜止或運(yùn)動(dòng)目標(biāo)。
【學(xué)位單位】:湖南大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2018
【中圖分類】:U491.254;TP391.41
【部分圖文】:
Haar-Like特征
碩士學(xué)位論文(x,y)處,對(duì)應(yīng)的積分圖中的值為該位置左上式(2.2)和(2.3)遞歸計(jì)算所得。S( -) = S( - ) ( -) I( -) = I( -) S( -) -1,y)=0。S(x,y)表示行方向的累加和,之后再下角時(shí)就可以計(jì)算好整個(gè)積分圖了。整個(gè)大框是積分圖,要計(jì)算的是區(qū)域 D 內(nèi)部的是 I(1)+I(4)-I(2)-I(3)。所以,積分圖構(gòu)造好之和都可以通過簡(jiǎn)單運(yùn)算得到。同樣,Haar-L差,可以找常數(shù)時(shí)間內(nèi)完成。
圖 2.3 SDM 人臉特征點(diǎn)分布及檢測(cè)結(jié)果前方目標(biāo)檢測(cè)基礎(chǔ)B 特征點(diǎn)匹配境下,道路前景視頻序列前后幀之間有強(qiáng)的關(guān)聯(lián)性,可進(jìn)行保留關(guān)鍵信息。常用的特征點(diǎn)匹配算法有 SIFT(Scale Inva)、SURF(Speeded Up Robust Features)、ORB(Oriented FAST]算法等。本文采用的特征點(diǎn)提取與匹配算法是綜合性能較好義,ORB(Oriented FAST and Rotated BRIEF)算法是將 FASBRIEF 特征描述算法相結(jié)合,并對(duì)它們進(jìn)行了改進(jìn)和優(yōu)化。O征點(diǎn)提取和描述的算法,它分為特征點(diǎn)提取和特征點(diǎn)描述提取根據(jù) FAST(Features from Accelerated Segment Test)
【參考文獻(xiàn)】
本文編號(hào):2880324
【學(xué)位單位】:湖南大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2018
【中圖分類】:U491.254;TP391.41
【部分圖文】:
Haar-Like特征
碩士學(xué)位論文(x,y)處,對(duì)應(yīng)的積分圖中的值為該位置左上式(2.2)和(2.3)遞歸計(jì)算所得。S( -) = S( - ) ( -) I( -) = I( -) S( -) -1,y)=0。S(x,y)表示行方向的累加和,之后再下角時(shí)就可以計(jì)算好整個(gè)積分圖了。整個(gè)大框是積分圖,要計(jì)算的是區(qū)域 D 內(nèi)部的是 I(1)+I(4)-I(2)-I(3)。所以,積分圖構(gòu)造好之和都可以通過簡(jiǎn)單運(yùn)算得到。同樣,Haar-L差,可以找常數(shù)時(shí)間內(nèi)完成。
圖 2.3 SDM 人臉特征點(diǎn)分布及檢測(cè)結(jié)果前方目標(biāo)檢測(cè)基礎(chǔ)B 特征點(diǎn)匹配境下,道路前景視頻序列前后幀之間有強(qiáng)的關(guān)聯(lián)性,可進(jìn)行保留關(guān)鍵信息。常用的特征點(diǎn)匹配算法有 SIFT(Scale Inva)、SURF(Speeded Up Robust Features)、ORB(Oriented FAST]算法等。本文采用的特征點(diǎn)提取與匹配算法是綜合性能較好義,ORB(Oriented FAST and Rotated BRIEF)算法是將 FASBRIEF 特征描述算法相結(jié)合,并對(duì)它們進(jìn)行了改進(jìn)和優(yōu)化。O征點(diǎn)提取和描述的算法,它分為特征點(diǎn)提取和特征點(diǎn)描述提取根據(jù) FAST(Features from Accelerated Segment Test)
【參考文獻(xiàn)】
相關(guān)碩士學(xué)位論文 前3條
1 袁雨桐;基于單目視覺的智能車前方障礙物識(shí)別與測(cè)距[D];吉林大學(xué);2016年
2 羅聲平;基于面部特征的全天候疲勞駕駛檢測(cè)及預(yù)警系統(tǒng)的研究[D];福州大學(xué);2014年
3 李英杰;汽車主動(dòng)安全系統(tǒng)警告觸發(fā)方式研究[D];吉林大學(xué);2011年
本文編號(hào):2880324
本文鏈接:http://sikaile.net/kejilunwen/jiaotonggongchenglunwen/2880324.html
最近更新
教材專著