車(chē)載場(chǎng)景下人臉識(shí)別技術(shù)研究與應(yīng)用
發(fā)布時(shí)間:2022-01-17 14:03
隨著網(wǎng)約車(chē)市場(chǎng)規(guī)模的不斷擴(kuò)大,其用戶(hù)數(shù)量逐年增長(zhǎng),網(wǎng)約車(chē)已成為了許多居民出行的首選交通方式,與此同時(shí)網(wǎng)約車(chē)出行的安全問(wèn)題也成為了人們關(guān)注的社會(huì)焦點(diǎn)。近年來(lái),自動(dòng)人臉識(shí)別技術(shù)由于其自身的技術(shù)優(yōu)勢(shì)及其廣闊的應(yīng)用前景,開(kāi)始從科研的“象牙塔”走入人們的日常生活,在公共安全等領(lǐng)域里扮演起至關(guān)重要的角色。然而當(dāng)下較為成熟的自動(dòng)人臉識(shí)別技術(shù)大多還只在受控環(huán)境下有較高的識(shí)別精度,在生活復(fù)雜多變的應(yīng)用場(chǎng)景中,人臉識(shí)別的準(zhǔn)確度會(huì)大幅下降,如受到姿態(tài)變化、光照變化、夸張表情或面部遮擋等的因素限制時(shí),均無(wú)法得到較好的識(shí)別效果。本文旨在研究車(chē)載場(chǎng)景中的人臉識(shí)別問(wèn)題,主要針對(duì)車(chē)內(nèi)人臉姿態(tài)變化及光照變化展開(kāi)分析研究,貼合場(chǎng)景建立整合了共有2000張訓(xùn)練樣本的亞洲人臉數(shù)據(jù)集。本文采用了方向梯度直方圖與梯度提升回歸樹(shù)相結(jié)合的方法用于進(jìn)行人臉檢測(cè)與特征點(diǎn)定位;再結(jié)合FaceNet網(wǎng)絡(luò)進(jìn)行特征點(diǎn)間位置關(guān)系的特征提取,最后利用線性SVM進(jìn)行特征匹配,搭建了一個(gè)適用于車(chē)載場(chǎng)景下的人臉識(shí)別模型。首先利用方向梯度直方圖將輸入圖像歸一化,計(jì)算每個(gè)細(xì)胞像素的梯度方向并將其連接成塊特征向量,作為特征描述因子得到梯度直方圖特征向量來(lái)定位圖...
【文章來(lái)源】:中國(guó)地質(zhì)大學(xué)(北京)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:73 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
車(chē)內(nèi)人臉圖像示例
第 1 章 引言30°,90°];第三層為了對(duì)應(yīng)更小的角度共有 7 個(gè)節(jié)點(diǎn),方式輸入圖像子窗口先遍歷各層所有節(jié)點(diǎn),若子窗口被某定為非人臉;最后一層被某節(jié)點(diǎn)接受則判定為人臉,同時(shí)00MHz Pentium Ⅲ上,輸入為 320x240 像素大小時(shí),該檢 毫秒每幀,遠(yuǎn)快于前人的多角度人臉檢測(cè)系統(tǒng)(S.Z.Li,臉檢測(cè)方法大致可分為基于知識(shí)檢驗(yàn)的方法,基于特征不的方法和基于統(tǒng)計(jì)理論的方法(Bo Wu,2004;Li S Z,2o J,1999;Huang C,2007;Rowley HA,1998)。
網(wǎng)絡(luò)是由大量的簡(jiǎn)單處理單元(即神經(jīng)元)廣泛地互相連接組成的,它從人腦神經(jīng)結(jié)構(gòu)得到啟發(fā),最終模擬人腦的信息處理能力,在、計(jì)算機(jī)科學(xué)等諸多領(lǐng)域都有著廣泛的應(yīng)用。神經(jīng)網(wǎng)絡(luò)中的多個(gè)神行分布式并行處理,同一神經(jīng)元可以有一到多個(gè)輸入,有一個(gè)輸出接到其他神經(jīng)元;每個(gè)神經(jīng)元都對(duì)應(yīng)唯一連接權(quán)值,通過(guò)調(diào)節(jié)連接經(jīng)元的性能。經(jīng)網(wǎng)絡(luò)模型網(wǎng)絡(luò)作為高度復(fù)雜的非線性動(dòng)力學(xué)習(xí)系統(tǒng),神經(jīng)元是其中最基本的一種多輸入單輸出的非線性結(jié)構(gòu),結(jié)構(gòu)如下圖 2-1 所示:
【參考文獻(xiàn)】:
期刊論文
[1]基于GBDT和HOG特征的人臉關(guān)鍵點(diǎn)定位[J]. 張重生,彭國(guó)雯,于珂珂. 河南大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(02)
[2]中國(guó)互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計(jì)報(bào)告[J]. 中國(guó)科技信息. 2018(05)
[3]多姿態(tài)人臉識(shí)別綜述[J]. 鄒國(guó)鋒,傅桂霞,李海濤,高明亮,王科俊. 模式識(shí)別與人工智能. 2015(07)
[4]標(biāo)準(zhǔn)正面人臉圖像的識(shí)別[J]. 鄭堅(jiān)平,尤婉英. 計(jì)算機(jī)工程. 1992(01)
[5]人工智能?chē)?guó)外研究情況綜述[J]. 李家治,汪云九,涂序彥,郭榮江. 自動(dòng)化學(xué)報(bào). 1979(01)
碩士論文
[1]基于深度學(xué)習(xí)的監(jiān)控視頻中人臉識(shí)別方法改進(jìn)[D]. 王亞.中國(guó)科學(xué)技術(shù)大學(xué) 2018
[2]基于改進(jìn)的GBDT算法的乘客出行預(yù)測(cè)研究[D]. 王天華.大連理工大學(xué) 2016
本文編號(hào):3594859
【文章來(lái)源】:中國(guó)地質(zhì)大學(xué)(北京)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:73 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
車(chē)內(nèi)人臉圖像示例
第 1 章 引言30°,90°];第三層為了對(duì)應(yīng)更小的角度共有 7 個(gè)節(jié)點(diǎn),方式輸入圖像子窗口先遍歷各層所有節(jié)點(diǎn),若子窗口被某定為非人臉;最后一層被某節(jié)點(diǎn)接受則判定為人臉,同時(shí)00MHz Pentium Ⅲ上,輸入為 320x240 像素大小時(shí),該檢 毫秒每幀,遠(yuǎn)快于前人的多角度人臉檢測(cè)系統(tǒng)(S.Z.Li,臉檢測(cè)方法大致可分為基于知識(shí)檢驗(yàn)的方法,基于特征不的方法和基于統(tǒng)計(jì)理論的方法(Bo Wu,2004;Li S Z,2o J,1999;Huang C,2007;Rowley HA,1998)。
網(wǎng)絡(luò)是由大量的簡(jiǎn)單處理單元(即神經(jīng)元)廣泛地互相連接組成的,它從人腦神經(jīng)結(jié)構(gòu)得到啟發(fā),最終模擬人腦的信息處理能力,在、計(jì)算機(jī)科學(xué)等諸多領(lǐng)域都有著廣泛的應(yīng)用。神經(jīng)網(wǎng)絡(luò)中的多個(gè)神行分布式并行處理,同一神經(jīng)元可以有一到多個(gè)輸入,有一個(gè)輸出接到其他神經(jīng)元;每個(gè)神經(jīng)元都對(duì)應(yīng)唯一連接權(quán)值,通過(guò)調(diào)節(jié)連接經(jīng)元的性能。經(jīng)網(wǎng)絡(luò)模型網(wǎng)絡(luò)作為高度復(fù)雜的非線性動(dòng)力學(xué)習(xí)系統(tǒng),神經(jīng)元是其中最基本的一種多輸入單輸出的非線性結(jié)構(gòu),結(jié)構(gòu)如下圖 2-1 所示:
【參考文獻(xiàn)】:
期刊論文
[1]基于GBDT和HOG特征的人臉關(guān)鍵點(diǎn)定位[J]. 張重生,彭國(guó)雯,于珂珂. 河南大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(02)
[2]中國(guó)互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計(jì)報(bào)告[J]. 中國(guó)科技信息. 2018(05)
[3]多姿態(tài)人臉識(shí)別綜述[J]. 鄒國(guó)鋒,傅桂霞,李海濤,高明亮,王科俊. 模式識(shí)別與人工智能. 2015(07)
[4]標(biāo)準(zhǔn)正面人臉圖像的識(shí)別[J]. 鄭堅(jiān)平,尤婉英. 計(jì)算機(jī)工程. 1992(01)
[5]人工智能?chē)?guó)外研究情況綜述[J]. 李家治,汪云九,涂序彥,郭榮江. 自動(dòng)化學(xué)報(bào). 1979(01)
碩士論文
[1]基于深度學(xué)習(xí)的監(jiān)控視頻中人臉識(shí)別方法改進(jìn)[D]. 王亞.中國(guó)科學(xué)技術(shù)大學(xué) 2018
[2]基于改進(jìn)的GBDT算法的乘客出行預(yù)測(cè)研究[D]. 王天華.大連理工大學(xué) 2016
本文編號(hào):3594859
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/3594859.html
最近更新
教材專(zhuān)著