基于單目視覺的視線跟蹤技術(shù)研究
本文關(guān)鍵詞:基于單目視覺的視線跟蹤技術(shù)研究
更多相關(guān)文章: 視線跟蹤 瞳孔中心 普爾欽光斑 注視點 總體最小二乘法 多項式函數(shù)
【摘要】:無人武器系統(tǒng)是武器裝備發(fā)展的重要方向,人在回路的遙操作是未來相當(dāng)長時期內(nèi)無人武器的主要操控方式,受生理、心理因素影響手動操控效率較低,無法滿足高時效性的戰(zhàn)場需要。視線跟蹤瞄準(zhǔn)是一種新型的人機(jī)交互方式,借助人眼注視方向進(jìn)行瞄準(zhǔn)打擊可以解放士兵的雙手,大大提高士兵操控?zé)o人武器系統(tǒng)的效率。本文討論的視線跟蹤就是其中的最關(guān)鍵技術(shù)。采用基于瞳孔角膜反射的視線估計方法,構(gòu)建了頭戴式視線跟蹤系統(tǒng)。通過人眼攝像機(jī)采集人眼圖像,在Linux系統(tǒng)下結(jié)合OPENCV的開發(fā)語言進(jìn)行算法編程,對人眼圖像依次進(jìn)行高斯濾波去噪、ROI區(qū)域提取和灰度化等預(yù)處理;诨叶戎狈綀D確定自適應(yīng)閾值并對灰度圖二值化分割,采用Canny邊緣檢測方法提取瞳孔輪廓,結(jié)合總體最小二乘橢圓擬合算法確定瞳孔中心坐標(biāo)。采用質(zhì)心法獲取普爾欽斑點中心坐標(biāo),并計算出二維偏移向量P-CR。以多項式函數(shù)的形式建立P-CR向量與注視點之間的映射關(guān)系,實現(xiàn)了人眼信息與注視點信息的轉(zhuǎn)化,達(dá)到了人眼視線跟蹤的目的。實驗結(jié)果表明,視線跟蹤定位準(zhǔn)確率超過90%,為無人武器視線跟蹤瞄準(zhǔn)技術(shù)奠定了基礎(chǔ)。
【關(guān)鍵詞】:視線跟蹤 瞳孔中心 普爾欽光斑 注視點 總體最小二乘法 多項式函數(shù)
【學(xué)位授予單位】:北京理工大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP391.41
【目錄】:
- 摘要5-6
- abstract6-9
- 第一章 緒論9-21
- 1.1 研究目的及意義9-10
- 1.2 視線跟蹤技術(shù)10-15
- 1.2.1 視線跟蹤方法10-13
- 1.2.2 視線跟蹤技術(shù)的應(yīng)用13-14
- 1.2.3 視線跟蹤技術(shù)的硬件實現(xiàn)14-15
- 1.3 國內(nèi)外發(fā)展現(xiàn)狀15-19
- 1.3.1 國外發(fā)展?fàn)顩r15-17
- 1.3.2 國內(nèi)發(fā)展?fàn)顩r17-19
- 1.4 論文的結(jié)構(gòu)安排19-21
- 第二章 視線跟蹤原理與系統(tǒng)構(gòu)建21-26
- 2.1 人眼結(jié)構(gòu)及眼動方式21-23
- 2.1.1 人眼結(jié)構(gòu)21-22
- 2.1.2 眼動方式22-23
- 2.2 視線跟蹤原理23
- 2.3 視線跟蹤系統(tǒng)構(gòu)建23-25
- 2.4 本章小結(jié)25-26
- 第三章 瞳孔與普爾欽斑點中心提取26-45
- 3.1 圖像預(yù)處理26-28
- 3.1.1 圖像平滑26-27
- 3.1.2 提取處理區(qū)域27-28
- 3.2 灰度圖閾值分割28-30
- 3.3 邊緣檢測30-33
- 3.3.1 傳統(tǒng)的邊緣檢測30-32
- 3.3.2 Canny算子邊緣檢測32-33
- 3.4 瞳孔中心定位算法33-38
- 3.4.1 橢圓擬合方法33-36
- 3.4.2 基于改進(jìn)最小二乘法的瞳孔中心定位算法36-38
- 3.5 普爾欽斑點中心提取38-41
- 3.5.1 二值化圖像38-39
- 3.5.2 普爾欽光斑中心計算39-41
- 3.6 圖像處理算法的實現(xiàn)41-44
- 3.6.1 圖像處理、計算機(jī)視覺與OpenCv41-42
- 3.6.2 OpenCv基本架構(gòu)分析42-43
- 3.6.3 OpenCv函數(shù)實例43-44
- 3.7 本章小結(jié)44-45
- 第四章 注視點標(biāo)定45-51
- 4.1 標(biāo)定流程45
- 4.2 標(biāo)定原理及方法45-48
- 4.2.1 標(biāo)定分類及原理45-46
- 4.2.2 標(biāo)定函數(shù)和點數(shù)的選擇46-48
- 4.3 基于最小二乘擬合的標(biāo)定算法48-50
- 4.4 本章小結(jié)50-51
- 第五章 實驗及結(jié)果分析51-56
- 5.1 實驗系統(tǒng)51
- 5.2 實驗步驟與結(jié)果51-55
- 5.2.1 標(biāo)定實驗51-53
- 5.2.2 注視點估計實驗53-55
- 5.3 實驗結(jié)果分析及結(jié)論55
- 5.4 本章小結(jié)55-56
- 總結(jié)與展望56-57
- 參考文獻(xiàn)57-61
- 附錄61-68
- 攻讀學(xué)位期間發(fā)表的論文與研究成果清單68-69
- 致謝69
【相似文獻(xiàn)】
中國期刊全文數(shù)據(jù)庫 前10條
1 趙新燦;左洪福;任勇軍;;眼動儀與視線跟蹤技術(shù)綜述[J];計算機(jī)工程與應(yīng)用;2006年12期
2 方志剛;人機(jī)交互中的視線跟蹤技術(shù)[J];人類工效學(xué);2000年01期
3 趙新燦;左洪福;徐興民;;視線跟蹤技術(shù)研究[J];光電工程;2007年10期
4 方志剛;視線跟蹤技術(shù)及其在多通道用戶界面中的應(yīng)用[J];系統(tǒng)工程與電子技術(shù);1999年06期
5 胡琥;;視線跟蹤技術(shù)及其在人機(jī)交互中的應(yīng)用[J];黑龍江科技信息;2011年22期
6 胡畔;董春鵬;吳曉榮;;基于視線跟蹤技術(shù)的眼控鼠標(biāo)[J];天津師范大學(xué)學(xué)報(自然科學(xué)版);2007年03期
7 馮成志,沈模衛(wèi);視線跟蹤技術(shù)及其在人機(jī)交互中的應(yīng)用[J];浙江大學(xué)學(xué)報(理學(xué)版);2002年02期
8 廖衛(wèi)華,嚴(yán)由偉,徐子清;視線跟蹤技術(shù)在人機(jī)交互中的研究[J];長春師范學(xué)院學(xué)報;2005年05期
9 張昀;牟軒沁;;視線跟蹤技術(shù)的圖像質(zhì)量主觀數(shù)據(jù)庫構(gòu)建及其可視化[J];中國圖象圖形學(xué)報;2014年07期
10 謝曉方;時磊;陳青華;喬勇軍;;基于改進(jìn)MeanShift算法的視線跟蹤技術(shù)[J];海軍航空工程學(xué)院學(xué)報;2010年02期
中國重要會議論文全文數(shù)據(jù)庫 前2條
1 張昀;趙榮椿;趙歆波;周圓;鄭江濱;;視線跟蹤技術(shù)的2D和3D方法綜述[A];第十三屆全國信號處理學(xué)術(shù)年會(CCSP-2007)論文集[C];2007年
2 白文濤;劉正捷;寧濤;竇赫男;;用鼠標(biāo)模擬視線跟蹤技術(shù)[A];第一屆建立和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會議(HHME2005)論文集[C];2005年
中國博士學(xué)位論文全文數(shù)據(jù)庫 前1條
1 劉瑞安;單攝像機(jī)視線跟蹤技術(shù)研究[D];天津大學(xué);2007年
中國碩士學(xué)位論文全文數(shù)據(jù)庫 前8條
1 楊瑞;人機(jī)交互中視線跟蹤技術(shù)的研究[D];西安電子科技大學(xué);2015年
2 宮德麟;基于單目視覺的視線跟蹤技術(shù)研究[D];北京理工大學(xué);2016年
3 黃喬;視線跟蹤技術(shù)與視線輸入的人機(jī)系統(tǒng)研究[D];武漢理工大學(xué);2008年
4 徐興民;視線跟蹤技術(shù)及其應(yīng)用研究[D];南京航空航天大學(xué);2007年
5 楊彩霞;基于近紅外光源的非接觸式視線跟蹤技術(shù)研究[D];山東大學(xué);2012年
6 黃亞勤;基于視線跟蹤技術(shù)的眼控鼠標(biāo)研究與實現(xiàn)[D];西華大學(xué);2011年
7 郭曉波;基于視線跟蹤技術(shù)的眼控鼠標(biāo)系統(tǒng)研究[D];天津大學(xué);2009年
8 蔣春燕;視線跟蹤技術(shù)研究及其在人機(jī)交互字符輸入中的應(yīng)用[D];上海交通大學(xué);2008年
,本文編號:554934
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/554934.html