面向移動(dòng)設(shè)備人機(jī)交互的眼動(dòng)跟蹤系統(tǒng)
本文選題:眼動(dòng)跟蹤 切入點(diǎn):移動(dòng)設(shè)備 出處:《浙江工業(yè)大學(xué)》2016年碩士論文 論文類型:學(xué)位論文
【摘要】:眼動(dòng)跟蹤技術(shù)可分析、記錄用戶的注視點(diǎn)坐標(biāo),在心理學(xué)、廣告評(píng)測(cè)和人機(jī)交互等領(lǐng)域已得到廣泛的應(yīng)用。隨著機(jī)器視覺、圖像處理技術(shù)的快速發(fā)展和硬件水平的飛速提升,眼動(dòng)跟蹤技術(shù)也逐漸在移動(dòng)設(shè)備上得到應(yīng)用。然而由于受到移動(dòng)設(shè)備硬件水平的限制,例如自帶攝像頭像素較低,處理器的性能遠(yuǎn)落后于個(gè)人電腦等問題,面向移動(dòng)設(shè)備的眼動(dòng)跟蹤技術(shù)依然存在計(jì)算效率低下、跟蹤誤差較大等問題。為了實(shí)現(xiàn)面向移動(dòng)設(shè)備人機(jī)交互的眼動(dòng)跟蹤系統(tǒng),本文提出改進(jìn)的眼動(dòng)跟蹤技術(shù),并針對(duì)相關(guān)的人機(jī)交互應(yīng)用進(jìn)行了研究,主要內(nèi)容如下:(1)面向移動(dòng)設(shè)備眼動(dòng)跟蹤的圖像處理技術(shù)研究。由于移動(dòng)設(shè)備硬件資源匱乏,其眼動(dòng)跟蹤的計(jì)算效率較低,對(duì)眼動(dòng)跟蹤效果影響較大。為此,通過逐層縮小圖像處理范圍的方法,提高圖像處理計(jì)算效率。首先使用改進(jìn)的局部二值特征級(jí)聯(lián)分類器對(duì)移動(dòng)設(shè)備前置攝像頭捕獲的圖像進(jìn)行人臉檢測(cè),判斷并提取人臉區(qū)域;然后通過計(jì)算人臉區(qū)域的相對(duì)位置得到人眼預(yù)選取區(qū)域,并針對(duì)該區(qū)域使用Haar特征級(jí)聯(lián)分類器進(jìn)行人眼檢測(cè),判斷并提取人眼區(qū)域。(2)面向移動(dòng)設(shè)備眼動(dòng)跟蹤的注視點(diǎn)計(jì)算方法研究。由于人眼區(qū)域檢測(cè)存在偏差等情況,提取人眼區(qū)域后將該區(qū)域的各邊進(jìn)行適當(dāng)?shù)臄U(kuò)展得到精確人眼預(yù)選區(qū)域(包含完整的人眼輪廓,但相較人眼預(yù)選取區(qū)域更為精確排除頭發(fā)、眉毛等干擾物),隨后使用二值化和輪廓提取的方法得到更為精準(zhǔn)的人眼圖像外接矩形和虹膜與上眼瞼連通區(qū)域輪廓,并計(jì)算得到人眼圖像外接矩形中心(eye center,EC),以及虹膜與上眼瞼連通區(qū)域輪廓的重心(centre of gravity,CG)。進(jìn)而建立人眼圖像外接矩形中心指向虹膜與上眼瞼連通區(qū)域輪廓重心的向量(EC-CG向量)。最后通過標(biāo)定方法,擬合EC-CG向量與注視點(diǎn)的映射關(guān)系,實(shí)現(xiàn)注視點(diǎn)的準(zhǔn)確計(jì)算。(3)基于移動(dòng)設(shè)備眼動(dòng)跟蹤的人機(jī)交互應(yīng)用研究。設(shè)計(jì)與開發(fā)了基于智能手機(jī)的眼動(dòng)跟蹤原型系統(tǒng),該系統(tǒng)可以準(zhǔn)確、高效的獲取用戶眼動(dòng)數(shù)據(jù)。在此基礎(chǔ)上,對(duì)眼動(dòng)數(shù)據(jù)進(jìn)行可視化處理與分析,繪制眼動(dòng)數(shù)據(jù)熱區(qū)圖、感興趣區(qū)域(Area of Interest,AOI)重點(diǎn)標(biāo)記圖、感興趣區(qū)域之間的視線轉(zhuǎn)換關(guān)系圖。最后以智能手機(jī)上的圖片廣告為例,應(yīng)用上述眼動(dòng)數(shù)據(jù)可視化方法,實(shí)現(xiàn)多用戶之間眼動(dòng)數(shù)據(jù)可視化結(jié)果的分享。本文針對(duì)眼動(dòng)跟蹤精度和應(yīng)用原型系統(tǒng)進(jìn)行了用戶測(cè)試。眼動(dòng)跟蹤精度測(cè)試結(jié)果顯示,本文的眼動(dòng)跟蹤精度為2.80°~3.56°,眼動(dòng)跟蹤平均處理速度為6.01幀/s,可見本文系統(tǒng)具有較好的實(shí)時(shí)性和較高的精度,對(duì)眼動(dòng)跟蹤在移動(dòng)設(shè)備的應(yīng)用和推廣有積極的推動(dòng)作用。應(yīng)用原形系統(tǒng)用戶測(cè)試表明,通過眼動(dòng)數(shù)據(jù)可視化結(jié)果的分享,有效提高了新手用戶對(duì)圖片廣告上信息的查看效率和理解水平,進(jìn)一步驗(yàn)證了本文所提眼動(dòng)跟蹤技術(shù)以及人機(jī)交互應(yīng)用的實(shí)用性和有效性。
[Abstract]:Eye tracking has been widely used in psychology, advertising evaluation, human-computer interaction and so on. With the rapid development of machine vision, image processing technology and the rapid improvement of hardware level, eye tracking technology can be used to analyze, record the coordinate of the user's fixation points, and have been widely used in the fields of psychology, advertising evaluation and human-computer interaction. Eye tracking technology is also gradually being used in mobile devices. However, due to the limitations of the hardware level of mobile devices, such as the low pixel of the camera itself, the performance of the processor lags far behind that of the personal computer. Eye tracking technology for mobile devices still has some problems, such as low computing efficiency and large tracking error. In order to realize eye tracking system for man-machine interaction of mobile devices, an improved eye tracking technology is proposed in this paper. The main contents are as follows: 1) Image processing technology for eye tracking in mobile devices. Due to the lack of hardware resources of mobile devices, the computing efficiency of eye tracking is low. It has a great effect on eye movement tracking. Therefore, by reducing the range of image processing layer by layer, Firstly, the improved local binary feature cascade classifier is used to detect the face of the image captured by the front camera of the mobile device, to judge and extract the face region. Then the human eye pre-selected region is obtained by calculating the relative position of the human face region, and the human eye detection is carried out by using the Haar feature cascade classifier for the region. To judge and extract the human eye region. 2) Research on the calculation method of fixed point for eye movement tracking of mobile devices. Because of the deviation of human eye region detection, After extracting the human eye region and extending each side of the region properly, the precise human eye pre-selected area is obtained (including the complete human eye contour, but the hair is excluded more accurately than the human eye pre-selected area. The obliterated objects such as eyebrows were then used to obtain the contour of the outer rectangle and iris connected to the upper eyelid by using the method of binarization and contour extraction. The center of gravity of the contour of the connected area between the iris and the upper eyelid and the center of gravity of the contour of the connected area between the iris and the upper eyelid are calculated. Furthermore, the vector of the center of gravity of the external rectangular center of the eye image pointing to the center of gravity of the contour of the iris and the upper eyelid is established. Finally, through the calibration method, Fitting the mapping relationship between EC-CG vector and fixation point, realizing the accurate calculation of fixation point.) the research of human-computer interaction application based on mobile device eye movement tracking is carried out. A prototype system of eye movement tracking based on smart phone is designed and developed, and the system can be accurate. On the basis of this, visualize and analyze the eye movement data, draw the hot zone map of eye movement data, and draw the key mark map of area of interest. Finally, take the picture advertisement on the smartphone as an example, apply the above method to visualize the eye movement data. In this paper, the user test of eye movement tracking accuracy and application prototype system is carried out, and the result of eye movement tracking precision test shows that, The accuracy of eye tracking is 2.80 擄/ 3.56 擄and the average processing speed of eye tracking is 6.01 frame / s. It has a positive effect on the application and popularization of eye movement tracking in mobile devices. The user test of the prototype system shows that through the sharing of visual results of eye movement data, It can effectively improve the efficiency and understanding level of the new users to view the information on the image advertisement, and further verify the practicability and effectiveness of the eye movement tracking technology and the human-computer interaction application mentioned in this paper.
【學(xué)位授予單位】:浙江工業(yè)大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類號(hào)】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 劉麗娟;劉泓;國倫書;張韶華;;以人機(jī)交互實(shí)施人本教學(xué)的探索[J];科技咨詢導(dǎo)報(bào);2007年09期
2 馬薈;;連接未來的人機(jī)交互[J];互聯(lián)網(wǎng)周刊;2010年07期
3 張毅;劉嬌;羅元;;基于唇形的人機(jī)交互系統(tǒng)研究及其應(yīng)用[J];計(jì)算機(jī)教育;2012年18期
4 ;人機(jī)交互的進(jìn)化與未來[J];互聯(lián)網(wǎng)周刊;2014年Z1期
5 TURKMatthew;感知媒體——機(jī)器感知與人機(jī)交互(英文)[J];計(jì)算機(jī)學(xué)報(bào);2000年12期
6 張向波,邢朝偉;符號(hào)學(xué)在人機(jī)交互中的應(yīng)用[J];微機(jī)發(fā)展;2003年10期
7 ;人機(jī)交互的熱點(diǎn)技術(shù)應(yīng)用人機(jī)交互:讓電腦“讀”懂你的心[J];黑龍江科技信息;2012年19期
8 張國棟;趙其杰;屠大維;盧建霞;江濟(jì)良;;基于認(rèn)知語義的視線跟蹤人機(jī)交互任務(wù)設(shè)計(jì)[J];人類工效學(xué);2012年03期
9 周莉莉;呂琴琴;;基于智能技術(shù)發(fā)展的人機(jī)交互和諧設(shè)計(jì)方法研究[J];美術(shù)教育研究;2013年06期
10 袁保宗,阮秋琦,王延江,劉汝杰,唐曉芳;新一代(第四代)人機(jī)交互的概念框架特征及關(guān)鍵技術(shù)[J];電子學(xué)報(bào);2003年S1期
相關(guān)會(huì)議論文 前10條
1 王琳;饒培倫;;面向老齡用戶的人機(jī)交互界面設(shè)計(jì)[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年
2 羅斌;唐錫晉;張楠;;強(qiáng)化人機(jī)交互的在線會(huì)場(chǎng)[A];和諧發(fā)展與系統(tǒng)工程——中國系統(tǒng)工程學(xué)會(huì)第十五屆年會(huì)論文集[C];2008年
3 王德才;原偉;孫牧;;基于Microsoft Agent開發(fā)人機(jī)交互程序[A];全國第20屆計(jì)算機(jī)技術(shù)與應(yīng)用學(xué)術(shù)會(huì)議(CACIS·2009)暨全國第1屆安全關(guān)鍵技術(shù)與應(yīng)用學(xué)術(shù)會(huì)議論文集(下冊(cè))[C];2009年
4 張光劉;李琳;譚劍波;;體感設(shè)備與被動(dòng)立體相結(jié)合的人機(jī)交互方法初探[A];全國第21屆計(jì)算機(jī)技術(shù)與應(yīng)用學(xué)術(shù)會(huì)議(CACIS·2010)暨全國第2屆安全關(guān)鍵技術(shù)與應(yīng)用學(xué)術(shù)會(huì)議論文集[C];2010年
5 林雅麗;;面向老年人的網(wǎng)上銀行人機(jī)交互設(shè)計(jì)評(píng)價(jià)初探[A];2013中國信息經(jīng)濟(jì)學(xué)會(huì)學(xué)術(shù)年會(huì)暨博士生論壇論文集[C];2013年
6 王奇志;徐德;時(shí)魯艷;;機(jī)器人模仿學(xué)習(xí)與人機(jī)交互的學(xué)習(xí)控制綜述[A];第25屆中國控制與決策會(huì)議論文集[C];2013年
7 黃捷;;人機(jī)交互在震動(dòng)環(huán)境下的仿真模型設(shè)計(jì)與實(shí)驗(yàn)測(cè)試[A];第四屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議論文集[C];2008年
8 賴小卿;;一類人機(jī)交互訪問沖突控制策略及算法研究[A];2009年全國開放式分布與并行計(jì)算機(jī)學(xué)術(shù)會(huì)議論文集(上冊(cè))[C];2009年
9 王平;陸繼翔;王昕;陸長德;;3G終端跨平臺(tái)虛擬三維人機(jī)交互研究[A];陜西省機(jī)械工程學(xué)會(huì)第九次代表大會(huì)會(huì)議論文集[C];2009年
10 郭北苑;方衛(wèi)寧;;人機(jī)交互中基于眼動(dòng)儀的輸入技術(shù)研究[A];第二屆全國信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2004年
相關(guān)重要報(bào)紙文章 前10條
1 戴國忠;人機(jī)交互進(jìn)入第三代[N];中國計(jì)算機(jī)報(bào);2009年
2 本報(bào)記者 滕繼濮;人機(jī)交互:理想境界還有多遠(yuǎn)?[N];科技日?qǐng)?bào);2010年
3 本報(bào)記者 張意軒;人機(jī)交互漸行漸近[N];人民日?qǐng)?bào)海外版;2010年
4 美國卡內(nèi)基梅隆大學(xué)計(jì)算機(jī)學(xué)博士,微軟雷德蒙研究院可視化及互動(dòng)領(lǐng)域研究員 Desney Tan;人機(jī)交互 那些觸手可及的夢(mèng)想[N];電腦報(bào);2009年
5 本報(bào)記者 滕繼濮;人機(jī)交互:技術(shù)為人服務(wù)[N];科技日?qǐng)?bào);2011年
6 哈弗布雷;人機(jī)交互的終極進(jìn)化[N];電腦報(bào);2013年
7 本報(bào)實(shí)習(xí)記者 馬爽;人機(jī)交互多樣化 引領(lǐng)智能設(shè)備變革[N];中國證券報(bào);2014年
8 趙震剛;智能自助機(jī)具需要更和諧的人機(jī)交互[N];中國城鄉(xiāng)金融報(bào);2014年
9 本報(bào)記者 朱麗;人機(jī)交互:讓電腦“讀”懂你的心[N];科技日?qǐng)?bào);2012年
10 本報(bào)記者 蔣秀娟;人機(jī)交互:一個(gè)“耳提面命”的智能時(shí)代[N];科技日?qǐng)?bào);2013年
相關(guān)博士學(xué)位論文 前6條
1 鄭弋源;民用飛機(jī)駕駛艙人機(jī)交互機(jī)理與評(píng)價(jià)方法研究[D];上海交通大學(xué);2015年
2 黃淦;生物表面電信號(hào)建模、分析及其在人機(jī)交互中的應(yīng)用[D];上海交通大學(xué);2013年
3 錢志勤;人機(jī)交互的演化設(shè)計(jì)方法及其在航天器艙布局方案設(shè)計(jì)中的應(yīng)用[D];大連理工大學(xué);2001年
4 劉樂元;面向有限資源平臺(tái)人機(jī)交互的人手檢測(cè)與跟蹤[D];華中科技大學(xué);2012年
5 胡明輝;人機(jī)交互等待狀態(tài)的用戶體驗(yàn)研究和設(shè)計(jì)對(duì)策[D];北京理工大學(xué);2015年
6 廖峗;基于裸手的自然人機(jī)交互關(guān)鍵算法研究[D];云南大學(xué);2012年
相關(guān)碩士學(xué)位論文 前10條
1 牟福龍;以人機(jī)交互理論為核心的B超設(shè)計(jì)研究[D];西南交通大學(xué);2015年
2 羅楠;人機(jī)交互學(xué)習(xí)系統(tǒng)實(shí)現(xiàn)及學(xué)生興趣程度檢測(cè)[D];華中師范大學(xué);2015年
3 林水強(qiáng);自然人機(jī)交互關(guān)鍵技術(shù)研究及其應(yīng)用[D];西南科技大學(xué);2015年
4 孫琴;基于機(jī)器視覺的三維手勢(shì)交互技術(shù)研究[D];電子科技大學(xué);2014年
5 甘玉龍;基于眼電的智能輸入系統(tǒng)[D];電子科技大學(xué);2015年
6 李鶴;基于人機(jī)交互模式的救援人員心理救助系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];東北大學(xué);2014年
7 何娜娜;面向三維手勢(shì)交互界面的用戶視覺關(guān)注分布特征研究[D];濟(jì)南大學(xué);2015年
8 金宇;面向人機(jī)交互的注視點(diǎn)估計(jì)技術(shù)研究[D];南京大學(xué);2014年
9 曾繁江;基于機(jī)器學(xué)習(xí)的以人為中心的自然人機(jī)交互[D];南京大學(xué);2013年
10 韓霞;媒體建筑環(huán)境視角下互動(dòng)設(shè)計(jì)研究[D];中央美術(shù)學(xué)院;2016年
,本文編號(hào):1636835
本文鏈接:http://sikaile.net/wenyilunwen/guanggaoshejilunwen/1636835.html