面向智能電視的隱式手勢(shì)交互建模與算法
【部分圖文】:
?耐枷褡苤∈?用來(lái)描述動(dòng)態(tài)手勢(shì)的持續(xù)時(shí)間.本文中的靜態(tài)手勢(shì)姿態(tài)采用(handcoordinatesdistributionfeatures-Hausdorff,HCDF-H)算法[24]進(jìn)行識(shí)別.首先標(biāo)準(zhǔn)化手勢(shì)圖像,并以手勢(shì)質(zhì)心點(diǎn)到手勢(shì)最遠(yuǎn)點(diǎn)作為手勢(shì)主方向向量;沿主方向?qū)⑹謩?shì)圖像分為8個(gè)子區(qū)域,生成手勢(shì)坐標(biāo)點(diǎn)分布特征向量.其次使用類-Hausdorff距離與手勢(shì)模板庫(kù)中的每種手勢(shì)進(jìn)行對(duì)比,得出最終識(shí)別結(jié)果.該算法能夠避免手勢(shì)旋轉(zhuǎn)、平移、縮放的影響,具有較高的效率和識(shí)別準(zhǔn)確率.在基于視覺(jué)的智能電視手勢(shì)交互中,本文將電視交互系統(tǒng)中的有效靜態(tài)手勢(shì)分為如圖1所示3種類型;基于靜態(tài)手勢(shì)的動(dòng)態(tài)手勢(shì)模型分解如表1所示.圖1不同類型靜態(tài)手勢(shì)圖像表1動(dòng)態(tài)手勢(shì)模型分解圖表動(dòng)態(tài)手勢(shì)行為模型Gesture_startGesture_endorientationlength向前揮手前>20向左揮手左>20向右揮手右>20向上揮手上>20向下?lián)]手下>20握拳動(dòng)作0在智能電視視覺(jué)手勢(shì)交互實(shí)驗(yàn)中,我們發(fā)現(xiàn)每個(gè)動(dòng)態(tài)手勢(shì)開(kāi)始前用戶都會(huì)有意識(shí)的調(diào)整靜態(tài)手勢(shì).在調(diào)整靜態(tài)手勢(shì)的時(shí)間段內(nèi)(調(diào)整靜態(tài)手勢(shì)的時(shí)間段是指用戶從隨機(jī)靜態(tài)手勢(shì)調(diào)整到具有特定語(yǔ)義的理想靜態(tài)手勢(shì)的時(shí)間差),靜態(tài)手勢(shì)的質(zhì)心保持相對(duì)靜止.我們以每連續(xù)T幀手勢(shì)圖像作為一個(gè)靜態(tài)調(diào)整時(shí)間段,連續(xù)T幀內(nèi)靜態(tài)手勢(shì)運(yùn)動(dòng)距離滿足條件閾值D.以D和T作為狀態(tài)轉(zhuǎn)移條件,若連續(xù)T幀內(nèi)手勢(shì)移動(dòng)距離d<D,則進(jìn)入靜態(tài)手勢(shì)識(shí)別階段.運(yùn)動(dòng)方向是區(qū)分不同動(dòng)態(tài)手勢(shì)的關(guān)鍵信息,如果將觸發(fā)動(dòng)態(tài)手勢(shì)的靜態(tài)手勢(shì)質(zhì)心點(diǎn)S為坐標(biāo)原點(diǎn)建立坐標(biāo)系,其與結(jié)束動(dòng)態(tài)手勢(shì)的靜態(tài)手勢(shì)質(zhì)心點(diǎn)E方向判斷關(guān)系如圖2所示.圖2手勢(shì)運(yùn)動(dòng)方向圖2中,手勢(shì)運(yùn)動(dòng)方向可描述為:0,tan1,..:0,tan1,..:0,1tan0,..:0,1tan0,..:(..):0(..)oooooorioooofEzSzZfEzSzZfEzSzZO
齠??質(zhì)瓶?記壩沒(méi)Ф薊嵊幸饈兜牡髡?蔡?手勢(shì).在調(diào)整靜態(tài)手勢(shì)的時(shí)間段內(nèi)(調(diào)整靜態(tài)手勢(shì)的時(shí)間段是指用戶從隨機(jī)靜態(tài)手勢(shì)調(diào)整到具有特定語(yǔ)義的理想靜態(tài)手勢(shì)的時(shí)間差),靜態(tài)手勢(shì)的質(zhì)心保持相對(duì)靜止.我們以每連續(xù)T幀手勢(shì)圖像作為一個(gè)靜態(tài)調(diào)整時(shí)間段,連續(xù)T幀內(nèi)靜態(tài)手勢(shì)運(yùn)動(dòng)距離滿足條件閾值D.以D和T作為狀態(tài)轉(zhuǎn)移條件,若連續(xù)T幀內(nèi)手勢(shì)移動(dòng)距離d<D,則進(jìn)入靜態(tài)手勢(shì)識(shí)別階段.運(yùn)動(dòng)方向是區(qū)分不同動(dòng)態(tài)手勢(shì)的關(guān)鍵信息,如果將觸發(fā)動(dòng)態(tài)手勢(shì)的靜態(tài)手勢(shì)質(zhì)心點(diǎn)S為坐標(biāo)原點(diǎn)建立坐標(biāo)系,其與結(jié)束動(dòng)態(tài)手勢(shì)的靜態(tài)手勢(shì)質(zhì)心點(diǎn)E方向判斷關(guān)系如圖2所示.圖2手勢(shì)運(yùn)動(dòng)方向圖2中,手勢(shì)運(yùn)動(dòng)方向可描述為:0,tan1,..:0,tan1,..:0,1tan0,..:0,1tan0,..:(..):0(..)oooooorioooofEzSzZfEzSzZfEzSzZOfEzSzZEzSzZEzSzZ上下左右前后(1)tan(..),1tan0tan(..),tan1oExSxfEySy,..tan..EySyExSx.在坐標(biāo)系XSY上根據(jù)S和E計(jì)算向量SE與X軸夾角的正切值,根據(jù)正切值的絕對(duì)值判斷出手勢(shì)運(yùn)動(dòng)方向;上下方向根據(jù)2個(gè)坐標(biāo)點(diǎn)Y軸坐標(biāo)差值的正負(fù)判斷具體方向,左右方向根據(jù)2個(gè)坐標(biāo)點(diǎn)X軸坐標(biāo)差值判斷具體方向;Z軸方向,手勢(shì)水平位移閾值絕對(duì)值為Zo.根據(jù)DGDM,我們可以判斷出動(dòng)態(tài)手勢(shì)類型(dynamicgesturetype,DGT),并用特征向量DGT描述一種動(dòng)態(tài)手勢(shì),不同的動(dòng)態(tài)手勢(shì)可根據(jù)不同的語(yǔ)義、開(kāi)始手勢(shì)、結(jié)束手勢(shì)、方向以及持續(xù)時(shí)間來(lái)描述,DGT=(ID,p,G_s,G_e,o,l).動(dòng)態(tài)手勢(shì)類型識(shí)別的算法(dynamicgesturerecognitionalgorithm,DGRA)流程如圖3所示.1.2多層次上下文模型的建立智能電視視覺(jué)手勢(shì)交互系統(tǒng)中主要考慮3種形式的上下文信息,分別是智能電視狀態(tài)?
第2期徐治鵬,等:面向智能電視的隱式手勢(shì)交互建模與算法347圖3DGRA流程圖節(jié)目播放狀態(tài)、主頁(yè)切換功能狀態(tài)、待機(jī)狀態(tài)”和通過(guò)推理獲得的高層交互情景事件與用戶意圖,又如“電視正處在手勢(shì)功能激活狀態(tài)”、“電視正處在頻道調(diào)節(jié)狀態(tài)”和“電視正處在音量調(diào)節(jié)狀態(tài)”,這類信息是對(duì)人體手勢(shì)動(dòng)作理解的關(guān)鍵,是解決用戶行為多義性的重要依據(jù).2)與用戶有關(guān)的上下文包括人體重心的相對(duì)位置與手部動(dòng)作行為信息.3)用戶與智能電視的關(guān)聯(lián)上下文,被定義為用戶位置事件,與智能電視的開(kāi)關(guān)狀態(tài)關(guān)聯(lián),如“電視工作狀態(tài)下用戶處于電視有效操作范圍內(nèi)”.對(duì)基于視覺(jué)的智能電視手勢(shì)交互場(chǎng)景上下文,建立多層次上下文模型,如圖4所示.圖4智能電視手勢(shì)交互的多層次上下文模型2基于CDL-DFCM模型的隱式交互2.1CDL-DFCM模型的設(shè)計(jì)與建立為了識(shí)別交互情景事件與主動(dòng)理解用戶的意圖,本文對(duì)用戶行為和智能電視狀態(tài)進(jìn)行分析,根據(jù)多層次上下文模型提出了一種基于DFCM的多層次動(dòng)態(tài)上下文推理模型(contextofdynamiclogic-DFCM,CDL-DFCM).CDL-DFCM能夠?qū)崿F(xiàn)對(duì)用戶操作意圖的感知,并以在線檢測(cè)方式實(shí)時(shí)對(duì)上下文數(shù)據(jù)進(jìn)行處理.在CDL-DFCM模型中,交互概念節(jié)點(diǎn)分為4類:智能電視狀態(tài)交互概念節(jié)點(diǎn),描述與智能電視功能狀態(tài)有關(guān)的上下文;用戶行為交互概念節(jié)點(diǎn),描述用戶手勢(shì)交互行為;交互情景概念節(jié)點(diǎn),描述具體交互任務(wù)的交互情景事件;操作語(yǔ)義的概念節(jié)點(diǎn),描述用戶的操作意圖,與交互情景事件相關(guān)聯(lián).針對(duì)基于視覺(jué)的智能電視手勢(shì)交互系統(tǒng)的基本操作需求,本文對(duì)智能電視中頻道調(diào)節(jié)、音量調(diào)節(jié)、手勢(shì)開(kāi)關(guān)控制功能的手勢(shì)交互進(jìn)行分析研究.設(shè)置手勢(shì)開(kāi)關(guān)控制功能的目的是實(shí)現(xiàn)與其他交互通道的平滑融合,防止產(chǎn)生相互干擾.交互概念節(jié)點(diǎn)集合C表示CDL-DFCM模型中全部節(jié)點(diǎn)的集合,C
【參考文獻(xiàn)】
相關(guān)期刊論文 前10條
1 劉慧;馮志全;梁麗偉;徐治鵬;;虛擬界面自然交互模型與算法[J];浙江大學(xué)學(xué)報(bào)(工學(xué)版);2016年06期
2 楊學(xué)文;馮志全;黃忠柱;何娜娜;;結(jié)合手勢(shì)主方向和類-Hausdorff距離的手勢(shì)識(shí)別[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2016年01期
3 梁卓銳;徐向民;;面向視覺(jué)手勢(shì)交互的映射關(guān)系自適應(yīng)調(diào)整[J];華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版);2014年08期
4 王巍;黃曉丹;趙繼軍;申艷光;;隱式人機(jī)交互[J];信息與控制;2014年01期
5 王國(guó)建;陶霖密;;支持隱式人機(jī)交互的分布式視覺(jué)系統(tǒng)[J];中國(guó)圖象圖形學(xué)報(bào);2010年08期
6 武匯岳;張鳳軍;劉玉進(jìn);戴國(guó)忠;;基于視覺(jué)的手勢(shì)界面關(guān)鍵技術(shù)研究[J];計(jì)算機(jī)學(xué)報(bào);2009年10期
7 張秋余;姚開(kāi)博;吳佩莉;;基于矩形特征和改進(jìn)Adaboost的手勢(shì)檢測(cè)[J];計(jì)算機(jī)工程;2008年14期
8 徐光祐;陶霖密;史元春;張翔;;普適計(jì)算模式下的人機(jī)交互[J];計(jì)算機(jī)學(xué)報(bào);2007年07期
9 秦嚴(yán)嚴(yán);田豐;王曉春;戴國(guó)忠;;以交互為中心的Post-WIMP界面模型[J];軟件學(xué)報(bào);2006年04期
10 任海兵,祝遠(yuǎn)新,徐光,林學(xué),張嘵平;基于視覺(jué)手勢(shì)識(shí)別的研究—綜述[J];電子學(xué)報(bào);2000年02期
相關(guān)碩士學(xué)位論文 前3條
1 趙思敏;智能電視手勢(shì)交互系統(tǒng)的設(shè)計(jì)[D];華南理工大學(xué);2015年
2 閔凡文;基于認(rèn)知行為模型庫(kù)和Kinect平臺(tái)的實(shí)時(shí)手勢(shì)跟蹤算法研究[D];濟(jì)南大學(xué);2014年
3 劉雪君;面向互動(dòng)電視的手勢(shì)交互系統(tǒng)研究與實(shí)現(xiàn)[D];復(fù)旦大學(xué);2013年
【共引文獻(xiàn)】
相關(guān)期刊論文 前10條
1 徐治鵬;馮志全;劉慧;梁麗偉;;面向智能電視的隱式手勢(shì)交互建模與算法[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2017年02期
2 胡志剛;王延超;吳群;周浩杰;;基于自然交互的FBS設(shè)計(jì)模型[J];包裝工程;2017年02期
3 張春燕;;基于計(jì)算機(jī)視覺(jué)的可變形手勢(shì)跟蹤算法改進(jìn)研究[J];計(jì)算機(jī)測(cè)量與控制;2016年11期
4 霍鵬飛;;基于計(jì)算機(jī)視覺(jué)的3D手勢(shì)交互系統(tǒng)[J];現(xiàn)代電子技術(shù);2016年17期
5 丁毅;曹江濤;李平;姬曉飛;;復(fù)雜背景下的手勢(shì)識(shí)別算法研究[J];自動(dòng)化技術(shù)與應(yīng)用;2016年08期
6 吳彩芳;謝鈞;俞璐;周開(kāi)店;;連續(xù)隱馬爾科夫的靜態(tài)手勢(shì)識(shí)別法[J];計(jì)算機(jī)系統(tǒng)應(yīng)用;2016年08期
7 姜麗;楊冬風(fēng);尹淑欣;;基于計(jì)算機(jī)視覺(jué)的靜態(tài)手勢(shì)識(shí)別系統(tǒng)[J];科技展望;2016年20期
8 黃凱;呂健;潘偉杰;;體感展示系統(tǒng)中的交互映射動(dòng)作分析與研究[J];包裝工程;2016年14期
9 陳保;蘇順開(kāi);;基于Kinect的手勢(shì)識(shí)別與閾值法[J];數(shù)字技術(shù)與應(yīng)用;2016年07期
10 潘萬(wàn)彬;趙偉華;;翻轉(zhuǎn)課堂在人機(jī)交互技術(shù)課程中的研究與應(yīng)用[J];赤峰學(xué)院學(xué)報(bào)(自然科學(xué)版);2016年12期
相關(guān)碩士學(xué)位論文 前3條
1 何娜娜;面向三維手勢(shì)交互界面的用戶視覺(jué)關(guān)注分布特征研究[D];濟(jì)南大學(xué);2015年
2 楊學(xué)文;面向交互語(yǔ)義的用戶基本手勢(shì)實(shí)時(shí)檢索方法研究[D];濟(jì)南大學(xué);2015年
3 黃忠柱;三維交互界面中用戶手勢(shì)的表達(dá)風(fēng)格研究[D];濟(jì)南大學(xué);2015年
【二級(jí)參考文獻(xiàn)】
相關(guān)期刊論文 前10條
1 楊學(xué)文;馮志全;黃忠柱;何娜娜;;結(jié)合手勢(shì)主方向和類-Hausdorff距離的手勢(shì)識(shí)別[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2016年01期
2 馮志全;楊波;徐濤;唐好魁;呂娜;;基于自然手勢(shì)跟蹤的直接操作型三維人機(jī)交互范式[J];計(jì)算機(jī)學(xué)報(bào);2014年06期
3 王海;金晅宏;;彩色圖像中基于Hu矩的手勢(shì)識(shí)別方法研究[J];信息技術(shù);2013年11期
4 馮志全;楊波;鄭艷偉;徐濤;唐好魁;;基于用戶行為分析的手勢(shì)跟蹤方法[J];軟件學(xué)報(bào);2013年09期
5 武霞;張崎;許艷旭;;手勢(shì)識(shí)別研究發(fā)展現(xiàn)狀綜述[J];電子科技;2013年06期
6 馮志全;蔣彥;;手勢(shì)識(shí)別研究綜述[J];濟(jì)南大學(xué)學(xué)報(bào)(自然科學(xué)版);2013年04期
7 關(guān)然;徐向民;羅雅愉;苗捷;裘索;;基于計(jì)算機(jī)視覺(jué)的手勢(shì)檢測(cè)識(shí)別技術(shù)[J];計(jì)算機(jī)應(yīng)用與軟件;2013年01期
8 劉松濤;殷福亮;;基于圖割的圖像分割方法及其新進(jìn)展[J];自動(dòng)化學(xué)報(bào);2012年06期
9 劉大有;劉春辰;王生生;;環(huán)境智能中上下文推理方法研究綜述[J];模式識(shí)別與人工智能;2011年05期
10 武匯岳;張鳳軍;劉玉進(jìn);胡銀煥;戴國(guó)忠;;基于視覺(jué)的互動(dòng)游戲手勢(shì)界面工具箱[J];軟件學(xué)報(bào);2011年05期
相關(guān)碩士學(xué)位論文 前9條
1 劉炳超;手勢(shì)三維跟蹤中的觀測(cè)似然模型研究[D];濟(jì)南大學(xué);2013年
2 陳靜;基于Kinect的手勢(shì)識(shí)別技術(shù)及其在教學(xué)中的應(yīng)用[D];上海交通大學(xué);2013年
3 陳子毫;基于深度信息的手勢(shì)檢測(cè)與跟蹤[D];華南理工大學(xué);2012年
4 林燕;基于多模型融合的人手三維跟蹤研究[D];濟(jì)南大學(xué);2012年
5 許婷;基于行為分析的運(yùn)動(dòng)人手跟蹤方法的研究[D];濟(jì)南大學(xué);2011年
6 朱德良;基于交互分析的人手三維跟蹤方法研究[D];濟(jì)南大學(xué);2011年
7 鄔大鵬;基于視覺(jué)的手勢(shì)識(shí)別及人機(jī)交互研究[D];南京航空航天大學(xué);2010年
8 孔俊其;基于三維加速度傳感器的手勢(shì)識(shí)別及交互模型研究[D];蘇州大學(xué);2009年
9 朱杰;基于數(shù)據(jù)手套和跟蹤器的人機(jī)交互技術(shù)的研究[D];解放軍信息工程大學(xué);2009年
本文編號(hào):2837132
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/2837132.html