基于隱馬爾科夫模型的特定姿態(tài)檢測
本文選題:HMM應(yīng)用 + 姿態(tài)檢測; 參考:《電子科技大學》2014年碩士論文
【摘要】:在高度信息化的社會,視頻監(jiān)控已經(jīng)廣泛應(yīng)用于生活的每個角落。目前的監(jiān)控方式還是屬于傳統(tǒng)的記錄形式,對于一些重點場所還需要以人工的方式值守在監(jiān)視器前。對于井噴式增長的監(jiān)控數(shù)據(jù)而言,這顯然不是一個高效且經(jīng)濟的監(jiān)控方式。伴隨著計算機視覺、圖像處理技術(shù)的飛速發(fā)展,智能視頻監(jiān)控技術(shù)也逐漸成為研究領(lǐng)域的一大熱點。在智能監(jiān)控應(yīng)用場景中,如何有效地識別出某些特定姿態(tài)行為的姿態(tài)具有很強的實用性和研究價值,因此已經(jīng)成為智能視頻監(jiān)控研究的重點方向之一。由于監(jiān)控場景的往往都很復雜,為了能獲得很好的姿態(tài)檢測結(jié)果就需要一套行之有效的姿態(tài)檢測方案。在借鑒隱馬爾科夫模型在語音識別領(lǐng)域成熟應(yīng)用的基礎(chǔ)上,本文提出了一種基于隱馬爾科夫模型的姿態(tài)檢測技術(shù)。該方案包括的完整檢測過程包括:前景檢測、前景過濾、目標跟蹤、特征提取以及獲取姿態(tài)序列幾個主要步驟。根據(jù)人體姿態(tài)動作具有時空連續(xù)性這一特點,該方案選取了人體姿態(tài)發(fā)生過程中的時空信息作為特征,對人體姿態(tài)進行分析。在方案中采用基于時間和空間的特征分析方法,有效地刻畫了人體姿態(tài)。對于人體姿態(tài)在圖像兩幀序列中的時間信息,本方案采用光流方法,提取人體姿態(tài)的運動信息,將獲得的幅度和相位分布情況作為運動特征。對于在單幀圖像的空間信息,即人體姿態(tài)在某個時刻的動作,本文基于一種快速的梯度響應(yīng)圖算法,提出了新的關(guān)于人體姿態(tài)匹配方法。充分利用了局部區(qū)域的關(guān)鍵動作代替了整體的人體姿態(tài),簡化了匹配過程中的復雜度。同時,在模板匹配的過程中,利用不同姿態(tài)和不同角度建立了層次性的模板匹配,采用該方法能在提高準確率的同時有效保證了檢測速度。最后,將獲得的時間和空間特征信息,基于隱馬爾科夫模型獲得人體姿態(tài)的狀態(tài)序列,以此作為檢測結(jié)果。在文中,分章節(jié)的形式介紹了本方案的技術(shù)框架,以拍照姿態(tài)檢測為例實現(xiàn)了基于隱馬爾科夫模型的拍照姿態(tài)檢測原型系統(tǒng)。實驗表明,該方法具有較強的魯棒性和實時性。
[Abstract]:In the highly information society, video surveillance has been widely used in every corner of life. The current monitoring method is still a traditional record form, for some key places still need to be manned in front of the monitor. This is clearly not an efficient and economical way to monitor blowout growth data. With the rapid development of computer vision and image processing technology, intelligent video surveillance technology has gradually become a hot spot in the field of research. In the application of intelligent surveillance, how to effectively identify the posture of certain posture behavior has strong practicability and research value, so it has become one of the key research directions of intelligent video surveillance. Because the monitoring scene is often very complex, in order to obtain a good attitude detection results, we need a set of effective attitude detection scheme. Based on the mature application of Hidden Markov Model in speech recognition, a new attitude detection technique based on Hidden Markov Model is proposed in this paper. The scheme includes the following steps: foreground detection, foreground filtering, target tracking, feature extraction and attitude sequence acquisition. According to the fact that human posture has the characteristics of spatio-temporal continuity, this scheme selects the space-time information in the process of human posture as the feature, and analyzes the human posture. The method of feature analysis based on time and space is used to depict human posture effectively. For the time information of human posture in two frames of image, the method of optical flow is used to extract the motion information of human body attitude, and the amplitude and phase distribution is taken as the motion feature. For the spatial information of a single frame image, that is, the movement of human posture at a certain time, a new method of human posture matching is proposed based on a fast gradient response graph algorithm. The key action of the local region is used to replace the whole human posture, and the complexity of the matching process is simplified. At the same time, in the process of template matching, the hierarchical template matching is established by using different attitude and different angles. This method can improve the accuracy and ensure the detection speed effectively. Finally, based on the temporal and spatial feature information obtained, the state sequence of human posture is obtained based on Hidden Markov Model, which is used as the detection result. In this paper, the technical framework of this scheme is introduced in the form of chapters, and the prototype system of pose detection based on hidden Markov model is implemented by taking photo attitude detection as an example. Experiments show that this method is robust and real-time.
【學位授予單位】:電子科技大學
【學位級別】:碩士
【學位授予年份】:2014
【分類號】:TN948.6
【共引文獻】
相關(guān)期刊論文 前10條
1 徐勤軍;吳鎮(zhèn)揚;;視頻序列中的行為識別研究進展[J];電子測量與儀器學報;2014年04期
2 張旭東;楊靜;胡良梅;段琳琳;;基于多層運動歷史圖像的飛行時間相機人體運動識別[J];電子與信息學報;2014年05期
3 劉開余;夏斌;;基于Kinect的實時人體姿勢識別[J];電子設(shè)計工程;2014年19期
4 田建濤;蘇沛;王娜;;視覺機器人貨物識別技術(shù)探究[J];北京聯(lián)合大學學報;2014年04期
5 白琛;孫軍華;;基于局域性約束線性編碼的人體動作識別[J];北京航空航天大學學報;2015年06期
6 李瑞峰;王亮亮;王珂;;人體動作行為識別研究綜述[J];模式識別與人工智能;2014年01期
7 田國會;尹建芹;韓旭;于靜;;一種基于關(guān)節(jié)點信息的人體行為識別新方法[J];機器人;2014年03期
8 Xiao-Fei Ji;Qian-Qian Wu;Zhao-Jie Ju;Yang-Yang Wang;;Study of Human Action Recognition Based on Improved Spatio-temporal Features[J];International Journal of Automation & Computing;2014年05期
9 王詩言;于慧敏;;基于全變分的運動分割模型及分裂Bregman算法[J];自動化學報;2015年02期
10 石祥濱;孫巖;張鳳添;;基于組合特征的人體動作識別算法研究[J];沈陽航空航天大學學報;2015年03期
相關(guān)博士學位論文 前5條
1 曹雛清;面向多方式人際交互的肢體動作識別研究[D];哈爾濱工業(yè)大學;2012年
2 唐超;基于多信息融合的人體行為識別方法研究[D];廈門大學;2014年
3 潘華偉;基于多視點的三維姿態(tài)運動重建與跟蹤[D];湖南大學;2013年
4 李洪安;三維模型檢索及相關(guān)方法研究[D];西北大學;2014年
5 崔笑宇;基于棱鏡的醫(yī)用內(nèi)窺鏡輔助診斷系統(tǒng)研究[D];東北大學;2012年
相關(guān)碩士學位論文 前10條
1 楊陽;基于稀疏和流形結(jié)構(gòu)學習的人體行為識別[D];西安電子科技大學;2013年
2 邵振凱;Web網(wǎng)頁去噪及信息提取算法的研究與應(yīng)用[D];安徽理工大學;2013年
3 劉奇光;基于三視角幾何約束的動作識別技術(shù)研究[D];天津大學;2012年
4 郝巖;視頻數(shù)據(jù)中人體動作識別方法研究[D];南京理工大學;2014年
5 陳曦;人體行為識別方法的研究[D];河南科技大學;2014年
6 周謝丹;基于機器視覺的貨車交叉桿幾何尺寸檢測[D];中南大學;2014年
7 張敏飛;基于視覺的人體行為識別研究與系統(tǒng)設(shè)計實現(xiàn)[D];浙江工業(yè)大學;2014年
8 楊佳慧;基于時空興趣點的人體行為識別[D];南京郵電大學;2014年
9 董富強;基于機器視覺的零件輪廓尺寸精密測量系統(tǒng)研究[D];天津科技大學;2014年
10 宋金財;視頻中人體動作識別的研究[D];上海交通大學;2014年
,本文編號:2040640
本文鏈接:http://sikaile.net/kejilunwen/wltx/2040640.html