基于RGB-D視頻的室內(nèi)人體行為識(shí)別研究
發(fā)布時(shí)間:2021-11-21 15:15
人口老齡化是當(dāng)下重大的社會(huì)問(wèn)題,尤其是對(duì)老人在日常生活中的照護(hù)更是急需解決的熱點(diǎn)問(wèn)題。雖然各國(guó)提供了人工護(hù)理的方式來(lái)解決這一問(wèn)題,但對(duì)于我國(guó)這樣一個(gè)擁有13億多人口的大國(guó)來(lái)說(shuō),這種傳統(tǒng)的護(hù)理方式不足以應(yīng)對(duì)巨大的社會(huì)需求。解決這類問(wèn)題的一個(gè)可行辦法是利用人體行為識(shí)別技術(shù)對(duì)老人的室內(nèi)日常行為進(jìn)行識(shí)別,以便實(shí)現(xiàn)對(duì)老人自動(dòng)看護(hù)的功能,從而降低社會(huì)負(fù)擔(dān)。在人體行為識(shí)別中,最核心的兩個(gè)步驟是特征提取和分類識(shí)別。目前的特征提取技術(shù)多是通過(guò)RGB圖像進(jìn)行,受到光照和復(fù)雜背景等因素影響,行為識(shí)別準(zhǔn)確度不高。隨著Kinect的發(fā)布,研究人員開(kāi)始使用Kinect采集的RGB-D數(shù)據(jù)進(jìn)行特征提取。相比于RGB圖像,深度圖像和骨骼數(shù)據(jù)對(duì)光照、復(fù)雜運(yùn)動(dòng)背景等因素變化不敏感。因此,為了提高行為識(shí)別準(zhǔn)確度,本文結(jié)合深度圖像和骨骼數(shù)據(jù)提出了一種基于RGB-D視頻的人體行為識(shí)別算法。本論文的主要研究?jī)?nèi)容如下。1.對(duì)于Kinect采集的深度圖像,本文首先研究了深度圖像的DMM(Depth Motion Maps,深度運(yùn)動(dòng)圖)。但DMM是對(duì)整個(gè)深度圖像序列差分得到,缺少動(dòng)作時(shí)序信息。為了改善該問(wèn)題,本文結(jié)合深度圖像關(guān)鍵幀,提...
【文章來(lái)源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:85 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
Kinect深度傳感設(shè)備
相機(jī)的變化而發(fā)生變化。因此,在場(chǎng)景中不會(huì)存在完全一樣的散斑投影。當(dāng)一個(gè)被放進(jìn)這樣的場(chǎng)景時(shí),通過(guò)對(duì)散斑投影的分析我們就可以獲得物體的位置關(guān)系體在場(chǎng)景中移動(dòng)時(shí),其上的散斑投影會(huì)發(fā)生變化,從而相機(jī)就可以獲得物體到相距離信息,從而構(gòu)造出深度圖。圖 2.4 展示了 Kinect 獲取的深度圖像。
Kinect獲取人體關(guān)節(jié)點(diǎn)數(shù)據(jù)
【參考文獻(xiàn)】:
期刊論文
[1]基于三維骨骼節(jié)點(diǎn)的人體行為識(shí)別方法[J]. 楊賽烽,高彬,馮仕民,丁恩杰,陳慶峰. 傳感技術(shù)學(xué)報(bào). 2018(12)
[2]自適應(yīng)骨骼中心的人體行為識(shí)別算法[J]. 冉憲宇,劉凱,李光,丁文文,陳斌. 中國(guó)圖象圖形學(xué)報(bào). 2018(04)
[3]基于混合關(guān)節(jié)特征的人體行為識(shí)別[J]. 胡珂杰,蔣敏,孔軍. 傳感器與微系統(tǒng). 2018(03)
[4]基于四元數(shù)3D骨骼表示的人體行為識(shí)別[J]. 徐海洋,孔軍,蔣敏. 激光與光電子學(xué)進(jìn)展. 2018(02)
[5]基于改進(jìn)交叉驗(yàn)證算法的支持向量機(jī)多類識(shí)別[J]. 鄧蕊,馬永軍,劉堯猛. 天津科技大學(xué)學(xué)報(bào). 2007(02)
博士論文
[1]人口老齡化對(duì)醫(yī)療費(fèi)用的影響研究[D]. 韓爍.吉林大學(xué) 2018
碩士論文
[1]基于時(shí)空興趣點(diǎn)的人體行為識(shí)別研究[D]. 俞浩.南京師范大學(xué) 2017
[2]基于局部時(shí)空興趣點(diǎn)的人體行為識(shí)別[D]. 魯夢(mèng)夢(mèng).中國(guó)民航大學(xué) 2015
[3]基于形狀上下文和SURF興趣點(diǎn)的行為識(shí)別[D]. 莊萱怡.哈爾濱工業(yè)大學(xué) 2013
本文編號(hào):3509747
【文章來(lái)源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:85 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
Kinect深度傳感設(shè)備
相機(jī)的變化而發(fā)生變化。因此,在場(chǎng)景中不會(huì)存在完全一樣的散斑投影。當(dāng)一個(gè)被放進(jìn)這樣的場(chǎng)景時(shí),通過(guò)對(duì)散斑投影的分析我們就可以獲得物體的位置關(guān)系體在場(chǎng)景中移動(dòng)時(shí),其上的散斑投影會(huì)發(fā)生變化,從而相機(jī)就可以獲得物體到相距離信息,從而構(gòu)造出深度圖。圖 2.4 展示了 Kinect 獲取的深度圖像。
Kinect獲取人體關(guān)節(jié)點(diǎn)數(shù)據(jù)
【參考文獻(xiàn)】:
期刊論文
[1]基于三維骨骼節(jié)點(diǎn)的人體行為識(shí)別方法[J]. 楊賽烽,高彬,馮仕民,丁恩杰,陳慶峰. 傳感技術(shù)學(xué)報(bào). 2018(12)
[2]自適應(yīng)骨骼中心的人體行為識(shí)別算法[J]. 冉憲宇,劉凱,李光,丁文文,陳斌. 中國(guó)圖象圖形學(xué)報(bào). 2018(04)
[3]基于混合關(guān)節(jié)特征的人體行為識(shí)別[J]. 胡珂杰,蔣敏,孔軍. 傳感器與微系統(tǒng). 2018(03)
[4]基于四元數(shù)3D骨骼表示的人體行為識(shí)別[J]. 徐海洋,孔軍,蔣敏. 激光與光電子學(xué)進(jìn)展. 2018(02)
[5]基于改進(jìn)交叉驗(yàn)證算法的支持向量機(jī)多類識(shí)別[J]. 鄧蕊,馬永軍,劉堯猛. 天津科技大學(xué)學(xué)報(bào). 2007(02)
博士論文
[1]人口老齡化對(duì)醫(yī)療費(fèi)用的影響研究[D]. 韓爍.吉林大學(xué) 2018
碩士論文
[1]基于時(shí)空興趣點(diǎn)的人體行為識(shí)別研究[D]. 俞浩.南京師范大學(xué) 2017
[2]基于局部時(shí)空興趣點(diǎn)的人體行為識(shí)別[D]. 魯夢(mèng)夢(mèng).中國(guó)民航大學(xué) 2015
[3]基于形狀上下文和SURF興趣點(diǎn)的行為識(shí)別[D]. 莊萱怡.哈爾濱工業(yè)大學(xué) 2013
本文編號(hào):3509747
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3509747.html
最近更新
教材專著