基于加速度傳感器的日常行為識別的特征提取方法研究
本文關(guān)鍵詞:基于加速度傳感器的日常行為識別的特征提取方法研究,由筆耕文化傳播整理發(fā)布。
【摘要】:隨著計(jì)算機(jī)科學(xué)技術(shù)的發(fā)展,人們的生活逐漸智能化、數(shù)字化。在這個時代,我們工作娛樂是數(shù)字化的,逛街購物是數(shù)字化的,甚至于我們的走路、跑步、睡覺都可以數(shù)字化的表示。近些年已有許多的研究學(xué)者致力于人們的日常行為的識別,其研究成果廣泛應(yīng)用于健康監(jiān)測、日常運(yùn)動跟蹤、工作家庭自動化、人機(jī)交互的等領(lǐng)域。人類日常行為識別的研究過程通常包括信息采集、特征值提取和行為識別分析。在信息采集方面,由于傳統(tǒng)的基于圖像的研究方式存在色彩、陰影和物體遮擋等諸多因素的影響的問題,目前許多研究均是采用集成加速度傳感器的便攜設(shè)備采集行為數(shù)據(jù)。在特征提取方面,因?yàn)榇治龅男袨楹蛻?yīng)用環(huán)境的不確定,目前的研究中尚未提出一個統(tǒng)一而有效的特征提取方法。在行為識別方面,目前研究中使用的行為分類方法多為基于監(jiān)督的分類方法,而聚類方法相對使用較少。使用監(jiān)督式分類方法對行為進(jìn)行分類時,需要對行為數(shù)據(jù)加標(biāo)簽。然而加標(biāo)簽是一個冗雜無趣并且耗時較長的過程,對行為分類來說無疑是一個長期的負(fù)擔(dān)。針對上述問題,我們主要做了如下的工作。首先,我們提出一個基于聚類算法MCODE的行為識別框架。該識別框架相對于其他分類的算法的優(yōu)勢在于在行為數(shù)據(jù)采集中無需加標(biāo)簽。其次,我們在識別框架中提出了三種不同的特征值提取方法。三種提取方法提取的都是時域特征,特征簡單、計(jì)算速度快。我們提出的識別框架分為三階段工作:特征提取,提供三種不同的特征值提取方法;構(gòu)建基于歐氏距離的相似性度量的行為模型,將離散數(shù)據(jù)構(gòu)建成網(wǎng)絡(luò);對行為模型進(jìn)行進(jìn)行MCODE聚類,并使用FM指數(shù)對聚類結(jié)果進(jìn)行評價。在實(shí)驗(yàn)中使用三種不同的特征值提取方法對兩種不同的數(shù)據(jù)集上的進(jìn)行實(shí)驗(yàn)驗(yàn)證,通過聚類分析我們分別取得0.97和0.87的識別性能,表明了該識別框架對兩個數(shù)據(jù)集中的行為分類的有效性,同時對不同特征提取方法對應(yīng)的行為識別效果作出比對分析。
【關(guān)鍵詞】:行為識別 MCODE 三軸加速度傳感器 圖模型
【學(xué)位授予單位】:蘭州大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP212;TP391.41
【目錄】:
- 中文摘要3-4
- Abstract4-8
- 第一章 緒論8-15
- 1.1 研究背景與意義8-9
- 1.2 國內(nèi)外研究現(xiàn)狀及發(fā)展趨勢9-13
- 1.3 主要研究內(nèi)容與論文結(jié)構(gòu)13-15
- 第二章 基于加速度傳感器的行為識別相關(guān)工作15-24
- 2.1 信息采集15-17
- 2.2 特征提取技術(shù)的研究17-18
- 2.3 行為識別方法的研究18-22
- 2.3.1 行為識別中分類方法18-21
- 2.3.2 行為識別中聚類方法21-22
- 2.4 本章小結(jié)22-24
- 第三章 基于加速度傳感器的識別框架24-34
- 3.1 特征提取24-28
- 3.2 數(shù)據(jù)模型構(gòu)建28-29
- 3.3 行為聚類MCODE29-32
- 3.4 性能評價算法32-34
- 第四章 實(shí)驗(yàn)結(jié)果和分析34-44
- 4.1 實(shí)驗(yàn)數(shù)據(jù)集34-35
- 4.2 實(shí)驗(yàn)一四類行為的聚類分析35-38
- 4.2.1 參數(shù)設(shè)置與分析36-37
- 4.2.2 實(shí)驗(yàn)結(jié)果和分析37-38
- 4.3 實(shí)驗(yàn)二:六類行為的聚類分析38-42
- 4.3.1 lnnd參數(shù)分析39-40
- 4.3.2 實(shí)驗(yàn)結(jié)果和分析40-42
- 4.4 實(shí)驗(yàn)三:行為個數(shù)不確定的行為識別42-44
- 4.4.1 實(shí)驗(yàn)結(jié)果和分析42-44
- 第五章 總結(jié)與展望44-46
- 5.1 工作總結(jié)44
- 5.2 展望44-46
- 參考文獻(xiàn)46-50
- 在學(xué)期間的研究成果50-51
- 致謝51
【相似文獻(xiàn)】
中國期刊全文數(shù)據(jù)庫 前10條
1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動特征的行為識別[J];北京交通大學(xué)學(xué)報;2009年02期
2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測模型的多人行為識別[J];清華大學(xué)學(xué)報(自然科學(xué)版);2009年07期
3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期
4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識別算法[J];光電子.激光;2013年08期
5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識別中的新進(jìn)展[J];中國圖象圖形學(xué)報;2014年02期
6 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識別的新方法[J];昆明理工大學(xué)學(xué)報(理工版);2009年06期
7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識別[J];自動化學(xué)報;2010年01期
8 李英杰;尹怡欣;鄧飛;;一種有效的行為識別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期
9 王新旭;;基于視覺的人體行為識別研究[J];中國新通信;2012年21期
10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動用戶行為識別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報;2014年S1期
中國重要會議論文全文數(shù)據(jù)庫 前7條
1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識別技術(shù)研究[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年
2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識別[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年
3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識別[A];2007中國控制與決策學(xué)術(shù)年會論文集[C];2007年
4 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡單人物行為識別研究[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年
5 安國成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動歷史圖的異常行為識別算法[A];第八屆中國智能交通年會優(yōu)秀論文集——智能交通與安全[C];2013年
6 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動用戶行為識別中的應(yīng)用研究[A];2013年全國通信軟件學(xué)術(shù)會議論文集[C];2013年
7 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會行為自動日志[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年
中國重要報紙全文數(shù)據(jù)庫 前4條
1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日報;2001年
2 農(nóng)發(fā)行鹿邑支行黨支部書記 行長 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日報;2007年
3 東林;行為識別新技術(shù)讓監(jiān)控沒有“死角”[N];人民公安報;2007年
4 田凱 徐蕊 李政育 信木祥;博物館安全的國際經(jīng)驗(yàn)[N];中國文物報;2014年
中國博士學(xué)位論文全文數(shù)據(jù)庫 前10條
1 邵延華;基于計(jì)算機(jī)視覺的人體行為識別研究[D];重慶大學(xué);2015年
2 仝鈺;基于條件隨機(jī)場的智能家居行為識別研究[D];大連海事大學(xué);2015年
3 馮銀付;多模態(tài)人體行為識別技術(shù)研究[D];浙江大學(xué);2015年
4 姜新波;基于三維骨架序列的人體行為識別研究[D];山東大學(xué);2015年
5 韓姍姍;基于視覺的運(yùn)動人體特征描述與行為識別研究[D];浙江工業(yè)大學(xué);2015年
6 何衛(wèi)華;人體行為識別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年
7 吳秋霞;復(fù)雜場景下的人體行為識別[D];華南理工大學(xué);2012年
8 于成龍;基于視頻的人體行為識別關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2014年
9 王亮;基于判別模式學(xué)習(xí)的人體行為識別方法研究[D];哈爾濱工業(yè)大學(xué);2011年
10 付朝霞;基于視頻流的人體目標(biāo)檢測與行為識別研究[D];中北大學(xué);2013年
中國碩士學(xué)位論文全文數(shù)據(jù)庫 前10條
1 唐小琴;基于全局和局部運(yùn)動模式的人體行為識別研究[D];西南大學(xué);2015年
2 胡秋揚(yáng);可穿戴式個人室內(nèi)位置和行為監(jiān)測系統(tǒng)[D];浙江大學(xué);2015年
3 陳鈺昕;基于時空特性的人體行為識別研究[D];燕山大學(xué);2015年
4 任亮;智能車環(huán)境下車輛典型行為識別方法研究[D];長安大學(xué);2015年
5 金澤豪;并行化的人體行為識別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年
6 王呈;穿戴式多傳感器人體日;顒颖O(jiān)測系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年
7 王露;基于稀疏時空特征的人體行為識別研究[D];蘇州大學(xué);2015年
8 于靜;基于物品信息和人體深度信息的行為識別研究[D];山東大學(xué);2015年
9 章瑜;人體運(yùn)動行為識別相關(guān)方法研究[D];南京師范大學(xué);2015年
10 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年
本文關(guān)鍵詞:基于加速度傳感器的日常行為識別的特征提取方法研究,,由筆耕文化傳播整理發(fā)布。
本文編號:333236
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/333236.html