基于智能手機(jī)傳感器的室內(nèi)空間用戶行為識別研究
本文關(guān)鍵詞:基于智能手機(jī)傳感器的室內(nèi)空間用戶行為識別研究 出處:《北京建筑大學(xué)》2016年碩士論文 論文類型:學(xué)位論文
更多相關(guān)文章: 行為識別 智能手機(jī) 傳感器 K最近鄰算法 隱式馬爾可夫模型
【摘要】:伴隨著移動互聯(lián)網(wǎng)技術(shù)的飛速進(jìn)步,基于位置的服務(wù)模式在現(xiàn)代社會中已經(jīng)取得了巨大的成功。根據(jù)搜集而來的用戶位置信息,提供更加全面和人性化的服務(wù)已經(jīng)被大多數(shù)人所接受。而相對室外環(huán)境下GPS技術(shù)的成熟而言,室內(nèi)定位技術(shù)尚處于起步階段,大量的研究資源和專業(yè)人員投入到室內(nèi)定位技術(shù)的探索和改進(jìn)上。目前初見成效的技術(shù)主要有WIFI定位技術(shù)、藍(lán)牙信標(biāo)技術(shù)、地磁定位技術(shù)等等,其中基于地磁場的室內(nèi)定位技術(shù)具有建設(shè)成本低,定位精度高,節(jié)能環(huán)?沙掷m(xù)的優(yōu)點(diǎn)。但是,隨著研究的深入,逐漸發(fā)現(xiàn)地磁數(shù)據(jù)量龐大,經(jīng)常在地磁匹配中出現(xiàn)相似點(diǎn),造成定位偏差較大的問題。為了解決這一問題,采用識別用戶在室內(nèi)環(huán)境中行為的方法,輔助地磁定位技術(shù)提高定位準(zhǔn)確度。用戶行為識別是近年來智能環(huán)境領(lǐng)域一個研究熱點(diǎn),根據(jù)用戶數(shù)據(jù)采集方式的不同,主要分為基于計(jì)算機(jī)視覺和基于可穿戴式傳感器平臺兩種方法。而隨著移動互聯(lián)網(wǎng)的迅速發(fā)展,后者的集成式傳感器平臺完全可以由智能手機(jī)替代。目前的智能手機(jī)不僅集成了大量的微型傳感器,而且其操作系統(tǒng)的處理能力非常強(qiáng)大,對于行為識別所需要的大量數(shù)據(jù)的采集處理可以提供很好的支持。本文利用智能手機(jī)傳感器采集用戶在室內(nèi)環(huán)境下的行為數(shù)據(jù),經(jīng)過去噪分割和特征提取的處理過程,采用K最近鄰算法和隱式馬爾可夫模型方法對行為數(shù)據(jù)進(jìn)行分類識別,并通過一系列的改進(jìn),給出最終的識別結(jié)果。主要的研究內(nèi)容和結(jié)論如下:1)在行為識別算法的選擇上,采用K最近鄰算法和隱式馬爾可夫模型。前者主要存在的問題是:隨著訓(xùn)練集規(guī)模增大,時空復(fù)雜度迅速增加。因此,采用基于密度的樣本裁剪方法對訓(xùn)練數(shù)據(jù)進(jìn)行精簡,最終達(dá)到了減少計(jì)算量,提高運(yùn)算效率的目的。而為了提高后者模型對采樣數(shù)據(jù)變化規(guī)律的敏感度,將行為數(shù)據(jù)段在進(jìn)行細(xì)分處理,劃分為時長為0.1s的數(shù)據(jù)節(jié)點(diǎn)再進(jìn)行處理,最后確定模型參數(shù):可觀測序列數(shù)目為小于5的正整數(shù),隱藏序列數(shù)目為3。2)利用Android開源平臺開發(fā)了一款用于采集用戶行為信息的程序,主要分為單一采集模式和連續(xù)采集模式。前者對每種行為的信息分別進(jìn)行采集,匯總后作為模型訓(xùn)練集。后者則采集1分鐘內(nèi)連續(xù)的用戶行為,作為模型測試集。采集過程中發(fā)現(xiàn)不同行為方式下的傳感器數(shù)據(jù)存在較大差異,對行為識別過程較為有利。3)對于原始行為數(shù)據(jù)進(jìn)行去噪分割和特征提取。使用一階低通濾波方法剔除加速度數(shù)據(jù)中的重力分量;方向傳感器數(shù)據(jù)主要進(jìn)行平滑濾波處理,剔除野值點(diǎn);磁傳感器數(shù)據(jù)主要考慮硬鐵效應(yīng),利用其補(bǔ)償公式進(jìn)行處理。特征提取主要針對加速度傳感器進(jìn)行,提取其時域和頻域特征,包括每軸數(shù)據(jù)的均值、標(biāo)準(zhǔn)差、任意兩軸的相關(guān)系數(shù),基于功率譜密度的振幅均值以及振幅標(biāo)準(zhǔn)差。4)設(shè)計(jì)了行為識別實(shí)驗(yàn),采集用戶的真實(shí)行為信息,經(jīng)過數(shù)據(jù)預(yù)處理操作后,分別使用K最近鄰算法和隱式馬爾可夫模型進(jìn)行了行為識別,前者在K值取5,裁剪率為32.9%的條件下,對10段完整行為數(shù)據(jù)的平均識別準(zhǔn)確率是95.1%。后者分別采用普通特征值和細(xì)分特征值進(jìn)行測試,識別準(zhǔn)確率分別為94.35%、95.62%,由此可見經(jīng)過細(xì)分處理后的特征值對于隱式馬爾可夫模型的識別準(zhǔn)確率有一定的提高。而兩種識別方法在識別準(zhǔn)確率上,后者略優(yōu)于前者。
[Abstract]:This paper uses K nearest neighbor algorithm and hidden Markov model to classify the behavior data . The data of direction sensor is mainly used for smoothing filter processing , and the field value point is eliminated . The magnetic sensor data mainly considers hard - iron effect , and its compensation formula is used for processing . The feature extraction is mainly based on acceleration sensor , its time domain and frequency domain characteristics are extracted , and the average recognition accuracy rate of 10 - segment complete behavior data is 95.1 % .
【學(xué)位授予單位】:北京建筑大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TN929.53;TP212
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動特征的行為識別[J];北京交通大學(xué)學(xué)報(bào);2009年02期
2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測模型的多人行為識別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期
3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期
4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識別算法[J];光電子.激光;2013年08期
5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識別中的新進(jìn)展[J];中國圖象圖形學(xué)報(bào);2014年02期
6 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期
7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識別[J];自動化學(xué)報(bào);2010年01期
8 李英杰;尹怡欣;鄧飛;;一種有效的行為識別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期
9 王新旭;;基于視覺的人體行為識別研究[J];中國新通信;2012年21期
10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動用戶行為識別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期
相關(guān)會議論文 前7條
1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識別技術(shù)研究[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年
2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識別[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年
3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識別[A];2007中國控制與決策學(xué)術(shù)年會論文集[C];2007年
4 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡單人物行為識別研究[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年
5 安國成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動歷史圖的異常行為識別算法[A];第八屆中國智能交通年會優(yōu)秀論文集——智能交通與安全[C];2013年
6 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動用戶行為識別中的應(yīng)用研究[A];2013年全國通信軟件學(xué)術(shù)會議論文集[C];2013年
7 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會行為自動日志[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年
相關(guān)重要報(bào)紙文章 前4條
1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日報(bào);2001年
2 農(nóng)發(fā)行鹿邑支行黨支部書記 行長 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日報(bào);2007年
3 東林;行為識別新技術(shù)讓監(jiān)控沒有“死角”[N];人民公安報(bào);2007年
4 田凱 徐蕊 李政育 信木祥;博物館安全的國際經(jīng)驗(yàn)[N];中國文物報(bào);2014年
相關(guān)博士學(xué)位論文 前10條
1 邵延華;基于計(jì)算機(jī)視覺的人體行為識別研究[D];重慶大學(xué);2015年
2 仝鈺;基于條件隨機(jī)場的智能家居行為識別研究[D];大連海事大學(xué);2015年
3 馮銀付;多模態(tài)人體行為識別技術(shù)研究[D];浙江大學(xué);2015年
4 姜新波;基于三維骨架序列的人體行為識別研究[D];山東大學(xué);2015年
5 韓姍姍;基于視覺的運(yùn)動人體特征描述與行為識別研究[D];浙江工業(yè)大學(xué);2015年
6 裴利沈;視頻中人體行為識別若干問題研究[D];電子科技大學(xué);2016年
7 周同馳;行為識別中基于局部時空關(guān)系的特征模型研究[D];東南大學(xué);2016年
8 徐海燕;復(fù)雜環(huán)境下行為識別特征提取方法研究[D];東南大學(xué);2016年
9 何衛(wèi)華;人體行為識別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年
10 吳秋霞;復(fù)雜場景下的人體行為識別[D];華南理工大學(xué);2012年
相關(guān)碩士學(xué)位論文 前10條
1 陳鈺昕;基于時空特性的人體行為識別研究[D];燕山大學(xué);2015年
2 任亮;智能車環(huán)境下車輛典型行為識別方法研究[D];長安大學(xué);2015年
3 趙利強(qiáng);基于移動軌跡分析的大鼠行為識別研究[D];浙江大學(xué);2016年
4 魏汝翔;基于人體運(yùn)動捕捉數(shù)據(jù)的運(yùn)動分析技術(shù)研究[D];北京交通大學(xué);2016年
5 孫笛;基于信息融合的惡意代碼威脅性分析及判定關(guān)鍵技術(shù)研究[D];解放軍信息工程大學(xué);2014年
6 田行輝;基于視頻的人體行為分析算法研究[D];東南大學(xué);2015年
7 黃詩輝;面向視頻的人類行為識別技術(shù)的研究與實(shí)現(xiàn)[D];東南大學(xué);2015年
8 徐嬌;高密度群體分割及其行為識別技術(shù)研究[D];中國計(jì)量學(xué)院;2015年
9 魏燁;基于智能手機(jī)傳感器的無監(jiān)督行為識別研究[D];蘭州大學(xué);2016年
10 鐘君;基于加速度傳感器的日常行為識別的特征提取方法研究[D];蘭州大學(xué);2016年
,本文編號:1368407
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/1368407.html