天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

普適計(jì)算環(huán)境下人體行為識(shí)別及情景感知研究

發(fā)布時(shí)間:2020-06-30 02:41
【摘要】:普適計(jì)算是“以人為中心的”計(jì)算模式,普適計(jì)算的愿景是使用戶能夠隨時(shí)隨地、透明地獲取服務(wù),情景感知是實(shí)現(xiàn)這一愿景的關(guān)鍵所在,也是普適計(jì)算的核心特征之一。在具體的普適計(jì)算環(huán)境下,存在著多種不同的情景,人的行為活動(dòng)是研究者需要重點(diǎn)關(guān)注的情景,情景感知系統(tǒng)只有準(zhǔn)確地感知和識(shí)別用戶的行為活動(dòng),才能理解用戶的意圖,進(jìn)而提供個(gè)性化服務(wù),用戶的行為活動(dòng),往往作為觸發(fā)情景感知服務(wù)的觸發(fā)情景。因此,人體行為識(shí)別是實(shí)現(xiàn)情景感知服務(wù)的關(guān)鍵環(huán)節(jié)。可穿戴傳感器因攜帶方便,并具有高性能、低功耗等優(yōu)點(diǎn),被廣泛應(yīng)用于人體行為識(shí)別中,一個(gè)行為識(shí)別模型的跨用戶行為識(shí)別能力,是該模型泛化性能好壞的重要體現(xiàn)。由于物聯(lián)網(wǎng)及傳感器技術(shù)的飛速發(fā)展,將會(huì)出現(xiàn)各式各樣的傳感器,使得情景的獲取變得十分方便,但由于傳感器的種類、精度各不相同,所產(chǎn)生的情景信息將具有異構(gòu)性和不確定性,而情景本身又具有動(dòng)態(tài)性。因此,需要對(duì)這些大量異構(gòu)并且動(dòng)態(tài)的情景建立一個(gè)有效的模型,一個(gè)設(shè)計(jì)良好的情景模型能夠有效地屏蔽情景之間的異構(gòu)性,清楚地表達(dá)情景之間的動(dòng)態(tài)關(guān)系以及請(qǐng)感知服務(wù)流程,并能有效降低情景感知系統(tǒng)的復(fù)雜性。本文圍繞人體行為識(shí)別和情景模型展開(kāi)研究。在人體行為識(shí)別的研究中,主要研究了深度學(xué)習(xí)算法在基于可穿戴傳感器的人體行為識(shí)別中的應(yīng)用,以及提高模型跨用戶行為識(shí)別性能的個(gè)性化方法。在情景模型的研究中,主要研究了用戶的日常行為所觸發(fā)的情景感知模型。本文的主要研究?jī)?nèi)容與創(chuàng)新點(diǎn)如下:(1)在CAE-ELM算法模型的基礎(chǔ)上,提出了一種改進(jìn)的混合深度學(xué)習(xí)算法模型 DC-KELM(Deep Convolutional Kernel Extreme Learning Machine),DC-KELM算法模型通過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取數(shù)據(jù)的局部特征,然后再通過(guò)多層超限學(xué)習(xí)機(jī)算法進(jìn)行進(jìn)一步的特征提取,提取出更深層次的特征,提取到的最終特征通過(guò)基于核的超限學(xué)習(xí)機(jī)進(jìn)行訓(xùn)練和分類。DC-KELM融合了卷積神經(jīng)網(wǎng)絡(luò)、多層超限學(xué)習(xí)機(jī)算法的優(yōu)點(diǎn),能自動(dòng)地從原始數(shù)據(jù)中提取更具判別能力的特征,并且采用泛化性能好的核超限學(xué)習(xí)機(jī)作為分類器。通過(guò)在基于可穿戴傳感器的人體行為識(shí)別數(shù)據(jù)集上,DC-K ELM算法與混合深度學(xué)習(xí)算法CAE-ELM、DELM和ML-KELM的對(duì)比實(shí)驗(yàn)可知,DC-KELM算法的識(shí)別準(zhǔn)確率以及其它性能要優(yōu)于CAE-ELM和DELM。在模型的跨用戶行為識(shí)別方面,與CAE-ELM算法和ML-KELM算法對(duì)比,實(shí)驗(yàn)結(jié)果表明DC-KELM算法的跨用戶行為識(shí)別性能要優(yōu)于CAE-ELM和ML-KELM算法,實(shí)驗(yàn)結(jié)果驗(yàn)證了 DC-KELM算法模型的有效性。(2)在TransRKELM模型的基礎(chǔ)上,結(jié)合貝葉斯后驗(yàn)概率、不確定抽樣策略以及平均余弦相似度的方法,提出了一種樣本置信度選擇策略,形成了基于 US-RKELM(Uncertainty Sampling based Reduced Kernel Extreme Learn in g M a c h i ne)的跨用戶行為識(shí)別方法。US-RK E LM方法首先通過(guò)已知用戶的樣本集訓(xùn)練出一個(gè)初始模型,然后通過(guò)初始模型對(duì)新用戶的數(shù)據(jù)進(jìn)行測(cè)試,并把測(cè)試樣本經(jīng)過(guò)初始模型的輸出值轉(zhuǎn)化為與之相對(duì)應(yīng)的后驗(yàn)概率形式,利用測(cè)試樣本的后驗(yàn)概率值,結(jié)合不確定抽樣策略,篩選出測(cè)試樣本集中置信度高的樣本進(jìn)行在線更新初始模型。TransRK ELM模型相比,US-RKELM方法在測(cè)試樣本的置信度選擇上,引入了樣本的后驗(yàn)概率信息以及不確定抽樣策略對(duì)測(cè)試樣本進(jìn)行篩選,為減少測(cè)試樣本中的離群點(diǎn)帶來(lái)的誤差,還引入了平均余弦相似度的度量方法,計(jì)算測(cè)試樣本集中樣本的平均余弦相似度。實(shí)驗(yàn)結(jié)果表明,模型利用篩選的樣本集進(jìn)行更新后,跨用戶行為識(shí)別性能優(yōu)于初始模型以及TransRKELM模型。(3)提出了一種基于UML活動(dòng)圖和著色Petri網(wǎng)(Colored PetriNet,CPN)的情景感知模型,選擇用戶“離家”這一日常行為作為觸發(fā)情景感知服務(wù)的觸發(fā)情景,利用UML活動(dòng)圖和CPN對(duì)用戶離家場(chǎng)景下的情景感知服務(wù)建模。首先利用UML活動(dòng)圖對(duì)情景感知服務(wù)進(jìn)行建模,然后通過(guò)UML活動(dòng)圖與CPN之間的轉(zhuǎn)換規(guī)則,把UML活動(dòng)圖轉(zhuǎn)換成CPN模型,并利用CPN的特性,對(duì)情景感知模型進(jìn)行動(dòng)態(tài)仿真驗(yàn)證。UML活動(dòng)圖能直觀地描述情景感知服務(wù)的控制流程,但不能動(dòng)態(tài)仿真驗(yàn)證。Petri網(wǎng)是一種形式化的建模語(yǔ)言,能夠?qū)δP瓦M(jìn)行動(dòng)態(tài)驗(yàn)證仿真,CPN是一種高級(jí)Petri網(wǎng),能夠描述復(fù)雜的并發(fā)系統(tǒng);赨ML活動(dòng)圖和CPN的混合建模方法,能夠很好地分析情景感知系統(tǒng),描述情景之間的動(dòng)態(tài)關(guān)系以及情景感知服務(wù)的控制流程,支持情景的推理,并能模擬系統(tǒng)的運(yùn)行,有效地避免了服務(wù)沖突以及不合理的設(shè)計(jì)出現(xiàn)。
【學(xué)位授予單位】:北京科技大學(xué)
【學(xué)位級(jí)別】:博士
【學(xué)位授予年份】:2018
【分類號(hào)】:TP212.9;TP18
【圖文】:

示意圖,研究領(lǐng)域,示意圖,情景


圖1-2物聯(lián)網(wǎng)與其它研究領(lǐng)域的融合示意圖逡逑物聯(lián)M研究項(xiàng)目組在2009年的報(bào)彳S?《丨nternet邋of邋tilingroadmap》中以5年為?個(gè)時(shí)問(wèn)段.分別列出了從20(W年聯(lián)網(wǎng)領(lǐng)域研宄者需要研允的內(nèi)容,其屮,“怙景感知”被列0年,物聯(lián)網(wǎng)研宄者需要研宄的內(nèi)容之丨4丨。在丨丨th邋IEEE邋Intce邋on邋Ubiquitous邋Intelligence邋and邋Computing邋(UIC邋2014)大慶教授在報(bào)告中指出“在群智感知和人數(shù)據(jù)時(shí)代下,數(shù)模態(tài)、不同粒度的形式從各種各樣的數(shù)據(jù)源中獲得,這帶來(lái)新的挑戰(zhàn)和機(jī)遇”。在2014年第十屆和諧人機(jī)環(huán)境華大學(xué)徐光yP教授在特邀報(bào)告中,引用了邋AAAI-2013會(huì)情景感知計(jì)算技術(shù)將在五年內(nèi)成為主流技術(shù)”。在973項(xiàng)基礎(chǔ)研究(2010.9-2015.9)⑴丨”中,也都把情景感知作一。逡逑網(wǎng)T 代是一個(gè)萬(wàn)物相聯(lián)的時(shí)代,利用先進(jìn)的傳感器、智

課題研究,引言,行為識(shí)別,組織結(jié)構(gòu)


圖1-3文章組織結(jié)構(gòu)逡逑第-章引言逡逑本章簡(jiǎn)要介紹了課題的研究背景、課題來(lái)源以及課題研究目的與意義,逡逑并闡述了本文的主要研究?jī)?nèi)容和創(chuàng)新點(diǎn)。邐.?逡逑第二章相關(guān)研宄綜述逡逑本章對(duì)普適計(jì)算和情景感知進(jìn)行簡(jiǎn)要介紹,對(duì)本文中所涉及到的相關(guān)算逡逑法進(jìn)行概述,并介紹了基于可穿戴傳感器的人體行為識(shí)別以及情景模型的國(guó)逡逑內(nèi)外研究現(xiàn)狀。逡逑第三章基于DC-KFLM混合深度算法模型的人體行為識(shí)別逡逑本章:七要研究深度學(xué)習(xí)算法在基于可穿戴傳感器的人體行為識(shí)別中的應(yīng)逡逑用,在CAE-ELM模型的基礎(chǔ)上,提出一種改進(jìn)的混合深度算法模型逡逑DC-KELM。通過(guò)基于可穿戴傳感器的行為識(shí)別數(shù)據(jù)集,分別與CAE-ELM、逡逑DELM和MLKELM算法進(jìn)行實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果驗(yàn)證了邋DC-KELM的有效逡逑性。逡逑

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 孫彬;孔德慧;張?chǎng)⿻?賈文浩;;基于深度圖像的人體行為識(shí)別綜述[J];北京工業(yè)大學(xué)學(xué)報(bào);年期

2 陳煜平;邱衛(wèi)根;基于視覺(jué)的人體行為識(shí)別算法研究綜述[J];計(jì)算機(jī)應(yīng)用研究;2019年07期

3 楊晨晨;馬春梅;朱金奇;;基于智能手機(jī)跌倒行為識(shí)別算法研究[J];計(jì)算機(jī)工程;年期

4 富倩;;人體行為識(shí)別研究[J];信息與電腦(理論版);2017年24期

5 趙雄偉;;人體行為特征融合與行為識(shí)別的分析[J];無(wú)線互聯(lián)科技;2017年12期

6 雷慶;陳鍛生;李紹滋;;復(fù)雜場(chǎng)景下的人體行為識(shí)別研究新進(jìn)展[J];計(jì)算機(jī)科學(xué);2014年12期

7 魯統(tǒng)偉;任瑩;;基于光流的人體行為識(shí)別[J];電腦知識(shí)與技術(shù);2013年07期

8 王新旭;;基于視覺(jué)的人體行為識(shí)別研究[J];中國(guó)新通信;2012年21期

9 劉相濱,向堅(jiān)持,王勝春;人行為識(shí)別與理解研究探討[J];計(jì)算機(jī)與現(xiàn)代化;2004年12期

10 ;城市形象設(shè)計(jì)與建設(shè)(連載)——第十章 城市行為識(shí)別[J];經(jīng)濟(jì)工作導(dǎo)刊;2000年01期

相關(guān)會(huì)議論文 前10條

1 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

2 連儒東;李佳;;人體行為識(shí)別分析技術(shù)在檢察監(jiān)督中的應(yīng)用及構(gòu)建[A];深化依法治國(guó)實(shí)踐背景下的檢察權(quán)運(yùn)行——第十四屆國(guó)家高級(jí)檢察官論壇論文集[C];2018年

3 安國(guó)成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國(guó)智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年

4 何靖蕓;周洪鈞;;示教學(xué)習(xí):一種端到端的機(jī)器人行為識(shí)別及生成的模仿學(xué)習(xí)方法[A];第36屆中國(guó)控制會(huì)議論文集(E)[C];2017年

5 王忠民;張新平;梁琛;;基于滑動(dòng)窗口異常數(shù)據(jù)提取的跌倒行為監(jiān)測(cè)方法[A];2016年全國(guó)通信軟件學(xué)術(shù)會(huì)議程序冊(cè)與交流文集[C];2016年

6 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

7 數(shù)采創(chuàng)新項(xiàng)目組;;“algMelt聚類融合算法”模型在零售客戶數(shù)采異常行為識(shí)別中的探索與應(yīng)用[A];中國(guó)煙草學(xué)會(huì)2015年度優(yōu)秀論文匯編[C];2015年

8 郝明軒;劉巍;;核安全文化評(píng)價(jià)與工程實(shí)踐[A];中國(guó)核學(xué)會(huì)核能動(dòng)力學(xué)會(huì)核電質(zhì)量保證專業(yè)委員會(huì)第十屆年會(huì)暨學(xué)術(shù)報(bào)告會(huì)論文專集[C];2010年

9 屈立笳;蘇紅;涂剛;;基于安全事件關(guān)聯(lián)分析的反垃圾郵件系統(tǒng)的研究[A];全國(guó)網(wǎng)絡(luò)與信息安全技術(shù)研討會(huì)’2004論文集[C];2004年

10 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識(shí)別[A];2007中國(guó)控制與決策學(xué)術(shù)年會(huì)論文集[C];2007年

相關(guān)重要報(bào)紙文章 前10條

1 甘肅省武威市涼州區(qū)第一幼兒園 劉桂娥;從幼兒行為識(shí)別教育誤區(qū)[N];中國(guó)教育報(bào);2018年

2 東林;行為識(shí)別新技術(shù)讓監(jiān)控沒(méi)有“死角”[N];人民公安報(bào);2007年

3 素杰;形象就是影響力[N];中國(guó)包裝報(bào);2004年

4 本報(bào)記者 馬愛(ài)平;動(dòng)一動(dòng)就認(rèn)清你?機(jī)器說(shuō)可以[N];科技日?qǐng)?bào);2017年

5 國(guó)家郵政局公眾服務(wù)部;明確經(jīng)營(yíng)理念 推進(jìn)形象工程[N];中國(guó)郵政報(bào);2002年

6 何正坤;安全文化與企業(yè)CI戰(zhàn)略[N];中華合作時(shí)報(bào);2003年

7 國(guó)家稅務(wù)總局法規(guī)司 張學(xué)瑞;加強(qiáng)稅收違法行為識(shí)別的研究[N];中國(guó)稅務(wù)報(bào);2013年

8 符蓉邋通訊員 劉瀟;外經(jīng)貿(mào)職院引入大學(xué)新形象系統(tǒng)工程[N];湖南日?qǐng)?bào);2007年

9 農(nóng)發(fā)行鹿邑支行黨支部書(shū)記 行長(zhǎng) 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日?qǐng)?bào);2007年

10 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日?qǐng)?bào);2001年

相關(guān)博士學(xué)位論文 前10條

1 牛曉鵬;普適計(jì)算環(huán)境下人體行為識(shí)別及情景感知研究[D];北京科技大學(xué);2018年

2 齊鏜泉;基于深度學(xué)習(xí)的行為識(shí)別與旅游場(chǎng)景分類關(guān)鍵技術(shù)研究[D];華南理工大學(xué);2017年

3 汪亮;基于可穿戴傳感器網(wǎng)絡(luò)的人體行為識(shí)別技術(shù)研究[D];南京大學(xué);2014年

4 王江濤;基于視頻的目標(biāo)檢測(cè)、跟蹤及其行為識(shí)別研究[D];南京理工大學(xué);2008年

5 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年

6 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年

7 于成龍;基于視頻的人體行為識(shí)別關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2014年

8 溫長(zhǎng)吉;行為識(shí)別中特征提取和描述相關(guān)問(wèn)題研究[D];吉林大學(xué);2017年

9 吳志澤;基于骨架節(jié)點(diǎn)的人體行為識(shí)別研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2017年

10 吳秋霞;復(fù)雜場(chǎng)景下的人體行為識(shí)別[D];華南理工大學(xué);2012年

相關(guān)碩士學(xué)位論文 前10條

1 鐘萍;基于RGBD數(shù)據(jù)的人體行為識(shí)別方法的研究[D];湖南大學(xué);2017年

2 鄭君;基于深度學(xué)習(xí)的多人行為識(shí)別方法的研究[D];中國(guó)石油大學(xué)(華東);2016年

3 常偉;基于時(shí)間序列分析的行為識(shí)別技術(shù)研究[D];青島科技大學(xué);2017年

4 封杰棠;基于模型融合的人體行為識(shí)別方法研究[D];浙江大學(xué);2017年

5 劉璐璐;基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2017年

6 凌佩佩;基于特權(quán)信息的人類行為識(shí)別研究[D];華東師范大學(xué);2017年

7 彭奕飛;公共場(chǎng)合打架和搶劫行為識(shí)別技術(shù)研究[D];大連海事大學(xué);2017年

8 武榮凱;一個(gè)基于CNN的行為識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D];內(nèi)蒙古大學(xué);2017年

9 馬楠;基于步態(tài)壓力特征的人體行為識(shí)別[D];黑龍江大學(xué);2017年

10 葛瑞;基于時(shí)空上下文建模的行為識(shí)別研究[D];蘇州大學(xué);2017年



本文編號(hào):2734736

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2734736.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶bb87d***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com