天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

一種監(jiān)督降維的OP-LASRC算法在行為識(shí)別中的應(yīng)用

發(fā)布時(shí)間:2018-02-02 10:13

  本文關(guān)鍵詞: 稀疏表示 監(jiān)督降維 優(yōu)化投影 線性近似 行為識(shí)別 出處:《計(jì)算機(jī)應(yīng)用研究》2017年11期  論文類型:期刊論文


【摘要】:針對(duì)大數(shù)據(jù)的人體行為識(shí)別時(shí)實(shí)時(shí)性差和識(shí)別率低的問題,提出了優(yōu)化投影對(duì)線性近似稀疏表示分類(OP-LASRC)的監(jiān)督降維算法,與線性近似稀疏表示(LASRC)快速分類算法結(jié)合用于大數(shù)據(jù)的行為識(shí)別。利用LASRC的殘差計(jì)算規(guī)律設(shè)計(jì)OP-LASRC實(shí)現(xiàn)監(jiān)督降維:在追求一個(gè)線性投影時(shí)減小訓(xùn)練樣本的本類重構(gòu)殘差及增大類間重構(gòu)殘差,保留樣本的類別特征。對(duì)降維后的行為數(shù)據(jù)用LASRC算法分類:用L2范數(shù)估算稀疏系數(shù),取前k個(gè)最大的稀疏系數(shù)對(duì)應(yīng)的訓(xùn)練樣本,用L1范數(shù)和殘差計(jì)算得到識(shí)別結(jié)果。在KTH行為數(shù)據(jù)庫上的實(shí)驗(yàn)表明,OP-LASRC降維后,LASRC在分類時(shí)識(shí)別率高達(dá)96.5%,執(zhí)行時(shí)間比同類算法短,抗噪聲能力強(qiáng),證明了OP-LASRC的高效和強(qiáng)魯棒性,能完美匹配LASRC用于大數(shù)據(jù)的行為識(shí)別。
[Abstract]:In order to solve the problem of poor real-time and low recognition rate in big data's human behavior recognition, a supervised dimensionality reduction algorithm for linear approximate sparse representation classification (OP-LASRC) based on optimal projection is proposed. LASRC) and linear approximate sparse representation. The fast classification algorithm is combined with big data's behavior recognition, and the OP-LASRC is designed to reduce the dimension by using the residual calculation rule of LASRC. In pursuit of a linear projection, the class reconstruction residuals of the training samples are reduced and the inter-class reconstruction residuals are increased. LASRC algorithm is used to classify the behavior data after dimensionality reduction: the sparse coefficients are estimated by L2 norm, and the training samples corresponding to the first k largest sparse coefficients are selected. The recognition results are obtained by using L1 norm and residuals. Experiments on KTH behavioral database show that the recognition rate of OP-LASRC in classification is as high as 96.5%. The execution time is shorter and the anti-noise ability is stronger than the similar algorithms. It is proved that OP-LASRC is efficient and robust, and it can perfectly match LASRC for big data's behavior recognition.
【作者單位】: 上海理工大學(xué)光電學(xué)院;上海市現(xiàn)代光學(xué)系統(tǒng)重點(diǎn)實(shí)驗(yàn)室;
【基金】:國家自然科學(xué)基金資助項(xiàng)目(41075019)
【分類號(hào)】:TP391.41
【正文快照】: 0引言人體行為識(shí)別是模式識(shí)別和機(jī)器視覺領(lǐng)域中被廣泛關(guān)注的研究熱點(diǎn),不僅在智能監(jiān)控、運(yùn)動(dòng)分析、身份鑒別和人機(jī)交互方面具有廣闊的應(yīng)用前景,而且在安全隱患場(chǎng)所的異常行為監(jiān)控,如交通事故、用電安全、醫(yī)療監(jiān)護(hù)等方面具有重要的意義[1]。人體目標(biāo)的行為動(dòng)作在空間上表現(xiàn)出復(fù)

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動(dòng)特征的行為識(shí)別[J];北京交通大學(xué)學(xué)報(bào);2009年02期

2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測(cè)模型的多人行為識(shí)別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期

3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識(shí)別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期

4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識(shí)別算法[J];光電子.激光;2013年08期

5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J];中國圖象圖形學(xué)報(bào);2014年02期

6 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識(shí)別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期

7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識(shí)別[J];自動(dòng)化學(xué)報(bào);2010年01期

8 李英杰;尹怡欣;鄧飛;;一種有效的行為識(shí)別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期

9 王新旭;;基于視覺的人體行為識(shí)別研究[J];中國新通信;2012年21期

10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期

相關(guān)會(huì)議論文 前5條

1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

3 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡單人物行為識(shí)別研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

4 安國成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年

5 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

相關(guān)博士學(xué)位論文 前10條

1 邵延華;基于計(jì)算機(jī)視覺的人體行為識(shí)別研究[D];重慶大學(xué);2015年

2 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年

3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年

4 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年

5 裴利沈;視頻中人體行為識(shí)別若干問題研究[D];電子科技大學(xué);2016年

6 周同馳;行為識(shí)別中基于局部時(shí)空關(guān)系的特征模型研究[D];東南大學(xué);2016年

7 徐海燕;復(fù)雜環(huán)境下行為識(shí)別特征提取方法研究[D];東南大學(xué);2016年

8 吳云鵬;集體行為的識(shí)別與仿真研究[D];鄭州大學(xué);2017年

9 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年

10 吳秋霞;復(fù)雜場(chǎng)景下的人體行為識(shí)別[D];華南理工大學(xué);2012年

相關(guān)碩士學(xué)位論文 前10條

1 唐小琴;基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究[D];西南大學(xué);2015年

2 陳鈺昕;基于時(shí)空特性的人體行為識(shí)別研究[D];燕山大學(xué);2015年

3 任亮;智能車環(huán)境下車輛典型行為識(shí)別方法研究[D];長安大學(xué);2015年

4 金澤豪;并行化的人體行為識(shí)別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年

5 王露;基于稀疏時(shí)空特征的人體行為識(shí)別研究[D];蘇州大學(xué);2015年

6 于靜;基于物品信息和人體深度信息的行為識(shí)別研究[D];山東大學(xué);2015年

7 章瑜;人體運(yùn)動(dòng)行為識(shí)別相關(guān)方法研究[D];南京師范大學(xué);2015年

8 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年

9 王曉龍;基于軌跡分析的暴力行為識(shí)別算法研究[D];上海交通大學(xué);2015年

10 張偉;智能空間下基于非視覺傳感器數(shù)據(jù)的人體行為識(shí)別方法研究[D];山東大學(xué);2015年

,

本文編號(hào):1484272

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1484272.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶e8c5f***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com