天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 軟件論文 >

結(jié)合MACH濾波最大池化及多類SVM的行為識別

發(fā)布時間:2020-02-03 20:14
【摘要】:提出一種人體行為識別方法。構建MACH濾波器組,對視頻片段的三維時空體進行濾波,得到時空相關體;采用三層最大池化方法提取時空相關體的特征向量,采用高斯隸屬函數(shù)對池化特征向量進行擴展;構建多類SVM分類器并進行特征分類,識別行為類別。在ADL和UCF Sports兩個國際上通用的人體行為數(shù)據(jù)集上進行人體行為識別實驗,實驗結(jié)果表明,該方法的識別率高于現(xiàn)有的人體行為識別方法,對不同人體行為的區(qū)分能力更強。
【圖文】:

濾波器圖,濾波器,流程,分類器


計算機工程與設計2017年多類SVM分類器的人體行為識別方法,設計思路是:將目前二維圖像處理領域性能優(yōu)異的MACH濾波器[10]應用于描述視頻片段的三維時空體,提取視頻片段的三維時空相關體。然后在三層最大池化濾波的基礎上,再采用高斯隸屬函數(shù)構建歸一化的池化特征,擴展特征容量,提高特征對不同行為的區(qū)分能力。另外在分類階段直接訓練一個多類SVM分類器,與級聯(lián)二值SVM分類器的方式相比提高了分類器的訓練和識別效率。1本文方法本文方法的實現(xiàn)流程如圖1所示。其中,在訓練階段,先構建MACH濾波器組、高斯模糊集中心及寬度參數(shù)集和多類SVM分類器。在識別階段,先用已構建的MACH濾波器組對視頻片段的三維時空體進行濾波,得到時空相關體。然后采用三層最大池化方法提取特征向量,并結(jié)合已構建的高斯模糊集中心及寬度參數(shù)集和高斯隸屬函數(shù)對池化特征進行歸一化,擴展特征向量。最后采用已構建的多類SVM分類器進行特征分類,得到行為識別結(jié)果。其詳細實現(xiàn)過程描述如下。圖1本文方法實現(xiàn)流程1.1濾波器訓練MACH濾波器是一種相關濾波器,通過優(yōu)化4個測度來構建,這4個測度包括平均相關高度、平均相關能量、平均相似測度和輸出噪聲變量[10]。該濾波器目前已廣泛應用于掌紋識別、人臉識別等二維圖像處理領域。人體行為識別一般不是基于單一二維圖像進行的,而是基于視頻片段進行的。視頻片段可以看作是一個三維矩陣,由二維空間軸加上一維時間軸組成,可以表示為S={ft(x,y)0≤x≤P-1,0≤y≤Q-1,0≤t≤R-1}(1)在本文中,ft(x,

數(shù)據(jù)集,分類識別,識別率,行為數(shù)據(jù)


價算法的性能,識別率定義為識別率=分類正確的視頻片段數(shù)量視頻片段總數(shù)×100%(20)下面分別介紹兩個人體行為數(shù)據(jù)集下的實驗結(jié)果,然后對行為識別算法性能進行綜合評價。2.2ADL行為數(shù)據(jù)集實驗結(jié)果ADL數(shù)據(jù)集中每一類行為都是15個視頻片段,本文選用每一類行為的前5個視頻片段進行訓練,,構建MACH濾波器組、高斯模糊集中心及寬度參數(shù)集和多類SVM分類器。然后用每一類行為剩余的12個視頻片段進行行為識別測試。本文算法得到的分類混淆如圖3所示。圖3ADL數(shù)據(jù)集下本文算法的分類混淆目前在ADL數(shù)據(jù)集上行為分類識別率排在前兩位的算法見文獻[2,7],表1展示了本文算法的識別率與這兩種算法識別率的對比,其中,引用文獻的識別率結(jié)果出自對應文獻。表1ADL數(shù)據(jù)集的識別率結(jié)果算法識別率/%文獻[2]方法91.0文獻[7]方法96.0本文方法96.02.3UCFSports行為數(shù)據(jù)集實驗結(jié)果UCFSports數(shù)據(jù)集中每一類行為的視頻片段數(shù)量不同,本文仍選用每一類行為的前5個視頻片段進行訓練,剩余視頻片段進行行為識別測試。本文算法得到的分類混淆如圖4所示。目前在UCFSports數(shù)據(jù)集上行為分類識別率排在前兩位的算法見文獻[3,8],表2展示了本文算法的識別率與這兩個算法識別率的對比,同樣地,引用文獻的識別率結(jié)·3434·

【相似文獻】

相關期刊論文 前10條

1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運動特征的行為識別[J];北京交通大學學報;2009年02期

2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測模型的多人行為識別[J];清華大學學報(自然科學版);2009年07期

3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識別與理解研究綜述[J];計算機應用與軟件;2011年11期

4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識別算法[J];光電子.激光;2013年08期

5 鄭胤;陳權崎;章毓晉;;深度學習及其在目標和行為識別中的新進展[J];中國圖象圖形學報;2014年02期

6 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識別的新方法[J];昆明理工大學學報(理工版);2009年06期

7 谷軍霞;丁曉青;王生進;;基于人體行為3D模型的2D行為識別[J];自動化學報;2010年01期

8 李英杰;尹怡欣;鄧飛;;一種有效的行為識別視頻特征[J];計算機應用;2011年02期

9 王新旭;;基于視覺的人體行為識別研究[J];中國新通信;2012年21期

10 王忠民;曹棟;;坐標轉(zhuǎn)換在移動用戶行為識別中的應用[J];北京郵電大學學報;2014年S1期

相關會議論文 前6條

1 苗強;周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識別技術研究[A];第18屆全國多媒體學術會議(NCMT2009)、第5屆全國人機交互學術會議(CHCI2009)、第5屆全國普適計算學術會議(PCC2009)論文集[C];2009年

2 齊娟;陳益強;劉軍發(fā);;基于多模信息感知與融合的行為識別[A];第18屆全國多媒體學術會議(NCMT2009)、第5屆全國人機交互學術會議(CHCI2009)、第5屆全國普適計算學術會議(PCC2009)論文集[C];2009年

3 黃紫藤;吳玲達;;監(jiān)控視頻中簡單人物行為識別研究[A];第18屆全國多媒體學術會議(NCMT2009)、第5屆全國人機交互學術會議(CHCI2009)、第5屆全國普適計算學術會議(PCC2009)論文集[C];2009年

4 安國成;羅志強;李洪研;;改進運動歷史圖的異常行為識別算法[A];第八屆中國智能交通年會優(yōu)秀論文集——智能交通與安全[C];2013年

5 劉威;李石堅;潘綱;;uRecorder:基于位置的社會行為自動日志[A];第18屆全國多媒體學術會議(NCMT2009)、第5屆全國人機交互學術會議(CHCI2009)、第5屆全國普適計算學術會議(PCC2009)論文集[C];2009年

6 左南;李涓子;唐杰;;基于SVM的肖像照片抽取[A];第三屆全國信息檢索與內(nèi)容安全學術會議論文集[C];2007年

相關博士學位論文 前10條

1 邵延華;基于計算機視覺的人體行為識別研究[D];重慶大學;2015年

2 仝鈺;基于條件隨機場的智能家居行為識別研究[D];大連海事大學;2015年

3 馮銀付;多模態(tài)人體行為識別技術研究[D];浙江大學;2015年

4 姜新波;基于三維骨架序列的人體行為識別研究[D];山東大學;2015年

5 裴利沈;視頻中人體行為識別若干問題研究[D];電子科技大學;2016年

6 周同馳;行為識別中基于局部時空關系的特征模型研究[D];東南大學;2016年

7 徐海燕;復雜環(huán)境下行為識別特征提取方法研究[D];東南大學;2016年

8 吳云鵬;集體行為的識別與仿真研究[D];鄭州大學;2017年

9 何衛(wèi)華;人體行為識別關鍵技術研究[D];重慶大學;2012年

10 吳秋霞;復雜場景下的人體行為識別[D];華南理工大學;2012年

相關碩士學位論文 前10條

1 唐小琴;基于全局和局部運動模式的人體行為識別研究[D];西南大學;2015年

2 陳鈺昕;基于時空特性的人體行為識別研究[D];燕山大學;2015年

3 任亮;智能車環(huán)境下車輛典型行為識別方法研究[D];長安大學;2015年

4 金澤豪;并行化的人體行為識別方法研究與實現(xiàn)[D];華南理工大學;2015年

5 王露;基于稀疏時空特征的人體行為識別研究[D];蘇州大學;2015年

6 于靜;基于物品信息和人體深度信息的行為識別研究[D];山東大學;2015年

7 章瑜;人體運動行為識別相關方法研究[D];南京師范大學;2015年

8 趙揚;家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學;2015年

9 王曉龍;基于軌跡分析的暴力行為識別算法研究[D];上海交通大學;2015年

10 張偉;智能空間下基于非視覺傳感器數(shù)據(jù)的人體行為識別方法研究[D];山東大學;2015年



本文編號:2576107

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2576107.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權申明:資料由用戶d8897***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com