結(jié)合MACH濾波最大池化及多類SVM的行為識(shí)別
【圖文】:
計(jì)算機(jī)工程與設(shè)計(jì)2017年多類SVM分類器的人體行為識(shí)別方法,設(shè)計(jì)思路是:將目前二維圖像處理領(lǐng)域性能優(yōu)異的MACH濾波器[10]應(yīng)用于描述視頻片段的三維時(shí)空體,提取視頻片段的三維時(shí)空相關(guān)體。然后在三層最大池化濾波的基礎(chǔ)上,再采用高斯隸屬函數(shù)構(gòu)建歸一化的池化特征,擴(kuò)展特征容量,提高特征對(duì)不同行為的區(qū)分能力。另外在分類階段直接訓(xùn)練一個(gè)多類SVM分類器,與級(jí)聯(lián)二值SVM分類器的方式相比提高了分類器的訓(xùn)練和識(shí)別效率。1本文方法本文方法的實(shí)現(xiàn)流程如圖1所示。其中,在訓(xùn)練階段,先構(gòu)建MACH濾波器組、高斯模糊集中心及寬度參數(shù)集和多類SVM分類器。在識(shí)別階段,先用已構(gòu)建的MACH濾波器組對(duì)視頻片段的三維時(shí)空體進(jìn)行濾波,得到時(shí)空相關(guān)體。然后采用三層最大池化方法提取特征向量,并結(jié)合已構(gòu)建的高斯模糊集中心及寬度參數(shù)集和高斯隸屬函數(shù)對(duì)池化特征進(jìn)行歸一化,擴(kuò)展特征向量。最后采用已構(gòu)建的多類SVM分類器進(jìn)行特征分類,得到行為識(shí)別結(jié)果。其詳細(xì)實(shí)現(xiàn)過(guò)程描述如下。圖1本文方法實(shí)現(xiàn)流程1.1濾波器訓(xùn)練MACH濾波器是一種相關(guān)濾波器,通過(guò)優(yōu)化4個(gè)測(cè)度來(lái)構(gòu)建,這4個(gè)測(cè)度包括平均相關(guān)高度、平均相關(guān)能量、平均相似測(cè)度和輸出噪聲變量[10]。該濾波器目前已廣泛應(yīng)用于掌紋識(shí)別、人臉識(shí)別等二維圖像處理領(lǐng)域。人體行為識(shí)別一般不是基于單一二維圖像進(jìn)行的,而是基于視頻片段進(jìn)行的。視頻片段可以看作是一個(gè)三維矩陣,由二維空間軸加上一維時(shí)間軸組成,可以表示為S={ft(x,y)0≤x≤P-1,0≤y≤Q-1,0≤t≤R-1}(1)在本文中,ft(x,
價(jià)算法的性能,識(shí)別率定義為識(shí)別率=分類正確的視頻片段數(shù)量視頻片段總數(shù)×100%(20)下面分別介紹兩個(gè)人體行為數(shù)據(jù)集下的實(shí)驗(yàn)結(jié)果,然后對(duì)行為識(shí)別算法性能進(jìn)行綜合評(píng)價(jià)。2.2ADL行為數(shù)據(jù)集實(shí)驗(yàn)結(jié)果ADL數(shù)據(jù)集中每一類行為都是15個(gè)視頻片段,本文選用每一類行為的前5個(gè)視頻片段進(jìn)行訓(xùn)練,,構(gòu)建MACH濾波器組、高斯模糊集中心及寬度參數(shù)集和多類SVM分類器。然后用每一類行為剩余的12個(gè)視頻片段進(jìn)行行為識(shí)別測(cè)試。本文算法得到的分類混淆如圖3所示。圖3ADL數(shù)據(jù)集下本文算法的分類混淆目前在ADL數(shù)據(jù)集上行為分類識(shí)別率排在前兩位的算法見(jiàn)文獻(xiàn)[2,7],表1展示了本文算法的識(shí)別率與這兩種算法識(shí)別率的對(duì)比,其中,引用文獻(xiàn)的識(shí)別率結(jié)果出自對(duì)應(yīng)文獻(xiàn)。表1ADL數(shù)據(jù)集的識(shí)別率結(jié)果算法識(shí)別率/%文獻(xiàn)[2]方法91.0文獻(xiàn)[7]方法96.0本文方法96.02.3UCFSports行為數(shù)據(jù)集實(shí)驗(yàn)結(jié)果UCFSports數(shù)據(jù)集中每一類行為的視頻片段數(shù)量不同,本文仍選用每一類行為的前5個(gè)視頻片段進(jìn)行訓(xùn)練,剩余視頻片段進(jìn)行行為識(shí)別測(cè)試。本文算法得到的分類混淆如圖4所示。目前在UCFSports數(shù)據(jù)集上行為分類識(shí)別率排在前兩位的算法見(jiàn)文獻(xiàn)[3,8],表2展示了本文算法的識(shí)別率與這兩個(gè)算法識(shí)別率的對(duì)比,同樣地,引用文獻(xiàn)的識(shí)別率結(jié)·3434·
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動(dòng)特征的行為識(shí)別[J];北京交通大學(xué)學(xué)報(bào);2009年02期
2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測(cè)模型的多人行為識(shí)別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期
3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識(shí)別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期
4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識(shí)別算法[J];光電子.激光;2013年08期
5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J];中國(guó)圖象圖形學(xué)報(bào);2014年02期
6 曾青松;余明輝;賀衛(wèi)國(guó);李玲;;一種行為識(shí)別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期
7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識(shí)別[J];自動(dòng)化學(xué)報(bào);2010年01期
8 李英杰;尹怡欣;鄧飛;;一種有效的行為識(shí)別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期
9 王新旭;;基于視覺(jué)的人體行為識(shí)別研究[J];中國(guó)新通信;2012年21期
10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期
相關(guān)會(huì)議論文 前6條
1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺(jué)察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年
2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年
3 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡(jiǎn)單人物行為識(shí)別研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年
4 安國(guó)成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國(guó)智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年
5 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年
6 左南;李涓子;唐杰;;基于SVM的肖像照片抽取[A];第三屆全國(guó)信息檢索與內(nèi)容安全學(xué)術(shù)會(huì)議論文集[C];2007年
相關(guān)博士學(xué)位論文 前10條
1 邵延華;基于計(jì)算機(jī)視覺(jué)的人體行為識(shí)別研究[D];重慶大學(xué);2015年
2 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年
3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年
4 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年
5 裴利沈;視頻中人體行為識(shí)別若干問(wèn)題研究[D];電子科技大學(xué);2016年
6 周同馳;行為識(shí)別中基于局部時(shí)空關(guān)系的特征模型研究[D];東南大學(xué);2016年
7 徐海燕;復(fù)雜環(huán)境下行為識(shí)別特征提取方法研究[D];東南大學(xué);2016年
8 吳云鵬;集體行為的識(shí)別與仿真研究[D];鄭州大學(xué);2017年
9 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年
10 吳秋霞;復(fù)雜場(chǎng)景下的人體行為識(shí)別[D];華南理工大學(xué);2012年
相關(guān)碩士學(xué)位論文 前10條
1 唐小琴;基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究[D];西南大學(xué);2015年
2 陳鈺昕;基于時(shí)空特性的人體行為識(shí)別研究[D];燕山大學(xué);2015年
3 任亮;智能車環(huán)境下車輛典型行為識(shí)別方法研究[D];長(zhǎng)安大學(xué);2015年
4 金澤豪;并行化的人體行為識(shí)別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年
5 王露;基于稀疏時(shí)空特征的人體行為識(shí)別研究[D];蘇州大學(xué);2015年
6 于靜;基于物品信息和人體深度信息的行為識(shí)別研究[D];山東大學(xué);2015年
7 章瑜;人體運(yùn)動(dòng)行為識(shí)別相關(guān)方法研究[D];南京師范大學(xué);2015年
8 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年
9 王曉龍;基于軌跡分析的暴力行為識(shí)別算法研究[D];上海交通大學(xué);2015年
10 張偉;智能空間下基于非視覺(jué)傳感器數(shù)據(jù)的人體行為識(shí)別方法研究[D];山東大學(xué);2015年
本文編號(hào):2576107
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2576107.html