基于多層卷積神經(jīng)網(wǎng)絡特征和雙向長短時記憶單元的行為識別(英文)
本文關(guān)鍵詞:基于多層卷積神經(jīng)網(wǎng)絡特征和雙向長短時記憶單元的行為識別(英文) 出處:《控制理論與應用》2017年06期 論文類型:期刊論文
更多相關(guān)文章: 行為識別 卷積神經(jīng)網(wǎng)絡 遞歸神經(jīng)網(wǎng)絡 雙向遞歸神經(jīng)網(wǎng)絡
【摘要】:魯棒的視頻行為識別由于其復雜性成為了一項極具挑戰(zhàn)的任務.如何有效提取魯棒的時空特征成為解決問題的關(guān)鍵.在本文中,提出使用雙向長短時記憶單元(Bi-LSTM)作為主要框架去捕獲視頻序列的雙向時空特征.首先,為了增強特征表達,使用多層的卷積神經(jīng)網(wǎng)絡特征代替?zhèn)鹘y(tǒng)的手工特征.多層卷積特征融合了低層形狀信息和高層語義信息,能夠捕獲豐富的空間信息.然后,將提取到的卷積特征輸入Bi-LSTM,Bi-LSTM包含兩個不同方向的LSTM層.前向?qū)訌那跋蚝蟛东@視頻演變,后向?qū)臃捶较蚪R曨l演變.最后兩個方向的演變表達融合到Softmax中,得到最后的分類結(jié)果.在UCF101和HMDB51數(shù)據(jù)集上的實驗結(jié)果顯示本文的方法在行為識別上可以取得較好的性能.
[Abstract]:In this paper , we propose the use of bi - directional long - term memory cell ( Bi - LSTM ) as the main frame to capture the two - way space - time characteristics of the video sequence . Firstly , in order to enhance the feature expression , the multi - layer convolution neural network feature is used instead of the traditional manual feature . The multi - layer convolution feature combines the low - level shape information and the high - level semantic information to capture the rich spatial information .
【作者單位】: 蘇州大學計算機科學與技術(shù)學院;吉林大學符號計算與知識工程教育部重點實驗室;軟件新技術(shù)與產(chǎn)業(yè)化協(xié)同創(chuàng)新中心;常熟理工學院計算機科學與工程學院;
【基金】:Supported by National Natural Science Foundation of China(61170124,61272258,61301299,61272005,61572085) Provincial Natural Science Foundation of Jiangsu(BK20151254,BK20151260) Key Laboratory of Symbolic Computation and Knowledge Engineering of Ministry of Education,Jilin University(93K172016K08) a Prospective Joint Research Projects from Joint Innovation and Research Foundation of Jiangsu Province(BY2014-05914) Collaborative Innovation Center of Novel Software Technology and Industrialization
【分類號】:TP183;TP391.41
【正文快照】: 1 IntroductionThe first challenge is the selection of powerful fea-Action recognition[1]is one of the most active areasture representations.In the last several decades,manydue to its wide applications,such as video surveillance,hand-crafted features are
【相似文獻】
相關(guān)期刊論文 前10條
1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運動特征的行為識別[J];北京交通大學學報;2009年02期
2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測模型的多人行為識別[J];清華大學學報(自然科學版);2009年07期
3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識別與理解研究綜述[J];計算機應用與軟件;2011年11期
4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識別算法[J];光電子.激光;2013年08期
5 鄭胤;陳權(quán)崎;章毓晉;;深度學習及其在目標和行為識別中的新進展[J];中國圖象圖形學報;2014年02期
6 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識別的新方法[J];昆明理工大學學報(理工版);2009年06期
7 谷軍霞;丁曉青;王生進;;基于人體行為3D模型的2D行為識別[J];自動化學報;2010年01期
8 李英杰;尹怡欣;鄧飛;;一種有效的行為識別視頻特征[J];計算機應用;2011年02期
9 王新旭;;基于視覺的人體行為識別研究[J];中國新通信;2012年21期
10 王忠民;曹棟;;坐標轉(zhuǎn)換在移動用戶行為識別中的應用[J];北京郵電大學學報;2014年S1期
相關(guān)會議論文 前5條
1 苗強;周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識別技術(shù)研究[A];第18屆全國多媒體學術(shù)會議(NCMT2009)、第5屆全國人機交互學術(shù)會議(CHCI2009)、第5屆全國普適計算學術(shù)會議(PCC2009)論文集[C];2009年
2 齊娟;陳益強;劉軍發(fā);;基于多模信息感知與融合的行為識別[A];第18屆全國多媒體學術(shù)會議(NCMT2009)、第5屆全國人機交互學術(shù)會議(CHCI2009)、第5屆全國普適計算學術(shù)會議(PCC2009)論文集[C];2009年
3 黃紫藤;吳玲達;;監(jiān)控視頻中簡單人物行為識別研究[A];第18屆全國多媒體學術(shù)會議(NCMT2009)、第5屆全國人機交互學術(shù)會議(CHCI2009)、第5屆全國普適計算學術(shù)會議(PCC2009)論文集[C];2009年
4 安國成;羅志強;李洪研;;改進運動歷史圖的異常行為識別算法[A];第八屆中國智能交通年會優(yōu)秀論文集——智能交通與安全[C];2013年
5 劉威;李石堅;潘綱;;uRecorder:基于位置的社會行為自動日志[A];第18屆全國多媒體學術(shù)會議(NCMT2009)、第5屆全國人機交互學術(shù)會議(CHCI2009)、第5屆全國普適計算學術(shù)會議(PCC2009)論文集[C];2009年
相關(guān)博士學位論文 前10條
1 邵延華;基于計算機視覺的人體行為識別研究[D];重慶大學;2015年
2 仝鈺;基于條件隨機場的智能家居行為識別研究[D];大連海事大學;2015年
3 馮銀付;多模態(tài)人體行為識別技術(shù)研究[D];浙江大學;2015年
4 姜新波;基于三維骨架序列的人體行為識別研究[D];山東大學;2015年
5 裴利沈;視頻中人體行為識別若干問題研究[D];電子科技大學;2016年
6 周同馳;行為識別中基于局部時空關(guān)系的特征模型研究[D];東南大學;2016年
7 徐海燕;復雜環(huán)境下行為識別特征提取方法研究[D];東南大學;2016年
8 吳云鵬;集體行為的識別與仿真研究[D];鄭州大學;2017年
9 何衛(wèi)華;人體行為識別關(guān)鍵技術(shù)研究[D];重慶大學;2012年
10 吳秋霞;復雜場景下的人體行為識別[D];華南理工大學;2012年
相關(guān)碩士學位論文 前10條
1 唐小琴;基于全局和局部運動模式的人體行為識別研究[D];西南大學;2015年
2 陳鈺昕;基于時空特性的人體行為識別研究[D];燕山大學;2015年
3 任亮;智能車環(huán)境下車輛典型行為識別方法研究[D];長安大學;2015年
4 金澤豪;并行化的人體行為識別方法研究與實現(xiàn)[D];華南理工大學;2015年
5 王露;基于稀疏時空特征的人體行為識別研究[D];蘇州大學;2015年
6 于靜;基于物品信息和人體深度信息的行為識別研究[D];山東大學;2015年
7 章瑜;人體運動行為識別相關(guān)方法研究[D];南京師范大學;2015年
8 趙揚;家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學;2015年
9 王曉龍;基于軌跡分析的暴力行為識別算法研究[D];上海交通大學;2015年
10 張偉;智能空間下基于非視覺傳感器數(shù)據(jù)的人體行為識別方法研究[D];山東大學;2015年
,本文編號:1431522
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/1431522.html