基于流密度的多重交互集體行為識(shí)別算法
本文選題:集體行為 + 多重交互; 參考:《計(jì)算機(jī)學(xué)報(bào)》2017年11期
【摘要】:作為當(dāng)前模式識(shí)別領(lǐng)域的研究熱點(diǎn)之一,識(shí)別視頻場(chǎng)景中的集體行為有著重要的科研意義和應(yīng)用價(jià)值.已有的識(shí)別方法都忽略了對(duì)集體行為中多重交互關(guān)系的描述和分析,使得復(fù)雜視頻場(chǎng)景中的集體行為識(shí)別仍存在局限性.該文提出了一種基于流密度的多重交互集體行為識(shí)別算法FDA,能夠識(shí)別集體行為的局部和全局模式.為了準(zhǔn)確地衡量個(gè)體間的行為一致性程度,受流體力學(xué)啟發(fā)定義了流密度,并通過基于流密度的聚類算法識(shí)別局部子群組;為了精確描述集體行為客觀存在中的多重交互關(guān)系,提出了多重鄰接關(guān)系模型.該模型能夠分析子群組間的全局一致性,進(jìn)而通過合并具有較高一致性的子群組得到全局集體行為模式.在多個(gè)真實(shí)視頻數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,FDA算法相比于已有方法具有更高的識(shí)別精度.
[Abstract]:As one of the research hotspots in the field of pattern recognition, the recognition of collective behavior in video scene has important scientific significance and application value. The existing recognition methods ignore the description and analysis of multiple interactions in collective behavior, which makes collective behavior recognition in complex video scenes still limited. In this paper, a multi-layer interactive collective behavior recognition algorithm based on flow density, FDA-based, is proposed, which can recognize the local and global patterns of collective behavior. In order to accurately measure the degree of behavior consistency among individuals, the flow density is defined by fluid mechanics, and local subgroups are identified by clustering algorithm based on flow density, and in order to accurately describe the multiple interactions in the objective existence of collective behavior. A multiplex adjacency model is proposed. The model can analyze the global consistency among subgroups, and then obtain the global collective behavior pattern by merging subgroups with high consistency. The experimental results on many real video data sets show that the FDA-based algorithm has higher recognition accuracy than the existing methods.
【作者單位】: 鄭州大學(xué)信息工程學(xué)院;
【基金】:國家自然科學(xué)基金(61170223,61502434,61672469,61772475) 河南省科技攻關(guān)項(xiàng)目(172102210011)資助~~
【分類號(hào)】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動(dòng)特征的行為識(shí)別[J];北京交通大學(xué)學(xué)報(bào);2009年02期
2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測(cè)模型的多人行為識(shí)別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期
3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識(shí)別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期
4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識(shí)別算法[J];光電子.激光;2013年08期
5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J];中國圖象圖形學(xué)報(bào);2014年02期
6 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識(shí)別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期
7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識(shí)別[J];自動(dòng)化學(xué)報(bào);2010年01期
8 李英杰;尹怡欣;鄧飛;;一種有效的行為識(shí)別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期
9 王新旭;;基于視覺的人體行為識(shí)別研究[J];中國新通信;2012年21期
10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期
相關(guān)會(huì)議論文 前5條
1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年
2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年
3 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡(jiǎn)單人物行為識(shí)別研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年
4 安國成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年
5 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年
相關(guān)博士學(xué)位論文 前10條
1 邵延華;基于計(jì)算機(jī)視覺的人體行為識(shí)別研究[D];重慶大學(xué);2015年
2 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年
3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年
4 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年
5 裴利沈;視頻中人體行為識(shí)別若干問題研究[D];電子科技大學(xué);2016年
6 周同馳;行為識(shí)別中基于局部時(shí)空關(guān)系的特征模型研究[D];東南大學(xué);2016年
7 徐海燕;復(fù)雜環(huán)境下行為識(shí)別特征提取方法研究[D];東南大學(xué);2016年
8 吳云鵬;集體行為的識(shí)別與仿真研究[D];鄭州大學(xué);2017年
9 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年
10 吳秋霞;復(fù)雜場(chǎng)景下的人體行為識(shí)別[D];華南理工大學(xué);2012年
相關(guān)碩士學(xué)位論文 前10條
1 唐小琴;基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究[D];西南大學(xué);2015年
2 陳鈺昕;基于時(shí)空特性的人體行為識(shí)別研究[D];燕山大學(xué);2015年
3 任亮;智能車環(huán)境下車輛典型行為識(shí)別方法研究[D];長安大學(xué);2015年
4 金澤豪;并行化的人體行為識(shí)別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年
5 王露;基于稀疏時(shí)空特征的人體行為識(shí)別研究[D];蘇州大學(xué);2015年
6 于靜;基于物品信息和人體深度信息的行為識(shí)別研究[D];山東大學(xué);2015年
7 章瑜;人體運(yùn)動(dòng)行為識(shí)別相關(guān)方法研究[D];南京師范大學(xué);2015年
8 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年
9 王曉龍;基于軌跡分析的暴力行為識(shí)別算法研究[D];上海交通大學(xué);2015年
10 張偉;智能空間下基于非視覺傳感器數(shù)據(jù)的人體行為識(shí)別方法研究[D];山東大學(xué);2015年
,本文編號(hào):1785108
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1785108.html