天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于改進(jìn)3D卷積神經(jīng)網(wǎng)絡(luò)的群組行為識(shí)別算法研究

發(fā)布時(shí)間:2021-11-22 01:41
  近年來(lái),隨著智能監(jiān)控系統(tǒng)的廣泛應(yīng)用以及計(jì)算機(jī)視覺(jué)技術(shù)的不斷發(fā)展,群組行為識(shí)別已經(jīng)成為智能視頻監(jiān)控領(lǐng)域中的關(guān)鍵技術(shù),對(duì)于公共安全、人機(jī)交互和視頻分析等領(lǐng)域具有重要的研究意義。社會(huì)的快速發(fā)展,對(duì)有效防范大規(guī)模群組事件的發(fā)生提出了迫切要求,如何構(gòu)建一個(gè)高效穩(wěn)定的群組行為識(shí)別算法是解決該問(wèn)題的關(guān)鍵。而在構(gòu)建群組行為識(shí)別算法過(guò)程中依然存在幾個(gè)核心問(wèn)題需要亟待解決。其一,提高網(wǎng)絡(luò)運(yùn)行速度是保障智能視頻監(jiān)控系統(tǒng)實(shí)時(shí)性的核心問(wèn)題;其二,交互關(guān)系建模是影響群組行為識(shí)別精度的核心問(wèn)題;其三,綜合利用多線索特征是全面提高群組行為識(shí)別性能的核心問(wèn)題。本文針對(duì)上述三個(gè)問(wèn)題進(jìn)行重點(diǎn)研究,并做出以下幾點(diǎn)貢獻(xiàn):(1)網(wǎng)絡(luò)運(yùn)行速度慢是制約智能監(jiān)控系統(tǒng)實(shí)時(shí)性的核心問(wèn)題,本文提出一種高效的C3D網(wǎng)絡(luò)(Efficient 3D Convolutional,EC3D)模型,提高了時(shí)空特征提取階段的網(wǎng)絡(luò)運(yùn)行速度。針對(duì)C3D網(wǎng)絡(luò)參數(shù)多、訓(xùn)練速度慢的問(wèn)題,本文從降低參數(shù)量的角度入手,將C3D網(wǎng)絡(luò)中7*7*3的時(shí)空卷積分解為7*7*1的空間卷積和1*1*3的時(shí)間卷積,每個(gè)卷積核的參數(shù)量由原來(lái)的7*7*3=147個(gè),變?yōu)?*7*1+1*... 

【文章來(lái)源】:青島科技大學(xué)山東省

【文章頁(yè)數(shù)】:69 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于改進(jìn)3D卷積神經(jīng)網(wǎng)絡(luò)的群組行為識(shí)別算法研究


D卷積核與3D卷積核對(duì)比

示意圖,門控,單元


青島科技大學(xué)研究生學(xué)位論文LSTM網(wǎng)絡(luò)在處理時(shí)序信息時(shí),其核心部件是門控單元,通過(guò)門控單元可以確定應(yīng)該何時(shí)輸入信息,應(yīng)該記住哪些信息、遺忘哪些信息以及何時(shí)輸出信息。其中,門控單元通過(guò)以下操作完成迭代過(guò)程。(t)(2-3)(t)(2-4)(t)(2-5)(tttt)(2-6)ttt(2-7)其中表示Sigmoid函數(shù),表示雙曲正切函數(shù),表示元素乘法,和表示權(quán)重矩陣。為L(zhǎng)STM網(wǎng)絡(luò)輸入,為具有個(gè)隱藏單元的隱藏狀態(tài),,為輸入門,為遺忘門,為輸出門,為時(shí)間的輸入調(diào)制門,t是記憶單元。LSTM門控單元的框架示意圖,如圖2-2所示。圖2-2LSTM門控單元Fig.2-2LSTMgatedunit通常用隱藏狀態(tài),對(duì)時(shí)刻人體目標(biāo)正在執(zhí)行的動(dòng)作進(jìn)行建模。由于在信息流上部署了門控單元,因此隱藏狀態(tài)的輸出會(huì)根據(jù)過(guò)去記憶單元中內(nèi)容的變化而變化。時(shí)刻隱藏單元的輸出可以用公式(2-8)進(jìn)行表示。t(t)(2-8)將所有隱含層的狀態(tài){|t,,…,T}聚合在一起,描述整個(gè)視頻片段的時(shí)空特征,并通過(guò)公式(2-9)計(jì)算輸出結(jié)果。t()(2-9)最后將所有隱含層的輸出結(jié)果傳遞給Softmax函數(shù),以將時(shí)空特征轉(zhuǎn)換為與第類行為相對(duì)應(yīng)的概率值,(,…,t)

架構(gòu)圖,雙流,卷積,架構(gòu)


基于改進(jìn)3D卷積神經(jīng)網(wǎng)絡(luò)的群組行為識(shí)別算法研究22,exp(,)texp(,)(2-10)其中,中的,表示第個(gè)行為類別的置信度得分編碼。通常設(shè),,,,…,,t為預(yù)測(cè)的分類標(biāo)簽向量;贚STM的時(shí)空特征提取方法,雖然能夠捕獲連續(xù)幀中的時(shí)間信息,但網(wǎng)絡(luò)在訓(xùn)練過(guò)程中只學(xué)習(xí)了高層信息之間的聯(lián)系,而丟失了底層關(guān)鍵的交互信息,因此識(shí)別結(jié)果不如人意。2.2.3基于雙流卷積網(wǎng)絡(luò)的方法基于雙流卷積網(wǎng)絡(luò)的時(shí)空特征提取方法,通過(guò)模擬人體的視覺(jué)特性對(duì)視頻信息進(jìn)行處理。將視頻自然的分解成空間域和時(shí)間域,空間域是通過(guò)處理單個(gè)視頻幀來(lái)描述空間特征,包括環(huán)境和視頻中的人體目標(biāo),稱為空間信息網(wǎng);時(shí)間域是通過(guò)處理連續(xù)視頻幀來(lái)捕獲光流信息,并將光流信息作為時(shí)序特征的載體來(lái)描述人體運(yùn)動(dòng)特征,稱為時(shí)間信息網(wǎng)。為了有效的進(jìn)行人體行為分類,文獻(xiàn)[44]提出一種雙流卷積神經(jīng)網(wǎng)絡(luò)模型,網(wǎng)絡(luò)架構(gòu)如圖2-3所示。圖2-3雙流卷積網(wǎng)絡(luò)架構(gòu)Fig.2-3Two-Streamconvolutionalnetworkarchitecture從圖2-3可以看出,該模型的整體網(wǎng)絡(luò)架構(gòu)由兩條支路組成,每條支路的功能都通過(guò)一個(gè)卷積神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)。第一條支路是空間卷積網(wǎng)絡(luò),以單個(gè)視頻幀作為網(wǎng)絡(luò)輸入,經(jīng)過(guò)多種卷積、池化操作,提取視頻幀中的空間特征,并利用Softmax計(jì)算分類得分;第二條支路是時(shí)間卷積網(wǎng)絡(luò),以多個(gè)視頻幀提取的光流信息作為網(wǎng)絡(luò)輸入,經(jīng)過(guò)同樣的卷積、池化操作后,提取多個(gè)視頻幀中的人體運(yùn)動(dòng)特征,并利用Softmax計(jì)算分類得分;最后將兩條支路的分類結(jié)果進(jìn)行融合,輸出最終的行為類別。下面將詳細(xì)介紹兩條支路的時(shí)空特征提取過(guò)程。

【參考文獻(xiàn)】:
期刊論文
[1]基于自適應(yīng)類別權(quán)重的HRRP決策融合識(shí)別[J]. 戴為龍,張弓,劉文波,鐘娟娟.  現(xiàn)代雷達(dá). 2017(07)
[2]基于多特征的視頻中單人行為識(shí)別[J]. 胡興旺,祁云嵩,袁玉龍.  電子設(shè)計(jì)工程. 2015(12)

博士論文
[1]貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)與推理研究[D]. 朱明敏.西安電子科技大學(xué) 2013

碩士論文
[1]基于條件隨機(jī)場(chǎng)的多視圖序列數(shù)據(jù)建模研究[D]. 董子昂.華東師范大學(xué) 2020
[2]基于監(jiān)控視頻的群體行為識(shí)別算法研究[D]. 張樂(lè)軍.安徽大學(xué) 2019
[3]分類器評(píng)價(jià)指標(biāo)MCC、CEN和ACC的比較研究[D]. 劉林.天津師范大學(xué) 2019
[4]基于深度學(xué)習(xí)的群體行為識(shí)別方法研究[D]. 李定.哈爾濱理工大學(xué) 2019
[5]基于深度學(xué)習(xí)的人體動(dòng)作識(shí)別[D]. 耿馳.南京郵電大學(xué) 2016



本文編號(hào):3510678

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3510678.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶463db***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com