基于機(jī)器學(xué)習(xí)的行人姿態(tài)估計(jì)及識別的算法研究
發(fā)布時(shí)間:2022-02-18 14:47
視頻行為識別的目的是自動檢測并分類來自輸入視頻的正在進(jìn)行的活動。它在監(jiān)控,在線視頻,運(yùn)動分析等方面有很多應(yīng)用。在某些特定的場景中,監(jiān)控視頻中的非正常行為是大家關(guān)注的重點(diǎn),通過系統(tǒng)自動識別異常行為,工作人員可以及時(shí)的判斷目標(biāo)區(qū)域是否存在危險(xiǎn)行為以及它的特點(diǎn),從而防止惡性活動的進(jìn)一步擴(kuò)散及更惡劣后果的出現(xiàn)。視頻行為識別是機(jī)器學(xué)習(xí)在安防領(lǐng)域的深入應(yīng)用,這個產(chǎn)業(yè)也吸引著越來越多的研究人員和學(xué)者的加入。視頻行為識別是指從視頻序列中自動分類,其類別通常是人類行為,如步行,慢跑等。視頻分析與圖像分析最大的區(qū)別在于,視頻序列包含額外的時(shí)間信息,所需的計(jì)算量通常要大得多。因此,當(dāng)前人體行為識別算法的難點(diǎn)集中在這幾點(diǎn):1.如何提取有效的時(shí)間域特征和空間域特征是姿態(tài)識別和行為分類過程中最重要的問題;2.如何有效融合相同的空間域下和不同時(shí)間域下的特征,共同完成姿態(tài)的估計(jì)和行為的描述;3.為了滿足實(shí)際應(yīng)用的要求,算法的效率非常重要,即如何在保證特征提取能力的基礎(chǔ)上縮小模型規(guī)模;4.網(wǎng)絡(luò)在訓(xùn)練集上的分類結(jié)果非常好,但往往在測試集上的分類結(jié)果并不理想,即如何保證模型的泛化能力。這些問題限制了計(jì)算機(jī)模型自動完成視頻中...
【文章來源】:山東大學(xué)山東省211工程院校985工程院校教育部直屬院校
【文章頁數(shù)】:66 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1?2D卷積操作過程??
I崎??圖2-2?3D卷積操作過程??圖2-2中,3D卷積操作過程的時(shí)間維度是3維,也就是對連續(xù)的三幀視頻圖??像完成卷積運(yùn)算,圖中的3D卷積首先排列許多的特征圖構(gòu)成三維結(jié)構(gòu),接下來在??整個三維結(jié)構(gòu)中不停的使用3D卷積核完成視頻行為的分析。這種架構(gòu)中,卷積層??的每個特征圖都要連接上層中的多個相鄰的連續(xù)特征圖,因而可以準(zhǔn)確描述視頻??中行人的行為特征。具體地說,在圖2-2中,特征圖的某一位置的激活值是通過在??上一層三個連續(xù)的特征圖的局部感受野進(jìn)行卷積并求和得到的。??每個立方體中的3D卷積核只能捕獲某種固定類別的特征信息,這是由于相同??立方體中的卷積核參數(shù)相同導(dǎo)致的,即用來減輕過擬合的權(quán)值共享策略。但是研??宄人員可以通過使用多個卷積核以全面表達(dá)視頻行為的特征信息。??30?0^網(wǎng)絡(luò)包括輸入層、硬線層、降采樣層、卷積層等。輸入層(丨1^11血761〇??將60x40尺寸的連續(xù)視頻巾貞圖像作為輸入。在硬線層(hardwiredlayer,?H1)中,??每個視頻幀被提取五個通道信息
-,過3x3的濾波器完成降采樣運(yùn)算,每個特征圖的大小變?yōu)椋罚�。在這個過程后,各??個通道的特征圖尺寸己經(jīng)變得相當(dāng)小。在卷積層(convolutionlayer,C6)中,每??個特征圖使用7x4的2D卷積核完成卷積運(yùn)算,此時(shí)每個特征圖的尺寸為1x1。對??于深度卷積神經(jīng)網(wǎng)絡(luò)來說,一個經(jīng)典的設(shè)計(jì)技巧就是:特征圖的數(shù)量隨著層數(shù)的??增加而增加,充分組合低層次特征以形成完整的高層語義信息的提取。??在整個結(jié)構(gòu)中,層層的卷積運(yùn)算和降采樣操作使得7幅視頻幀可以產(chǎn)生大小??128的特征圖。輸出層的神經(jīng)元數(shù)量與視頻行為類別的數(shù)量是一致的,輸出層的每??個神經(jīng)元都與這128維的特征向量通過全連接方式相連。最終往往采用線性分類??算法完成對128維的特征向量的分類,以此實(shí)現(xiàn)視頻中行為的識別。3DCNN網(wǎng)絡(luò)??模型中的全部可訓(xùn)練權(quán)重都采用隨機(jī)初始化,然后使用反向傳播算法??(Backpropagation,BP)完成優(yōu)化過程。3DCNN網(wǎng)絡(luò)模型的最終結(jié)構(gòu)如圖2-3所??示。??
【參考文獻(xiàn)】:
期刊論文
[1]基于多尺度時(shí)不可逆與t-SNE流形學(xué)習(xí)的滾動軸承故障診斷[J]. 姜戰(zhàn)偉,鄭近德,潘海洋,潘紫微. 振動與沖擊. 2017(17)
[2]基于多核稀疏編碼的三維人體姿態(tài)估計(jì)[J]. 余家林,孫季豐,李萬益. 電子學(xué)報(bào). 2016(08)
[3]基于深度學(xué)習(xí)的高分辨率遙感影像分類研究[J]. 劉大偉,韓玲,韓曉勇. 光學(xué)學(xué)報(bào). 2016(04)
[4]基于深度圖像梯度特征的人體姿態(tài)估計(jì)[J]. 徐岳峰,周書仁,王剛,佘凱晟. 計(jì)算機(jī)工程. 2015(12)
[5]改進(jìn)隨機(jī)森林及其在人體姿態(tài)識別中的應(yīng)用[J]. 周博翔,李平,李蓮. 計(jì)算機(jī)工程與應(yīng)用. 2015(16)
[6]基于Kinect的實(shí)時(shí)人體姿勢識別[J]. 劉開余,夏斌. 電子設(shè)計(jì)工程. 2014(19)
[7]基于HOG和顏色特征融合的人體姿態(tài)估計(jì)[J]. 韓貴金,朱虹. 模式識別與人工智能. 2014(09)
[8]基于約束樹形圖結(jié)構(gòu)外觀模型的人體姿態(tài)估計(jì)[J]. 王浩,劉則芬,方寶富,陳金金. 計(jì)算機(jī)科學(xué). 2014(03)
[9]基于部位檢測的人體姿態(tài)識別[J]. 殷海艷,劉波. 計(jì)算機(jī)工程與設(shè)計(jì). 2013(10)
[10]一種基于圖結(jié)構(gòu)模型的人體姿態(tài)估計(jì)算法[J]. 韓貴金,朱虹. 計(jì)算機(jī)工程與應(yīng)用. 2013(14)
本文編號:3631027
【文章來源】:山東大學(xué)山東省211工程院校985工程院校教育部直屬院校
【文章頁數(shù)】:66 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1?2D卷積操作過程??
I崎??圖2-2?3D卷積操作過程??圖2-2中,3D卷積操作過程的時(shí)間維度是3維,也就是對連續(xù)的三幀視頻圖??像完成卷積運(yùn)算,圖中的3D卷積首先排列許多的特征圖構(gòu)成三維結(jié)構(gòu),接下來在??整個三維結(jié)構(gòu)中不停的使用3D卷積核完成視頻行為的分析。這種架構(gòu)中,卷積層??的每個特征圖都要連接上層中的多個相鄰的連續(xù)特征圖,因而可以準(zhǔn)確描述視頻??中行人的行為特征。具體地說,在圖2-2中,特征圖的某一位置的激活值是通過在??上一層三個連續(xù)的特征圖的局部感受野進(jìn)行卷積并求和得到的。??每個立方體中的3D卷積核只能捕獲某種固定類別的特征信息,這是由于相同??立方體中的卷積核參數(shù)相同導(dǎo)致的,即用來減輕過擬合的權(quán)值共享策略。但是研??宄人員可以通過使用多個卷積核以全面表達(dá)視頻行為的特征信息。??30?0^網(wǎng)絡(luò)包括輸入層、硬線層、降采樣層、卷積層等。輸入層(丨1^11血761〇??將60x40尺寸的連續(xù)視頻巾貞圖像作為輸入。在硬線層(hardwiredlayer,?H1)中,??每個視頻幀被提取五個通道信息
-,過3x3的濾波器完成降采樣運(yùn)算,每個特征圖的大小變?yōu)椋罚�。在這個過程后,各??個通道的特征圖尺寸己經(jīng)變得相當(dāng)小。在卷積層(convolutionlayer,C6)中,每??個特征圖使用7x4的2D卷積核完成卷積運(yùn)算,此時(shí)每個特征圖的尺寸為1x1。對??于深度卷積神經(jīng)網(wǎng)絡(luò)來說,一個經(jīng)典的設(shè)計(jì)技巧就是:特征圖的數(shù)量隨著層數(shù)的??增加而增加,充分組合低層次特征以形成完整的高層語義信息的提取。??在整個結(jié)構(gòu)中,層層的卷積運(yùn)算和降采樣操作使得7幅視頻幀可以產(chǎn)生大小??128的特征圖。輸出層的神經(jīng)元數(shù)量與視頻行為類別的數(shù)量是一致的,輸出層的每??個神經(jīng)元都與這128維的特征向量通過全連接方式相連。最終往往采用線性分類??算法完成對128維的特征向量的分類,以此實(shí)現(xiàn)視頻中行為的識別。3DCNN網(wǎng)絡(luò)??模型中的全部可訓(xùn)練權(quán)重都采用隨機(jī)初始化,然后使用反向傳播算法??(Backpropagation,BP)完成優(yōu)化過程。3DCNN網(wǎng)絡(luò)模型的最終結(jié)構(gòu)如圖2-3所??示。??
【參考文獻(xiàn)】:
期刊論文
[1]基于多尺度時(shí)不可逆與t-SNE流形學(xué)習(xí)的滾動軸承故障診斷[J]. 姜戰(zhàn)偉,鄭近德,潘海洋,潘紫微. 振動與沖擊. 2017(17)
[2]基于多核稀疏編碼的三維人體姿態(tài)估計(jì)[J]. 余家林,孫季豐,李萬益. 電子學(xué)報(bào). 2016(08)
[3]基于深度學(xué)習(xí)的高分辨率遙感影像分類研究[J]. 劉大偉,韓玲,韓曉勇. 光學(xué)學(xué)報(bào). 2016(04)
[4]基于深度圖像梯度特征的人體姿態(tài)估計(jì)[J]. 徐岳峰,周書仁,王剛,佘凱晟. 計(jì)算機(jī)工程. 2015(12)
[5]改進(jìn)隨機(jī)森林及其在人體姿態(tài)識別中的應(yīng)用[J]. 周博翔,李平,李蓮. 計(jì)算機(jī)工程與應(yīng)用. 2015(16)
[6]基于Kinect的實(shí)時(shí)人體姿勢識別[J]. 劉開余,夏斌. 電子設(shè)計(jì)工程. 2014(19)
[7]基于HOG和顏色特征融合的人體姿態(tài)估計(jì)[J]. 韓貴金,朱虹. 模式識別與人工智能. 2014(09)
[8]基于約束樹形圖結(jié)構(gòu)外觀模型的人體姿態(tài)估計(jì)[J]. 王浩,劉則芬,方寶富,陳金金. 計(jì)算機(jī)科學(xué). 2014(03)
[9]基于部位檢測的人體姿態(tài)識別[J]. 殷海艷,劉波. 計(jì)算機(jī)工程與設(shè)計(jì). 2013(10)
[10]一種基于圖結(jié)構(gòu)模型的人體姿態(tài)估計(jì)算法[J]. 韓貴金,朱虹. 計(jì)算機(jī)工程與應(yīng)用. 2013(14)
本文編號:3631027
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3631027.html
最近更新
教材專著