基于深度注意力機(jī)制的視頻中人體動(dòng)作識(shí)別
發(fā)布時(shí)間:2021-07-01 07:31
視頻中人體動(dòng)作識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)長(zhǎng)期備受關(guān)注的課題,在視頻監(jiān)控、人機(jī)交互和視頻理解等領(lǐng)域發(fā)揮著重要的作用,受到國(guó)內(nèi)外學(xué)者的廣泛關(guān)注。隨著大數(shù)據(jù)時(shí)代的到來(lái),視頻數(shù)據(jù)的數(shù)量呈指數(shù)式增長(zhǎng)。然而由于視頻中人體動(dòng)作的復(fù)雜性和多樣性,如何有效地識(shí)別動(dòng)作成為一項(xiàng)頗具挑戰(zhàn)的研究課題。根據(jù)人體動(dòng)作的表示和分類(lèi)兩大步驟,本文提出了基于深度編解碼框架結(jié)合注意力機(jī)制的研究思路。本文應(yīng)用深度學(xué)習(xí)技術(shù),以卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取動(dòng)作特征表示動(dòng)作,利用深度循環(huán)網(wǎng)絡(luò)分類(lèi)動(dòng)作。同時(shí),本文建立集成模型,在學(xué)習(xí)的過(guò)程中完成整體優(yōu)化,實(shí)現(xiàn)動(dòng)作表示和動(dòng)作識(shí)別的統(tǒng)一。具體地,本文的主要研究成果如下:(1)提出適應(yīng)視頻時(shí)域信息的Attention-again模型。大多數(shù)注意力機(jī)制的方法,都是關(guān)注空間信息,僅通過(guò)LSTM去對(duì)視頻的序列信息進(jìn)行建模。考慮到傳統(tǒng)方法對(duì)時(shí)域的信息獲取不完善性,本文受人們閱讀習(xí)慣的啟發(fā)提出了Attention-again模型。將相鄰時(shí)刻的圖像幀與當(dāng)前圖像幀相結(jié)合,利用LSTM長(zhǎng)時(shí)間依賴(lài)的特性,使得底層LSTM能獲取到一定的全局信息;在頂層LSTM識(shí)別過(guò)程中進(jìn)行一定的指導(dǎo)。本文的方法在公開(kāi)數(shù)據(jù)集UCF11,H...
【文章來(lái)源】:國(guó)防科技大學(xué)湖南省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:74 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
視頻中人體動(dòng)作識(shí)別的一般過(guò)程
國(guó)防科技大學(xué)研究生院碩士學(xué)位論文第11頁(yè)圖2.1感知器的解空間,左:?jiǎn)蝹(gè)感知器,右:多個(gè)感知器其中,為SGD中的關(guān)鍵參數(shù)——學(xué)習(xí)率(learningrate),以此來(lái)控制著每一次迭代中梯度更新的步長(zhǎng)。在每一次迭代中,參數(shù)的更新都是朝著誤差更小的方向變化,直到迭代更新量達(dá)到一定的閾值水平或者達(dá)到指定的最大迭代數(shù)訓(xùn)練停止。圖2.2展示了一個(gè)使用固定學(xué)習(xí)率進(jìn)行梯度下降的迭代過(guò)程。圖2.2梯度下降示例根據(jù)以上步驟,首先隨機(jī)地從樣本里抽取一批樣本,以這些樣本為依據(jù)來(lái)更新參數(shù),具體的流程見(jiàn)算法2.1。為了加速網(wǎng)絡(luò)的訓(xùn)練速度,最為經(jīng)典的方法就是引入梯度沖量項(xiàng),從而疊加
國(guó)防科技大學(xué)研究生院碩士學(xué)位論文第11頁(yè)圖2.1感知器的解空間,左:?jiǎn)蝹(gè)感知器,右:多個(gè)感知器其中,為SGD中的關(guān)鍵參數(shù)——學(xué)習(xí)率(learningrate),以此來(lái)控制著每一次迭代中梯度更新的步長(zhǎng)。在每一次迭代中,參數(shù)的更新都是朝著誤差更小的方向變化,直到迭代更新量達(dá)到一定的閾值水平或者達(dá)到指定的最大迭代數(shù)訓(xùn)練停止。圖2.2展示了一個(gè)使用固定學(xué)習(xí)率進(jìn)行梯度下降的迭代過(guò)程。圖2.2梯度下降示例根據(jù)以上步驟,首先隨機(jī)地從樣本里抽取一批樣本,以這些樣本為依據(jù)來(lái)更新參數(shù),具體的流程見(jiàn)算法2.1。為了加速網(wǎng)絡(luò)的訓(xùn)練速度,最為經(jīng)典的方法就是引入梯度沖量項(xiàng),從而疊加
【參考文獻(xiàn)】:
期刊論文
[1]基于深度學(xué)習(xí)的人體行為識(shí)別算法綜述[J]. 朱煜,趙江坤,王逸寧,鄭兵兵. 自動(dòng)化學(xué)報(bào). 2016(06)
博士論文
[1]基于深度編解碼框架的視覺(jué)數(shù)據(jù)理解[D]. 李碩豪.國(guó)防科技大學(xué) 2018
[2]視頻中人體動(dòng)作識(shí)別關(guān)鍵技術(shù)研究[D]. 王斌.國(guó)防科學(xué)技術(shù)大學(xué) 2015
本文編號(hào):3258718
【文章來(lái)源】:國(guó)防科技大學(xué)湖南省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:74 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
視頻中人體動(dòng)作識(shí)別的一般過(guò)程
國(guó)防科技大學(xué)研究生院碩士學(xué)位論文第11頁(yè)圖2.1感知器的解空間,左:?jiǎn)蝹(gè)感知器,右:多個(gè)感知器其中,為SGD中的關(guān)鍵參數(shù)——學(xué)習(xí)率(learningrate),以此來(lái)控制著每一次迭代中梯度更新的步長(zhǎng)。在每一次迭代中,參數(shù)的更新都是朝著誤差更小的方向變化,直到迭代更新量達(dá)到一定的閾值水平或者達(dá)到指定的最大迭代數(shù)訓(xùn)練停止。圖2.2展示了一個(gè)使用固定學(xué)習(xí)率進(jìn)行梯度下降的迭代過(guò)程。圖2.2梯度下降示例根據(jù)以上步驟,首先隨機(jī)地從樣本里抽取一批樣本,以這些樣本為依據(jù)來(lái)更新參數(shù),具體的流程見(jiàn)算法2.1。為了加速網(wǎng)絡(luò)的訓(xùn)練速度,最為經(jīng)典的方法就是引入梯度沖量項(xiàng),從而疊加
國(guó)防科技大學(xué)研究生院碩士學(xué)位論文第11頁(yè)圖2.1感知器的解空間,左:?jiǎn)蝹(gè)感知器,右:多個(gè)感知器其中,為SGD中的關(guān)鍵參數(shù)——學(xué)習(xí)率(learningrate),以此來(lái)控制著每一次迭代中梯度更新的步長(zhǎng)。在每一次迭代中,參數(shù)的更新都是朝著誤差更小的方向變化,直到迭代更新量達(dá)到一定的閾值水平或者達(dá)到指定的最大迭代數(shù)訓(xùn)練停止。圖2.2展示了一個(gè)使用固定學(xué)習(xí)率進(jìn)行梯度下降的迭代過(guò)程。圖2.2梯度下降示例根據(jù)以上步驟,首先隨機(jī)地從樣本里抽取一批樣本,以這些樣本為依據(jù)來(lái)更新參數(shù),具體的流程見(jiàn)算法2.1。為了加速網(wǎng)絡(luò)的訓(xùn)練速度,最為經(jīng)典的方法就是引入梯度沖量項(xiàng),從而疊加
【參考文獻(xiàn)】:
期刊論文
[1]基于深度學(xué)習(xí)的人體行為識(shí)別算法綜述[J]. 朱煜,趙江坤,王逸寧,鄭兵兵. 自動(dòng)化學(xué)報(bào). 2016(06)
博士論文
[1]基于深度編解碼框架的視覺(jué)數(shù)據(jù)理解[D]. 李碩豪.國(guó)防科技大學(xué) 2018
[2]視頻中人體動(dòng)作識(shí)別關(guān)鍵技術(shù)研究[D]. 王斌.國(guó)防科學(xué)技術(shù)大學(xué) 2015
本文編號(hào):3258718
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3258718.html
最近更新
教材專(zhuān)著