基于深度學(xué)習(xí)的視頻動(dòng)作識(shí)別方法研究
發(fā)布時(shí)間:2021-04-11 18:45
海量視頻數(shù)據(jù)的快速增長(zhǎng)為人們挖掘其中重要感興趣信息帶來了巨大挑戰(zhàn)。如何高效地對(duì)海量視頻數(shù)據(jù)進(jìn)行分析和處理,以獲取其中有價(jià)值的信息成為工業(yè)界以及學(xué)術(shù)界重點(diǎn)關(guān)注并研究的問題。視頻數(shù)據(jù)的結(jié)構(gòu)復(fù)雜,且數(shù)據(jù)量巨大,傳統(tǒng)的手工標(biāo)注方式己無法滿足目前視頻數(shù)量的日益增長(zhǎng)需求,亟待需要能夠通過學(xué)習(xí)視頻特征進(jìn)行視頻自動(dòng)分類的技術(shù)。視頻動(dòng)作識(shí)別技術(shù)在特征提取過程中受到遮擋、動(dòng)態(tài)背景變化、攝像頭抖動(dòng)以及視角和光照變化等因素的影響而具有很大的挑戰(zhàn)性。而視頻分類算法能實(shí)現(xiàn)自動(dòng)分析視頻所包含的語(yǔ)義信息、理解其內(nèi)容,對(duì)視頻進(jìn)行自動(dòng)標(biāo)注、分類和描述,達(dá)到與人相當(dāng)?shù)臏?zhǔn)確率。因此,大規(guī)模視頻分類是繼圖像分類問題解決后下一個(gè)急需解決的關(guān)鍵問題。其中,視頻分類中的動(dòng)作識(shí)別方法是本文重點(diǎn)關(guān)注的內(nèi)容。本文基于深度學(xué)習(xí)模型提取視頻中的時(shí)間和空間信息,圍繞著實(shí)現(xiàn)高效的動(dòng)作識(shí)別任務(wù),提出了兩種動(dòng)作識(shí)別方法。針對(duì)目前主流方法大多集中在3D網(wǎng)絡(luò)研究上,并將RGB和光流圖作為網(wǎng)絡(luò)輸入,造成網(wǎng)絡(luò)計(jì)算開銷大和耗時(shí)長(zhǎng)的問題,本文提出僅使用RGB圖像作為輸入,基于目標(biāo)檢測(cè)的低秩三維動(dòng)作識(shí)別方法。首先,本文提出了基于目標(biāo)檢測(cè)算法的視頻幀預(yù)處理方法,避免...
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:70 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1強(qiáng)化學(xué)習(xí)結(jié)構(gòu)??Figure2-1?Structure?of?reinforcement?learning??
圖2-2?R-CNN網(wǎng)絡(luò)的目標(biāo)檢測(cè)流程??Figure?2-2?Object?detection?flowchart?of?R-CNN??
圖2-3目標(biāo)檢測(cè)方法框架??Figure?2-3?Object?detection?method?frameworks??
本文編號(hào):3131766
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:70 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1強(qiáng)化學(xué)習(xí)結(jié)構(gòu)??Figure2-1?Structure?of?reinforcement?learning??
圖2-2?R-CNN網(wǎng)絡(luò)的目標(biāo)檢測(cè)流程??Figure?2-2?Object?detection?flowchart?of?R-CNN??
圖2-3目標(biāo)檢測(cè)方法框架??Figure?2-3?Object?detection?method?frameworks??
本文編號(hào):3131766
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3131766.html
最近更新
教材專著