基于深度學(xué)習(xí)的視頻動作識別方法研究
發(fā)布時間:2021-04-11 18:45
海量視頻數(shù)據(jù)的快速增長為人們挖掘其中重要感興趣信息帶來了巨大挑戰(zhàn)。如何高效地對海量視頻數(shù)據(jù)進行分析和處理,以獲取其中有價值的信息成為工業(yè)界以及學(xué)術(shù)界重點關(guān)注并研究的問題。視頻數(shù)據(jù)的結(jié)構(gòu)復(fù)雜,且數(shù)據(jù)量巨大,傳統(tǒng)的手工標(biāo)注方式己無法滿足目前視頻數(shù)量的日益增長需求,亟待需要能夠通過學(xué)習(xí)視頻特征進行視頻自動分類的技術(shù)。視頻動作識別技術(shù)在特征提取過程中受到遮擋、動態(tài)背景變化、攝像頭抖動以及視角和光照變化等因素的影響而具有很大的挑戰(zhàn)性。而視頻分類算法能實現(xiàn)自動分析視頻所包含的語義信息、理解其內(nèi)容,對視頻進行自動標(biāo)注、分類和描述,達到與人相當(dāng)?shù)臏?zhǔn)確率。因此,大規(guī)模視頻分類是繼圖像分類問題解決后下一個急需解決的關(guān)鍵問題。其中,視頻分類中的動作識別方法是本文重點關(guān)注的內(nèi)容。本文基于深度學(xué)習(xí)模型提取視頻中的時間和空間信息,圍繞著實現(xiàn)高效的動作識別任務(wù),提出了兩種動作識別方法。針對目前主流方法大多集中在3D網(wǎng)絡(luò)研究上,并將RGB和光流圖作為網(wǎng)絡(luò)輸入,造成網(wǎng)絡(luò)計算開銷大和耗時長的問題,本文提出僅使用RGB圖像作為輸入,基于目標(biāo)檢測的低秩三維動作識別方法。首先,本文提出了基于目標(biāo)檢測算法的視頻幀預(yù)處理方法,避免...
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:70 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1強化學(xué)習(xí)結(jié)構(gòu)??Figure2-1?Structure?of?reinforcement?learning??
圖2-2?R-CNN網(wǎng)絡(luò)的目標(biāo)檢測流程??Figure?2-2?Object?detection?flowchart?of?R-CNN??
圖2-3目標(biāo)檢測方法框架??Figure?2-3?Object?detection?method?frameworks??
本文編號:3131766
【文章來源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:70 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1強化學(xué)習(xí)結(jié)構(gòu)??Figure2-1?Structure?of?reinforcement?learning??
圖2-2?R-CNN網(wǎng)絡(luò)的目標(biāo)檢測流程??Figure?2-2?Object?detection?flowchart?of?R-CNN??
圖2-3目標(biāo)檢測方法框架??Figure?2-3?Object?detection?method?frameworks??
本文編號:3131766
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3131766.html
最近更新
教材專著