基于深度網(wǎng)絡(luò)的運(yùn)動(dòng)目標(biāo)檢測(cè)方法
發(fā)布時(shí)間:2021-12-24 10:55
運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)作為視頻處理的基礎(chǔ)部分,廣泛應(yīng)用于智能交通、社會(huì)公共安全與視頻壓縮等領(lǐng)域,是智能視頻分析至關(guān)重要的環(huán)節(jié)。因此,對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)的研究具有十分重要的意義。本文主要探索基于深度學(xué)習(xí)的運(yùn)動(dòng)目標(biāo)檢測(cè)方法,通過構(gòu)建深度網(wǎng)絡(luò)模型并訓(xùn)練,來實(shí)現(xiàn)基于有監(jiān)督學(xué)習(xí)的運(yùn)動(dòng)目標(biāo)檢測(cè),并從可行性、可靠性與算法魯棒性角度對(duì)深度網(wǎng)絡(luò)模型進(jìn)行相關(guān)驗(yàn)證,主要貢獻(xiàn)如下:(1)針對(duì)傳統(tǒng)的運(yùn)動(dòng)目標(biāo)檢測(cè)方法在復(fù)雜場(chǎng)景下檢測(cè)精度不高的缺陷,相關(guān)學(xué)者開始從深度學(xué)習(xí)的角度出發(fā),利用卷積神經(jīng)網(wǎng)絡(luò)并將視頻幀進(jìn)行分塊處理來實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)檢測(cè)。鑒于這種方法復(fù)雜度過高且未考慮視頻幀圖像整體結(jié)構(gòu)信息,本文的第三章提出了一種基于深度全卷積網(wǎng)絡(luò)的運(yùn)動(dòng)目標(biāo)檢測(cè)方法。通過時(shí)域平均法提取視頻場(chǎng)景的背景,并利用深度全卷積網(wǎng)絡(luò)學(xué)習(xí)輸入幀圖像與背景圖像之間的非線性映射,從而實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)檢測(cè)。該方法不僅能夠適應(yīng)不同尺寸的復(fù)雜視頻場(chǎng)景,實(shí)現(xiàn)像素級(jí)的密集預(yù)測(cè),而且檢測(cè)過程中對(duì)于每幅圖像僅需進(jìn)行一次前向計(jì)算,且提取背景方法簡(jiǎn)單,有效提高了檢測(cè)速度。然而,由于背景提取方法簡(jiǎn)單,而且深層網(wǎng)絡(luò)難以訓(xùn)練,導(dǎo)致該方法在未參與訓(xùn)練的場(chǎng)景下的運(yùn)動(dòng)目標(biāo)檢測(cè)精度不高,算法的...
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:96 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
基于時(shí)域平均法的視頻背景提取
檢測(cè)結(jié)果 圖3.9 自適應(yīng)場(chǎng)景的運(yùn)動(dòng)目標(biāo)檢測(cè)整體框架3.4.2 基于深度全卷積網(wǎng)絡(luò)的運(yùn)動(dòng)目標(biāo)檢測(cè)整體結(jié)構(gòu)本章提出的 DFCN 模型采用編碼器-解碼器結(jié)構(gòu)。編碼器部分采用卷積神經(jīng)網(wǎng)絡(luò),其目的是通過一系列卷積與池化提取圖像的深層特征。對(duì)于解碼器部分,也就是反卷積網(wǎng)絡(luò),利用卷積與上池化(Unpooling)進(jìn)行上采樣,并采用跳躍結(jié)構(gòu)來重構(gòu)原始圖像信息,基于深度全卷積網(wǎng)絡(luò)的運(yùn)動(dòng)目標(biāo)整體結(jié)構(gòu)如圖 3.10 所示。Conv + ReLUMax poolingDropoutUnpooling圖3.10 基于 DFCN 的運(yùn)動(dòng)目標(biāo)檢測(cè)3.4.3 損失函數(shù)在本章節(jié)提出的 DFCN 模型中,使用交叉熵來衡量網(wǎng)?
DropoutUnpooling圖3.10 基于 DFCN 的運(yùn)動(dòng)目標(biāo)檢測(cè)3.4.3 損失函數(shù)在本章節(jié)提出的 DFCN 模型中,使用交叉熵來衡量網(wǎng)絡(luò)模型的誤差,所采用的損失函數(shù)的數(shù)學(xué)表達(dá)式為:[ ]11log( ) (1 ) log(1 )== ∑+ Ni i i iiL x y x yN(3-3)
【參考文獻(xiàn)】:
期刊論文
[1]智慧城市智慧視頻感知系統(tǒng)建設(shè)方案探討[J]. 陳靜棠. 通訊世界. 2017(06)
[2]基于圖像差異度的太陽(yáng)像二值化算法研究[J]. 鄧林華,許駿,向永源. 現(xiàn)代電子技術(shù). 2010(20)
[3]從RGB到HSV色彩空間轉(zhuǎn)換公式的修正[J]. 石美紅,申亮,龍世忠,胡西民. 紡織高;A(chǔ)科學(xué)學(xué)報(bào). 2008(03)
本文編號(hào):3550360
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:96 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
基于時(shí)域平均法的視頻背景提取
檢測(cè)結(jié)果 圖3.9 自適應(yīng)場(chǎng)景的運(yùn)動(dòng)目標(biāo)檢測(cè)整體框架3.4.2 基于深度全卷積網(wǎng)絡(luò)的運(yùn)動(dòng)目標(biāo)檢測(cè)整體結(jié)構(gòu)本章提出的 DFCN 模型采用編碼器-解碼器結(jié)構(gòu)。編碼器部分采用卷積神經(jīng)網(wǎng)絡(luò),其目的是通過一系列卷積與池化提取圖像的深層特征。對(duì)于解碼器部分,也就是反卷積網(wǎng)絡(luò),利用卷積與上池化(Unpooling)進(jìn)行上采樣,并采用跳躍結(jié)構(gòu)來重構(gòu)原始圖像信息,基于深度全卷積網(wǎng)絡(luò)的運(yùn)動(dòng)目標(biāo)整體結(jié)構(gòu)如圖 3.10 所示。Conv + ReLUMax poolingDropoutUnpooling圖3.10 基于 DFCN 的運(yùn)動(dòng)目標(biāo)檢測(cè)3.4.3 損失函數(shù)在本章節(jié)提出的 DFCN 模型中,使用交叉熵來衡量網(wǎng)?
DropoutUnpooling圖3.10 基于 DFCN 的運(yùn)動(dòng)目標(biāo)檢測(cè)3.4.3 損失函數(shù)在本章節(jié)提出的 DFCN 模型中,使用交叉熵來衡量網(wǎng)絡(luò)模型的誤差,所采用的損失函數(shù)的數(shù)學(xué)表達(dá)式為:[ ]11log( ) (1 ) log(1 )== ∑+ Ni i i iiL x y x yN(3-3)
【參考文獻(xiàn)】:
期刊論文
[1]智慧城市智慧視頻感知系統(tǒng)建設(shè)方案探討[J]. 陳靜棠. 通訊世界. 2017(06)
[2]基于圖像差異度的太陽(yáng)像二值化算法研究[J]. 鄧林華,許駿,向永源. 現(xiàn)代電子技術(shù). 2010(20)
[3]從RGB到HSV色彩空間轉(zhuǎn)換公式的修正[J]. 石美紅,申亮,龍世忠,胡西民. 紡織高;A(chǔ)科學(xué)學(xué)報(bào). 2008(03)
本文編號(hào):3550360
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3550360.html
最近更新
教材專著