基于深度孿生網(wǎng)絡(luò)的視覺目標(biāo)跟蹤方法研究
發(fā)布時間:2020-12-26 06:42
視覺目標(biāo)跟蹤技術(shù)是人工智能的重要研究方向,具有重要的研究價值和意義。目前基于孿生網(wǎng)絡(luò)的方法在目標(biāo)跟蹤領(lǐng)域取得了巨大的成功,但是在面臨復(fù)雜的跟蹤場景時仍然出現(xiàn)跟蹤失敗的情況,如何構(gòu)建一個高效且魯棒的目標(biāo)跟蹤系統(tǒng)仍然是一個巨大的挑戰(zhàn)。本文以深度孿生網(wǎng)絡(luò)框架為理論基礎(chǔ),對加強(qiáng)網(wǎng)絡(luò)分支輸入、網(wǎng)絡(luò)結(jié)構(gòu)和分層特征融合并結(jié)合深度殘差網(wǎng)絡(luò)開展研究工作,具體的研究工作概況如下:(1)提出一種基于注意力機(jī)制的孿生網(wǎng)絡(luò)跟蹤算法,增強(qiáng)網(wǎng)絡(luò)模型的判別能力,實(shí)現(xiàn)在線學(xué)習(xí)目標(biāo)外觀變化和背景抑制,得到魯棒的跟蹤結(jié)果。通過在模板分支和搜索分支中加入前一幀跟蹤所得到的結(jié)果作為矯正單元,彌補(bǔ)網(wǎng)絡(luò)在應(yīng)對目標(biāo)外觀變化的不足,并通過在孿生網(wǎng)絡(luò)中加入空間注意力模塊和通道注意力模塊實(shí)現(xiàn)不同幀之間的特征融合,從而在線學(xué)習(xí)目標(biāo)形變和背景抑制,進(jìn)一步提升模型的特征表達(dá)能力。(2)以ResNet 網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò)通過引入內(nèi)部裁剪單元,對網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行修改使其更加適合目標(biāo)跟蹤任務(wù)。深層特征含有豐富的語義信息,對目標(biāo)顯著的外觀變化具有魯棒性,所以引入特征金字塔融合孿生網(wǎng)絡(luò)的上下層特征得到空間幾何信息和語義信息豐富的特征圖,對同一尺寸不同維度的特征...
【文章來源】:大連海事大學(xué)遼寧省 211工程院校
【文章頁數(shù)】:59 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2.1?LeNet5網(wǎng)絡(luò)結(jié)構(gòu)??Fig.?2.1?LeNet5?network?structure??-8-??
?基于深度孿生網(wǎng)絡(luò)的視覺目標(biāo)跟蹤方法研宄???LeNet-5采用反向傳播算法訓(xùn)練神經(jīng)網(wǎng)絡(luò),奠定了卷積神經(jīng)網(wǎng)絡(luò)的組成結(jié)構(gòu),圖2.1表??示的是網(wǎng)絡(luò)結(jié)構(gòu)中各個組成部分,下面將對每個部分進(jìn)行解釋。??(1)輸入層:網(wǎng)絡(luò)數(shù)據(jù)的主要輸入接口,一般獲取的是圖像的像素級別信息。??(2)卷積層:主要是在輸入層輸入的圖像上面利用固定步長和一定尺寸的卷積核滑動??并進(jìn)行點(diǎn)積運(yùn)算,提取輸入圖像局部特征。特征在被提取后,與其它特征間的空間位置關(guān)系??也隨之確定下來。隨著層數(shù)的深入,提取到的特征也會越來越抽象。??假設(shè)輸入圖像尺寸為R?x//,〇,卷積層的濾波器超參數(shù)分別是:濾波器數(shù)量尺、濾波??器的空間尺寸F、步長S、零填充數(shù)量則輸入圖像經(jīng)過卷積層的輸出大小??式(2.1)、式(2.2)和式(2.3)所示:??W)+丨?(川??S??^("「廠?+?氣?(2.2)??D2=K?(2.3)??池化層:本質(zhì)是一種降采樣,是對感受野覆蓋區(qū)域的特征進(jìn)行聚合統(tǒng)計(jì),減小特征圖的??大小,降低特征的空間尺寸,壓縮特征。由于圖像的特征具有穩(wěn)定性和不變性,所以可以采??取一定的池化手段比如最大池化等操作對圖像進(jìn)行采樣,計(jì)算方式與卷積層類似,但是矩陣??之間的運(yùn)算規(guī)律不一樣,并且不經(jīng)過反向傳播的修改。??1?1?2?3??|5?6?7?8?最大池化操作?6?8??4?—5?1.?0?F=2?SlndC=2?5?4??-r—??:?^????->?3?4??r? ̄?iK??圖2.2最大池化??Fig.?2.2?Max?pooling??圖2.2展示了卷積神經(jīng)網(wǎng)絡(luò)中最大池化的過程,將原先4x4的尺寸,經(jīng)最大池化后將特??征壓縮
估算法在不同場景的跟蹤性能。??本節(jié)將對OTB數(shù)據(jù)集、ILSVRC2015-VID數(shù)據(jù)集進(jìn)行簡單介紹。??2.?3.?1?OTB數(shù)據(jù)集??為了綜合評估跟蹤算法的各個方面的性能,Wu等人建立了?OTB?(Object?Tracking??Benchmark,?OTB)數(shù)據(jù)集,其中OTB50數(shù)據(jù)集包含了?50個視頻序列,OTBIOO數(shù)據(jù)集包??含了?100個視頻序列。OTB數(shù)據(jù)集對包含目標(biāo)的視頻序列進(jìn)行了統(tǒng)一處理,對邊界框進(jìn)行??標(biāo)注,每個視頻序列包含如第一節(jié)所述的一種或多種挑戰(zhàn)因素,如圖2.6展示了用于評估的??跟蹤序列。同時數(shù)據(jù)集提供了統(tǒng)一的代碼接口,建立了標(biāo)準(zhǔn)化的輸入和輸出,各種算法通過??下載評估工具類可以很方便地使用OTB數(shù)據(jù)集進(jìn)行對比實(shí)驗(yàn)。??OTB數(shù)據(jù)集采用OPE?(One-pass?Evaluation)的評估方法,選取目標(biāo)跟蹤精度和成功率??作為評價算法性能的指標(biāo)。即利用目標(biāo)真實(shí)值初始化第一幀,用一次跟蹤得到的精度圖和成??功率圖來評估算法跟蹤效果。中心位置誤差(Center?Location?Error)其定義是跟蹤算法所估??計(jì)的目標(biāo)邊界框的中心點(diǎn)與人工標(biāo)注邊界框的中心點(diǎn)的平均歐幾里德距離,用來衡量目標(biāo)跟??蹤精度。為了更加準(zhǔn)確地評價跟蹤算法,選用對應(yīng)閾值為20pixcl的精度值來衡量算法的跟??蹤精度,該閾值大致對應(yīng)于跟蹤器邊界框與人工標(biāo)注邊界框之間至少50%的重疊使用??邊界框重合率(bounding?box?overlap)來評沾跟蹤算法在-次跟蹤時的成功率,邊界框重合??率的表示如式(2.10)所示:??網(wǎng)?(2.1〇)??其屮〃,為跟蹤目標(biāo)的邊框區(qū)域;rg為目標(biāo)真實(shí)邊框K域;n和U分別為面積
本文編號:2939231
【文章來源】:大連海事大學(xué)遼寧省 211工程院校
【文章頁數(shù)】:59 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2.1?LeNet5網(wǎng)絡(luò)結(jié)構(gòu)??Fig.?2.1?LeNet5?network?structure??-8-??
?基于深度孿生網(wǎng)絡(luò)的視覺目標(biāo)跟蹤方法研宄???LeNet-5采用反向傳播算法訓(xùn)練神經(jīng)網(wǎng)絡(luò),奠定了卷積神經(jīng)網(wǎng)絡(luò)的組成結(jié)構(gòu),圖2.1表??示的是網(wǎng)絡(luò)結(jié)構(gòu)中各個組成部分,下面將對每個部分進(jìn)行解釋。??(1)輸入層:網(wǎng)絡(luò)數(shù)據(jù)的主要輸入接口,一般獲取的是圖像的像素級別信息。??(2)卷積層:主要是在輸入層輸入的圖像上面利用固定步長和一定尺寸的卷積核滑動??并進(jìn)行點(diǎn)積運(yùn)算,提取輸入圖像局部特征。特征在被提取后,與其它特征間的空間位置關(guān)系??也隨之確定下來。隨著層數(shù)的深入,提取到的特征也會越來越抽象。??假設(shè)輸入圖像尺寸為R?x//,〇,卷積層的濾波器超參數(shù)分別是:濾波器數(shù)量尺、濾波??器的空間尺寸F、步長S、零填充數(shù)量則輸入圖像經(jīng)過卷積層的輸出大小??式(2.1)、式(2.2)和式(2.3)所示:??W)+丨?(川??S??^("「廠?+?氣?(2.2)??D2=K?(2.3)??池化層:本質(zhì)是一種降采樣,是對感受野覆蓋區(qū)域的特征進(jìn)行聚合統(tǒng)計(jì),減小特征圖的??大小,降低特征的空間尺寸,壓縮特征。由于圖像的特征具有穩(wěn)定性和不變性,所以可以采??取一定的池化手段比如最大池化等操作對圖像進(jìn)行采樣,計(jì)算方式與卷積層類似,但是矩陣??之間的運(yùn)算規(guī)律不一樣,并且不經(jīng)過反向傳播的修改。??1?1?2?3??|5?6?7?8?最大池化操作?6?8??4?—5?1.?0?F=2?SlndC=2?5?4??-r—??:?^????->?3?4??r? ̄?iK??圖2.2最大池化??Fig.?2.2?Max?pooling??圖2.2展示了卷積神經(jīng)網(wǎng)絡(luò)中最大池化的過程,將原先4x4的尺寸,經(jīng)最大池化后將特??征壓縮
估算法在不同場景的跟蹤性能。??本節(jié)將對OTB數(shù)據(jù)集、ILSVRC2015-VID數(shù)據(jù)集進(jìn)行簡單介紹。??2.?3.?1?OTB數(shù)據(jù)集??為了綜合評估跟蹤算法的各個方面的性能,Wu等人建立了?OTB?(Object?Tracking??Benchmark,?OTB)數(shù)據(jù)集,其中OTB50數(shù)據(jù)集包含了?50個視頻序列,OTBIOO數(shù)據(jù)集包??含了?100個視頻序列。OTB數(shù)據(jù)集對包含目標(biāo)的視頻序列進(jìn)行了統(tǒng)一處理,對邊界框進(jìn)行??標(biāo)注,每個視頻序列包含如第一節(jié)所述的一種或多種挑戰(zhàn)因素,如圖2.6展示了用于評估的??跟蹤序列。同時數(shù)據(jù)集提供了統(tǒng)一的代碼接口,建立了標(biāo)準(zhǔn)化的輸入和輸出,各種算法通過??下載評估工具類可以很方便地使用OTB數(shù)據(jù)集進(jìn)行對比實(shí)驗(yàn)。??OTB數(shù)據(jù)集采用OPE?(One-pass?Evaluation)的評估方法,選取目標(biāo)跟蹤精度和成功率??作為評價算法性能的指標(biāo)。即利用目標(biāo)真實(shí)值初始化第一幀,用一次跟蹤得到的精度圖和成??功率圖來評估算法跟蹤效果。中心位置誤差(Center?Location?Error)其定義是跟蹤算法所估??計(jì)的目標(biāo)邊界框的中心點(diǎn)與人工標(biāo)注邊界框的中心點(diǎn)的平均歐幾里德距離,用來衡量目標(biāo)跟??蹤精度。為了更加準(zhǔn)確地評價跟蹤算法,選用對應(yīng)閾值為20pixcl的精度值來衡量算法的跟??蹤精度,該閾值大致對應(yīng)于跟蹤器邊界框與人工標(biāo)注邊界框之間至少50%的重疊使用??邊界框重合率(bounding?box?overlap)來評沾跟蹤算法在-次跟蹤時的成功率,邊界框重合??率的表示如式(2.10)所示:??網(wǎng)?(2.1〇)??其屮〃,為跟蹤目標(biāo)的邊框區(qū)域;rg為目標(biāo)真實(shí)邊框K域;n和U分別為面積
本文編號:2939231
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2939231.html
最近更新
教材專著