天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 路橋論文 >

基于深度卷積特征的相關(guān)濾波視覺跟蹤算法研究

發(fā)布時(shí)間:2020-10-10 19:40
   計(jì)算機(jī)視覺跟蹤技術(shù)在智能交通、監(jiān)控、人機(jī)交互等領(lǐng)域有著廣泛的應(yīng)用,隨著計(jì)算機(jī)性能的不斷提升,以及人工智能等技術(shù)的快速發(fā)展,視覺跟蹤技術(shù)也取得了長(zhǎng)足的進(jìn)步。然而現(xiàn)有的跟蹤算法在遇到復(fù)雜環(huán)境變化,以及目標(biāo)自身表觀模型的改變時(shí),存在高精度的跟蹤算法不易滿足實(shí)時(shí)性要求,快速的跟蹤算法的精度不高的問題。因此本文結(jié)合深度學(xué)習(xí)和相關(guān)濾波視覺跟蹤框架,以保證實(shí)時(shí)跟蹤為前提,盡可能提升跟蹤的精度為目標(biāo),從深度卷積特征選取、相關(guān)濾波模型訓(xùn)練、目標(biāo)位置預(yù)測(cè)、模型更新四個(gè)方面進(jìn)行算法改進(jìn),提出了四種視覺跟蹤算法,其主要工作如下:(1)為減少深度卷積特征的冗余性,提高算法速度和精度,設(shè)計(jì)了一種自適應(yīng)卷積特征選擇算法。該算法利用目標(biāo)區(qū)域與搜索區(qū)域的特征均值比對(duì)卷積層和卷積通道進(jìn)行評(píng)估,選擇有效卷積特征進(jìn)行目標(biāo)跟蹤。在OTB-100數(shù)據(jù)集上對(duì)該算法進(jìn)行了測(cè)試,平均距離精度達(dá)86.4%,速度達(dá)29.9幀/秒,滿足實(shí)時(shí)跟蹤的要求。(2)為充分利用不同卷積層特征的優(yōu)勢(shì),設(shè)計(jì)了一種自適應(yīng)卷積特征切換跟蹤算法。該算法選用了跟蹤性能較好的兩層中高層卷積特征,使用自適應(yīng)卷積特征選擇算法減少卷積通道數(shù),同時(shí)利用峰旁比選擇每一幀適合的單層卷積特征進(jìn)行跟蹤,保證實(shí)時(shí)跟蹤的前提下提升了跟蹤的準(zhǔn)確度。在OTB-100數(shù)據(jù)集上進(jìn)行測(cè)試,跟蹤的平均距離精度達(dá)89.3%,平均速度為25.8幀/秒,提升了跟蹤精度,達(dá)到實(shí)時(shí)跟蹤的要求。(3)根據(jù)每個(gè)卷積通道的不同特性,提出了一種基于通道可靠性加權(quán)的精定位跟蹤算法。該算法先選取適合目標(biāo)跟蹤的單層卷積特征,利用自適應(yīng)卷積特征選擇算法選取有效卷積特征,減少特征的維度,提高跟蹤速度;然后為了避免卷積特征層數(shù)和通道數(shù)減少對(duì)跟蹤精度的影響,構(gòu)造了通道加權(quán)相關(guān)濾波算法提高目標(biāo)跟蹤精度,并利用峰旁比評(píng)估目標(biāo)定位的可靠性,通過幀差均值最小化精定位算法抑制累積誤差,提升定位準(zhǔn)確性。在OTB-100數(shù)據(jù)集上對(duì)算法進(jìn)行測(cè)試,平均距離精度為91.3%,跟蹤速度達(dá)31.9幀/秒,進(jìn)一步提高了跟蹤的精度和速度。(4)為了提升算法整體的魯棒性,提出了基于通道裁剪的連續(xù)卷積跟蹤算法。該算法選用裁剪的卷積模型提高卷積特征的計(jì)算速度,對(duì)選取的卷積特征進(jìn)行通道裁剪,減少卷積特征的維度,同時(shí)融合梯度直方圖和顏色屬性特征,在連續(xù)卷積相關(guān)濾波框架下進(jìn)行跟蹤,采用自適應(yīng)迭代方法減少精定位迭代次數(shù),提升跟蹤的實(shí)時(shí)性。在OTB-2013、OTB-2015、VOT-2016和VOT-2017數(shù)據(jù)集上對(duì)提出的算法進(jìn)行了測(cè)試,在OTB-100上的跟蹤精度達(dá)到了93.8%,進(jìn)一步提升了跟蹤算法的精度和穩(wěn)定性。
【學(xué)位單位】:北方工業(yè)大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2019
【中圖分類】:U495
【部分圖文】:

卷積,特征信息,圖片


第二章自適應(yīng)卷積特征選擇跟蹤算法??提取到的所有特征中只有卷積層和池化層輸出的可用于相關(guān)濾波跟蹤,因此可剪??去全連接層。如圖2-1所示即為目標(biāo)圖像通過VGG-19模型[37]提取出的pool4和??C〇iw5-3層的特征經(jīng)過余弦窗處理后的可視化圖,可以看出不同卷積層得到的卷??積特征所表達(dá)的信息不同,偏低層的P〇〇14層特征包含目標(biāo)更多的空間結(jié)構(gòu)信息,??且分辨率較高,隨著網(wǎng)絡(luò)的深度增加,更深層的特征更加抽象,包含目標(biāo)更多的??語(yǔ)義信息,在視覺跟蹤過程中目標(biāo)的空間結(jié)構(gòu)信息更有利于區(qū)別類內(nèi)差異,目標(biāo)??的語(yǔ)義信息更有利于區(qū)別目標(biāo)類間的差異,目標(biāo)的運(yùn)動(dòng)屬于隨機(jī)的、不確定的過??程,因此既需要區(qū)別目標(biāo)類內(nèi)的差異,也需要區(qū)別目標(biāo)類間的差異。??圖2-1圖片在不同卷積層的特征信息表達(dá)??現(xiàn)有使用卷積特征的相關(guān)濾波跟蹤算法,為充分利用不同卷積層特征的優(yōu)??勢(shì)

卷積,多通道


第二章自適應(yīng)卷積特征選擇跟蹤算法??提取到的所有特征中只有卷積層和池化層輸出的可用于相關(guān)濾波跟蹤,因此可剪??去全連接層。如圖2-1所示即為目標(biāo)圖像通過VGG-19模型[37]提取出的pool4和??C〇iw5-3層的特征經(jīng)過余弦窗處理后的可視化圖,可以看出不同卷積層得到的卷??積特征所表達(dá)的信息不同,偏低層的P〇〇14層特征包含目標(biāo)更多的空間結(jié)構(gòu)信息,??且分辨率較高,隨著網(wǎng)絡(luò)的深度增加,更深層的特征更加抽象,包含目標(biāo)更多的??語(yǔ)義信息,在視覺跟蹤過程中目標(biāo)的空間結(jié)構(gòu)信息更有利于區(qū)別類內(nèi)差異,目標(biāo)??的語(yǔ)義信息更有利于區(qū)別目標(biāo)類間的差異,目標(biāo)的運(yùn)動(dòng)屬于隨機(jī)的、不確定的過??程,因此既需要區(qū)別目標(biāo)類內(nèi)的差異,也需要區(qū)別目標(biāo)類間的差異。??圖2-1圖片在不同卷積層的特征信息表達(dá)??現(xiàn)有使用卷積特征的相關(guān)濾波跟蹤算法,為充分利用不同卷積層特征的優(yōu)??勢(shì)

通道選擇,卷積,前后對(duì)比,自適應(yīng)


第二章自適應(yīng)卷積特征選擇跟蹤算法??方式隨機(jī)舍棄部分神經(jīng)元,而神經(jīng)元與每個(gè)通道的特征有著緊密的聯(lián)系,因此會(huì)??出現(xiàn)圖2-3左側(cè)圖(該圖為p〇〇14層512個(gè)通道特征經(jīng)過余弦窗處理后的可視化??圖)中所示的部分空白特征,該類空白特征會(huì)影響跟蹤的實(shí)時(shí)性。??疆鼸圜關(guān)鬮鼷鼷|SU關(guān)關(guān)鼸P顆關(guān)??H圜圜議園釀■靈圔圔罌■?g_圔圔鼷麵钃薩■鱺■圏國(guó)鼸麵圔??鼸圃ii■團(tuán)鼸a匾驪_畫0圔圔圔■■鱷圔圔〇圃_齷鱷1圔??議si誦園鬮_11鼸圜鼷圔鼷圔議鼴??I?ill?ill???隱鼷黷圔驪III隱纖蹶_—__??圖2-3自適應(yīng)卷積特征通道選擇前后對(duì)比圖??在構(gòu)建相關(guān)濾波跟蹤模型時(shí),目標(biāo)特征的提取與選擇對(duì)目標(biāo)跟蹤的準(zhǔn)確性起??著至關(guān)重要的作用,當(dāng)目標(biāo)特征表征能力強(qiáng),維度低時(shí)可提升相關(guān)濾波跟蹤算法??定位的準(zhǔn)確性和高效性,當(dāng)目標(biāo)特征包含的冗余特征較多,維度過大時(shí)不僅會(huì)降??低定位的準(zhǔn)確性,而且會(huì)影響分類器訓(xùn)練的高效性。為了解決上述問題,提升卷??積特征的高效性,需要對(duì)卷積特征進(jìn)行選擇,F(xiàn)有的常用的降維方式有主成分分??析[17]?(Principal?Component?Analysis,PCA)和因式分解法【27],上述兩種方法可??有效的降低卷積特征的維度
【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 ;中國(guó)學(xué)者在視覺跟蹤領(lǐng)域取得重要進(jìn)展[J];模式識(shí)別與人工智能;2019年02期

2 孫巧;張勝修;扈曉翔;梅江元;;和聲搜索粒子濾波視覺跟蹤[J];哈爾濱工業(yè)大學(xué)學(xué)報(bào);2018年04期

3 畢齊林;劉志軍;徐虎;唐振宇;唐惠玲;許智敏;;線結(jié)構(gòu)光輔助式焊縫視覺跟蹤中圖像分割方法研究[J];科學(xué)家;2017年09期

4 王哲;;視覺跟蹤 用眼睛使用的“鼠標(biāo)”[J];電腦愛好者;2007年07期

5 席文明,羅翔,朱劍英;基于約束卡爾曼濾波器預(yù)測(cè)的視覺跟蹤研究[J];南京航空航天大學(xué)學(xué)報(bào);2002年06期

6 劉鐵根,蔡懷宇,張以謨,路登平,胡繩蓀,張鳳林;一種埋弧焊視覺跟蹤系統(tǒng)(英文)[J];光電工程;1999年06期

7 宋麗丹;;運(yùn)動(dòng)視覺跟蹤電子設(shè)備的改進(jìn)設(shè)計(jì)[J];現(xiàn)代電子技術(shù);2017年24期

8 萬(wàn)欣;張春輝;張琳;周凡;;加權(quán)全局上下文感知相關(guān)濾波視覺跟蹤算法[J];計(jì)算機(jī)工程與應(yīng)用;2018年16期

9 宋濤;李鷗;劉廣怡;崔弘亮;;基于改進(jìn)協(xié)作目標(biāo)外觀模型的在線視覺跟蹤[J];電子學(xué)報(bào);2017年02期

10 王衛(wèi);金立左;;基于DSP+FPGA視覺跟蹤平臺(tái)的設(shè)計(jì)與實(shí)現(xiàn)[J];工業(yè)控制計(jì)算機(jī);2015年03期


相關(guān)博士學(xué)位論文 前10條

1 胡丹;面向視覺跟蹤的深度學(xué)習(xí)模型設(shè)計(jì)與優(yōu)化研究[D];西北工業(yè)大學(xué);2017年

2 黃達(dá)飛;高性能視覺跟蹤關(guān)鍵技術(shù)研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2017年

3 孫沖;基于結(jié)構(gòu)化判別模型的視覺跟蹤算法研究[D];大連理工大學(xué);2018年

4 王其聰;復(fù)雜觀測(cè)條件下的基于粒子濾波的視覺跟蹤[D];浙江大學(xué);2007年

5 王法勝;復(fù)雜場(chǎng)景下的單目標(biāo)視覺跟蹤算法研究[D];大連海事大學(xué);2014年

6 王棟;基于線性表示模型的在線視覺跟蹤算法研究[D];大連理工大學(xué);2013年

7 溫靜;基于張量子空間學(xué)習(xí)的視覺跟蹤方法研究[D];西安電子科技大學(xué);2010年

8 袁慶曙;數(shù)字化互動(dòng)陳展技術(shù)與系統(tǒng)研究[D];浙江大學(xué);2009年

9 邱家濤;電子穩(wěn)像算法和視覺跟蹤算法研究[D];西安電子科技大學(xué);2013年

10 王娟;復(fù)雜場(chǎng)景中的目標(biāo)跟蹤優(yōu)化算法研究[D];燕山大學(xué);2014年


相關(guān)碩士學(xué)位論文 前10條

1 車滿強(qiáng);基于深度卷積特征的相關(guān)濾波視覺跟蹤算法研究[D];北方工業(yè)大學(xué);2019年

2 梁欣妍;面向多模態(tài)視覺跟蹤的魯棒目標(biāo)表示模型研究[D];安徽大學(xué);2019年

3 林智聰;基于FPGA的無人機(jī)視覺跟蹤系統(tǒng)的研究[D];哈爾濱工業(yè)大學(xué);2017年

4 賀章平;基于卷積神經(jīng)網(wǎng)絡(luò)的行人重識(shí)別與視覺跟蹤研究[D];西安電子科技大學(xué);2017年

5 魯國(guó)智;基于嵌入式系統(tǒng)的視覺跟蹤算法研究[D];杭州電子科技大學(xué);2018年

6 劉紅艷;基于Attention-LSTM模型的移動(dòng)目標(biāo)跟蹤技術(shù)研究[D];華北電力大學(xué);2018年

7 解秀亮;天車機(jī)器人模型構(gòu)建及吊鉤軌跡視覺跟蹤研究[D];華北理工大學(xué);2018年

8 葉維揚(yáng);基于單目視覺的非合作目標(biāo)視覺跟蹤定位技術(shù)研究[D];江蘇科技大學(xué);2018年

9 戴藹佳;基于顯著性糾偏的深度回歸網(wǎng)絡(luò)視覺跟蹤算法[D];華中科技大學(xué);2017年

10 董帥含;基于時(shí)空上下文學(xué)習(xí)的視覺跟蹤研究[D];遼寧工程技術(shù)大學(xué);2018年



本文編號(hào):2835501

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/2835501.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶34a55***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com