天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

時(shí)空上下文抗遮擋視覺(jué)跟蹤

發(fā)布時(shí)間:2018-10-16 18:20
【摘要】:目的傳統(tǒng)的視覺(jué)跟蹤方法只考慮了目標(biāo)本身的特征信息提取,忽略了目標(biāo)周圍稠密的上下文信息。一旦目標(biāo)本身特征信息提取存在困難,很容易導(dǎo)致跟蹤失敗。為解決上述問(wèn)題,提出一種時(shí)空上下文抗遮擋視覺(jué)跟蹤算法(STC-PF)。方法首先,利用目標(biāo)與局部區(qū)域的時(shí)空關(guān)系學(xué)習(xí)時(shí)空上下文模型;然后,通過(guò)上下文先驗(yàn)?zāi)P秃蛯W(xué)習(xí)到的時(shí)空上下文模型計(jì)算置信圖;最后,對(duì)時(shí)空上下文區(qū)域進(jìn)行分塊遮擋判別,若遮擋概率小于設(shè)定閾值,計(jì)算置信圖所得最大概率位置即為目標(biāo)位置;若遮擋概率大于設(shè)定閾值,則目標(biāo)發(fā)生遮擋,通過(guò)子塊匹配和粒子濾波估計(jì)目標(biāo)位置以及運(yùn)動(dòng)軌跡,實(shí)現(xiàn)不同程度的抗遮擋跟蹤。結(jié)果對(duì)測(cè)試數(shù)據(jù)集中的圖像序列進(jìn)行實(shí)驗(yàn),結(jié)果表明,STC-PF方法的跟蹤成功率提高至80%以上;中心誤差小于原算法;同時(shí)STC-PF算法在提高抗遮擋能力的前提下,運(yùn)行速度與原算法相當(dāng),高于當(dāng)前流行算法。結(jié)論 STC-PF算法能夠適用于光照變化、目標(biāo)旋轉(zhuǎn)、遮擋等復(fù)雜情況下的視覺(jué)目標(biāo)跟蹤,具有一定的實(shí)時(shí)性和高效性,尤其是在目標(biāo)發(fā)生遮擋情況下具有很好的抗遮擋能力和較快的運(yùn)行速度。
[Abstract]:Objective the traditional visual tracking method only considers the feature extraction of the target itself and ignores the dense contextual information around the target. Once the feature information extraction of the target itself is difficult, it is easy to lead to the tracking failure. In order to solve the above problems, a spatio-temporal context-resistant visual tracking algorithm (STC-PF) is proposed. Methods first, the spatio-temporal context model is studied by using the spatio-temporal relationship between the target and the local region; then, the confidence diagram is calculated by the contextual priori model and the spatio-temporal context model. If the occlusion probability is less than the set threshold, the maximum probability position of the confidence chart is the target position, and if the occlusion probability is greater than the set threshold, the occlusion occurs. The target position and motion trajectory are estimated by subblock matching and particle filter to achieve different degree of anti-occlusion tracking. Results the experimental results show that the tracking success rate of STC-PF method is more than 80%, the center error is smaller than that of the original algorithm, and the STC-PF algorithm can improve the ability of resisting occlusion. The running speed is similar to the original algorithm, which is higher than the current popular algorithm. Conclusion the STC-PF algorithm can be used to track the visual targets in complex cases, such as illumination change, target rotation, occlusion and so on, and has a certain real-time and high efficiency. Especially in the case of object occlusion, it has good ability of resisting occlusion and fast running speed.
【作者單位】: 遼寧工程技術(shù)大學(xué)軟件學(xué)院;
【基金】:國(guó)家自然科學(xué)基金項(xiàng)目(61172144) 遼寧省教育廳科學(xué)技術(shù)研究一般項(xiàng)目(L2015216)~~
【分類號(hào)】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 史衛(wèi)民;王慶敏;劉秋紅;陳勇;姚永杰;;視覺(jué)跟蹤技術(shù)及其應(yīng)用的研究進(jìn)展[J];海軍醫(yī)學(xué)雜志;2014年01期

2 侯志強(qiáng);韓崇昭;;視覺(jué)跟蹤技術(shù)綜述[J];自動(dòng)化學(xué)報(bào);2006年04期

3 王哲;;視覺(jué)跟蹤 用眼睛使用的“鼠標(biāo)”[J];電腦愛好者;2007年07期

4 張進(jìn);;視覺(jué)跟蹤技術(shù)發(fā)展和難點(diǎn)問(wèn)題的分析[J];信息技術(shù)與信息化;2008年06期

5 李谷全;陳忠澤;;視覺(jué)跟蹤技術(shù)研究現(xiàn)狀及其展望[J];計(jì)算機(jī)應(yīng)用研究;2010年08期

6 劉鐵根,蔡懷宇,張以謨,路登平,胡繩蓀,張鳳林;一種埋弧焊視覺(jué)跟蹤系統(tǒng)(英文)[J];光電工程;1999年06期

7 李偉;吳瑰麗;王猛;;視覺(jué)跟蹤算法的研究進(jìn)展[J];石家莊鐵路職業(yè)技術(shù)學(xué)院學(xué)報(bào);2013年03期

8 劉洋;李玉山;張大樸;邱家濤;;基于動(dòng)態(tài)目標(biāo)建模的粒子濾波視覺(jué)跟蹤算法[J];光子學(xué)報(bào);2008年02期

9 張國(guó)亮;謝宗武;蔣再男;王捷;劉宏;;模糊化多視覺(jué)信息融合的視覺(jué)跟蹤策略[J];西安交通大學(xué)學(xué)報(bào);2009年08期

10 楊戈;劉宏;;視覺(jué)跟蹤算法綜述[J];智能系統(tǒng)學(xué)報(bào);2010年02期

相關(guān)會(huì)議論文 前2條

1 呂玉生;趙杰煜;;具有視覺(jué)跟蹤的中英文語(yǔ)音動(dòng)畫系統(tǒng)[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

2 李善青;賈云得;柳陽(yáng);;一種用于穿戴計(jì)算的指示手勢(shì)視覺(jué)跟蹤方法[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2007)論文集[C];2007年

相關(guān)博士學(xué)位論文 前9條

1 王法勝;復(fù)雜場(chǎng)景下的單目標(biāo)視覺(jué)跟蹤算法研究[D];大連海事大學(xué);2014年

2 徐蕭蕭;基于特征學(xué)習(xí)與特征聯(lián)想的視覺(jué)跟蹤算法研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2010年

3 王其聰;復(fù)雜觀測(cè)條件下的基于粒子濾波的視覺(jué)跟蹤[D];浙江大學(xué);2007年

4 夏瑜;視覺(jué)跟蹤新方法及其應(yīng)用研究[D];江南大學(xué);2013年

5 王芳林;穩(wěn)健視覺(jué)跟蹤算法中的關(guān)鍵問(wèn)題研究[D];上海交通大學(xué);2009年

6 溫靜;基于張量子空間學(xué)習(xí)的視覺(jué)跟蹤方法研究[D];西安電子科技大學(xué);2010年

7 蘇潔;光照變化下的視覺(jué)跟蹤算法研究[D];哈爾濱工程大學(xué);2010年

8 王棟;基于線性表示模型的在線視覺(jué)跟蹤算法研究[D];大連理工大學(xué);2013年

9 代江華;粒子濾波架構(gòu)下視覺(jué)目標(biāo)跟蹤相關(guān)技術(shù)研究[D];華中科技大學(xué);2014年

相關(guān)碩士學(xué)位論文 前10條

1 郭標(biāo);焊縫視覺(jué)跟蹤系統(tǒng)設(shè)計(jì)[D];西南交通大學(xué);2015年

2 張瑞;基于貝葉斯估計(jì)的視覺(jué)跟蹤算法研究[D];福建師范大學(xué);2015年

3 祝寶龍;基于視覺(jué)跟蹤技術(shù)的眼控鼠標(biāo)研究[D];哈爾濱工業(yè)大學(xué);2015年

4 劉養(yǎng)彪;運(yùn)動(dòng)模糊下的視覺(jué)跟蹤算法研究[D];北京理工大學(xué);2015年

5 向秀娟;基于視覺(jué)跟蹤的移動(dòng)機(jī)器人定位研究[D];新疆大學(xué);2015年

6 張勁;基于在線隱變量支持向量機(jī)的尺度自適應(yīng)視覺(jué)跟蹤[D];西安電子科技大學(xué);2014年

7 范曲;復(fù)雜場(chǎng)景下運(yùn)動(dòng)目標(biāo)的視覺(jué)跟蹤方法研究[D];重慶大學(xué);2015年

8 孟凡帥;面向物料輸送過(guò)程狀態(tài)監(jiān)控與故障報(bào)警的視覺(jué)跟蹤技術(shù)的研究[D];河北工業(yè)大學(xué);2015年

9 張欣;基于粒子濾波的視覺(jué)跟蹤算法的FPGA實(shí)現(xiàn)[D];北京理工大學(xué);2016年

10 黃梁華;基于張量表達(dá)的視覺(jué)跟蹤算法研究[D];北京理工大學(xué);2016年

,

本文編號(hào):2275234

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2275234.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶7b058***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com