基于目標(biāo)性權(quán)值度量的多示例學(xué)習(xí)目標(biāo)跟蹤
本文選題:多示例學(xué)習(xí)(MIL) + 目標(biāo)性測量; 參考:《北京航空航天大學(xué)學(xué)報》2017年07期
【摘要】:針對多示例學(xué)習(xí)(MIL)跟蹤算法在包概率計算過程中對示例樣本不加以區(qū)分導(dǎo)致分類器性能下降,及采用最大化似然函數(shù)選擇相應(yīng)的弱分類構(gòu)造強分類增加了算法復(fù)雜度的問題,提出了一種基于目標(biāo)性權(quán)值學(xué)習(xí)的多示例目標(biāo)跟蹤算法,該算法利用目標(biāo)性測量每個示例樣本對包概率的重要性,根據(jù)其目標(biāo)性測量結(jié)果對每個正示例樣本賦予相應(yīng)的權(quán)值,從而判別性地計算包概率,提高跟蹤精度。同時在弱分類器選擇過程中,采用最大化弱分類器與似然函數(shù)概率內(nèi)積的方法從弱分類器池中選擇弱分器構(gòu)造強分類器,減少算法的計算復(fù)雜度。通過對不同復(fù)雜場景下視頻序列的跟蹤,實驗結(jié)果表明,本文所提出的目標(biāo)性權(quán)值學(xué)習(xí)的多示例目標(biāo)跟蹤算法優(yōu)于其對比算法,表現(xiàn)出較好的跟蹤精度和魯棒性能。
[Abstract]:For multi-example learning MIL) tracking algorithm, the lack of discrimination of sample samples in the calculation of packet probability results in the performance degradation of classifier, and the use of maximum likelihood function to select the corresponding weak classification to construct strong classification increases the complexity of the algorithm. In this paper, a multi-example target tracking algorithm based on objectivity-weight learning is proposed. The algorithm uses objectiveness to measure the importance of each sample to packet probability, and assigns corresponding weights to each positive sample according to its target measurement results. Thus the packet probability is calculated discriminatively and the tracking accuracy is improved. At the same time, in the process of weak classifier selection, the method of maximizing the probability inner product of weak classifier and likelihood function is used to construct a strong classifier from the weak classifier pool to reduce the computational complexity of the algorithm. By tracking video sequences in different complex scenes, the experimental results show that the target weight learning multi-example target tracking algorithm proposed in this paper is superior to its contrast algorithm, and shows better tracking accuracy and robust performance.
【作者單位】: 西北工業(yè)大學(xué)自動化學(xué)院;中國移動通信集團(tuán)陜西有限公司;
【基金】:國家自然科學(xué)基金(61303224,61672433)~~
【分類號】:TP391.41
【參考文獻(xiàn)】
相關(guān)期刊論文 前1條
1 丁建睿;黃劍華;劉家鋒;張英濤;;局部特征與多示例學(xué)習(xí)結(jié)合的超聲圖像分類方法[J];自動化學(xué)報;2013年06期
【共引文獻(xiàn)】
相關(guān)期刊論文 前10條
1 曹健;魏星;李海生;蔡強;;基于局部特征的圖像分類方法[J];電子科技大學(xué)學(xué)報;2017年01期
2 滑維鑫;慕德俊;郭達(dá)偉;劉航;;基于目標(biāo)性權(quán)值度量的多示例學(xué)習(xí)目標(biāo)跟蹤[J];北京航空航天大學(xué)學(xué)報;2017年07期
3 鄭海峰;;基于多尺度Retinex的超聲圖像去噪及增強技術(shù)[J];激光雜志;2016年03期
4 趙鵬坤;時愷澤;張素蘭;;一種基于粗糙集的視覺單詞生成方法[J];太原科技大學(xué)學(xué)報;2016年01期
5 楊曉敏;嚴(yán)斌宇;李康麗;蘇冰山;;基于金字塔模型的圖像分類[J];計算機與數(shù)字工程;2015年04期
6 宋相法;焦李成;;基于稀疏表示的多示例圖像分類[J];計算機科學(xué);2015年01期
7 楊曉敏;嚴(yán)斌宇;李康麗;蘇冰山;;一種基于詞袋模型的圖像分類方法[J];太赫茲科學(xué)與電子信息學(xué)報;2014年05期
8 王麗佳;賈松敏;李秀智;王爽;;基于改進(jìn)在線多示例學(xué)習(xí)算法的機器人目標(biāo)跟蹤[J];自動化學(xué)報;2014年12期
9 楊曉敏;嚴(yán)斌宇;王潘;宋亞東;;一種基于視覺顯著度詞袋模型的圖像分類方法[J];數(shù)字技術(shù)與應(yīng)用;2014年07期
10 顧明亮;張寧;張世形;鮑薇;;基于時變多示例學(xué)習(xí)的性別識別[J];計算機工程與設(shè)計;2013年11期
,本文編號:1896170
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1896170.html