基于多傳感器融合的三維目標跟蹤
本文選題:三維目標跟蹤 + 慣性測量傳感器; 參考:《山東大學(xué)》2017年碩士論文
【摘要】:三維目標跟蹤是計算機視覺領(lǐng)域的基礎(chǔ)性問題,一直以來都是國內(nèi)外學(xué)者們的研究熱點。經(jīng)典的基于模型的三維跟蹤方法是將三維模型投影出的邊與圖像中的邊進行對齊的配準過程,而利用圖像處理技術(shù)可以得到三維模型投影到圖像上的輪廓,然后在輪廓上均勻采樣得到點,最后邊的對齊實際上就是輪廓上的采樣點與其法線方向上候選點的匹配。然而,這種低級的點匹配受光照變化、遮擋、運動模糊等因素的影響極易發(fā)生錯誤,導(dǎo)致跟蹤的失敗。為了解決低級匹配錯誤導(dǎo)致跟蹤失敗的問題,本文通過使用慣性測量傳感器輔助視覺傳感器來估計相機姿態(tài),提出了一種能有效提高基于模型的三維目標跟蹤魯棒性的新方法,即基于多傳感器融合的三維跟蹤。主要貢獻如下:1.通過在視覺傳感器(相機)上綁定慣性測量傳感器來估計相機的旋轉(zhuǎn)。慣性測量傳感器包含3軸陀螺儀、3軸加速度計和3軸地磁計,分別可以測量角速度、加速度和地磁強度。我們首先對從慣性測量傳感器獲得的原始數(shù)據(jù)使用卡爾曼濾波以降低測量誤差。對角速度在時間上進行積分和遞推,可以計算出轉(zhuǎn)動角度,由此可以得到相機的旋轉(zhuǎn),然后為了提高相機旋轉(zhuǎn)估計的精度我們提出基于補償濾波的傳感器融合算法。與此同時,通過對加速度的積分可以得到相機速度,這將為使用粒子濾波算法估計相機平移提供幫助。2.通過粒子濾波確定相機平移。把我們以已經(jīng)得到的相機旋轉(zhuǎn)和相機速度作為粒子濾波的輸入,每個粒子表示潛在的一個相機的姿態(tài),使用動態(tài)模型預(yù)測,觀測模型修正。粒子只有相機平移三個自由度的狀態(tài)空間,使得粒子濾波過程可以使用相對較多的粒子來保證跟蹤效果,同時又能將計算代價控制在可接受范圍之內(nèi)。3.實現(xiàn)算法集成框架。本文將慣性測量傳感器和粒子濾波集成到一個算法框架之下。通過本文提出的方法,可以實現(xiàn)穩(wěn)定的跟蹤。綜上所述,本文就三維目標跟蹤課題進行了研究,提出了一種通過使用多傳感器融合進行跟蹤的方法。通過實驗,我們檢驗了所提出算法的可行性,并且通過定量分析和定性分析驗證了算法具有很高的精確性和魯棒性。
[Abstract]:3D target tracking is a fundamental problem in the field of computer vision, and has always been a hot research topic of scholars at home and abroad. The classical 3D tracking method based on model is to align the edge of the 3D model with the edge of the image, and the contour of the 3D model can be obtained by using the image processing technology. Then the point is uniformly sampled on the contour, and the alignment of the last edge is actually the matching between the sample point on the contour and the candidate point in its normal direction. However, the low-level point matching is affected by illumination, occlusion, motion blur and other factors, which leads to the failure of tracking. In order to solve the problem of tracking failure caused by low-level matching errors, this paper proposes a new method which can effectively improve the robustness of 3D target tracking based on model by using inertial measurement sensor aided visual sensor to estimate camera attitude. That is, three-dimensional tracking based on multi-sensor fusion. The main contributions are as follows: 1. The rotation of the camera is estimated by binding an inertial measurement sensor to the visual sensor (camera). The inertial measurement sensor consists of 3-axis gyroscopes, 3-axis accelerometers and 3-axis magnetometers, which can measure angular velocity, acceleration and geomagnetic intensity, respectively. We first use Kalman filter to reduce the measurement error of the raw data obtained from the inertial measurement sensor. In order to improve the accuracy of camera rotation estimation, a sensor fusion algorithm based on compensatory filtering is proposed in order to improve the accuracy of camera rotation estimation by integrating and recursive angular velocity in time, the rotation angle can be calculated and the rotation angle can be obtained. At the same time, the camera speed can be obtained by integrating the acceleration, which will help to estimate the translation of the camera using the particle filter algorithm. The camera translation is determined by particle filter. We use the camera rotation and camera speed as the input of particle filter. Each particle represents the attitude of a potential camera. The dynamic model is used to predict and the observation model is modified. The state space of three degrees of freedom is only shifted by the camera, which makes the particle filter process use relatively more particles to ensure the tracking effect, and at the same time, the computational cost can be controlled within the acceptable range of .3. The algorithm integration framework is implemented. In this paper, the inertial measurement sensor and particle filter are integrated into an algorithm framework. The method proposed in this paper can realize stable tracking. To sum up, this paper studies the subject of 3D target tracking, and proposes a method of tracking by using multi-sensor fusion. Through experiments, the feasibility of the proposed algorithm is verified, and the accuracy and robustness of the algorithm are verified by quantitative analysis and qualitative analysis.
【學(xué)位授予單位】:山東大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2017
【分類號】:TP391.41;TP212
【相似文獻】
相關(guān)期刊論文 前10條
1 小平;工業(yè)測量傳感器[J];光機電信息;2002年03期
2 ;組合式溫鹽測量傳感器鏈[J];傳感器世界;2010年05期
3 谷毅;振動測量傳感器的發(fā)展現(xiàn)狀[J];現(xiàn)代計量測試;1997年05期
4 王濤;仲思東;余學(xué)鋒;;對徑測量傳感器的激光校準方法[J];中國激光;2006年02期
5 華艷秋;莊慧忠;黃立新;諸瑾;;光學(xué)測量傳感器的設(shè)計與分析[J];工業(yè)控制計算機;2009年01期
6 于連生;宋家駒;唐宏寰;劉啟海;于翔;;激光懸沙測量傳感器研究[J];海洋技術(shù);2009年03期
7 王愛軍;王聰;石超英;張川;;海洋濁度測量傳感器校準方法及校準測量能力評估[J];計測技術(shù);2012年05期
8 陳昌堯,張仁杰;口腔咬合力測量傳感器結(jié)構(gòu)研究[J];上海機械學(xué)院學(xué)報;1987年01期
9 大舟;三維干涉測量傳感器[J];光機電世界;1994年05期
10 孔祥騮,陸耀楨;中醫(yī)切脈氣囊加壓小區(qū)域多點測量傳感器的研究[J];西安交通大學(xué)學(xué)報;1982年01期
相關(guān)會議論文 前5條
1 ;激光相關(guān)測量傳感器[A];廣東省材料研究學(xué)會部分單位會員成果匯編[C];2005年
2 白跟順;任曉峰;王青;;溫度測量傳感器及編程技術(shù)[A];山東水利科技論壇2006[C];2006年
3 張從和;孟念湘;;大溫變速率壓力測量傳感器技術(shù)[A];中國工程物理研究院科技年報(1998)[C];1998年
4 戴恒震;孫寶元;李萬全;;一種變壓器繞組絕緣紙板微水分測量傳感器[A];首屆信息獲取與處理學(xué)術(shù)會議論文集[C];2003年
5 趙維謙;邱麗榮;沙定國;;具有高空間分辨力的整形環(huán)形光式差動共焦測量法[A];第十一屆全國光學(xué)測試學(xué)術(shù)討論會論文(摘要集)[C];2006年
相關(guān)碩士學(xué)位論文 前5條
1 張倩;基于多傳感器融合的三維目標跟蹤[D];山東大學(xué);2017年
2 李磊磊;基于差動象散離焦檢測的納米分辨力瞄準與測量傳感器[D];哈爾濱工業(yè)大學(xué);2012年
3 王新輝;壓差式瞬態(tài)流量測量傳感器的有限元分析與模擬[D];天津大學(xué);2005年
4 羋書亮;42V汽車爪極同步發(fā)電機系統(tǒng)無測量傳感器的磁場定向控制[D];廣西大學(xué);2008年
5 夏秋月;濕蒸汽濕度測量傳感器及控制系統(tǒng)的設(shè)計與實現(xiàn)[D];華北電力大學(xué);2011年
,本文編號:1916398
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1916398.html