基于廣義統(tǒng)一模型的非單視點(diǎn)全向相機(jī)標(biāo)定
[Abstract]:Reflectance camera is a kind of low-cost large field-of-view camera, which has been paid more and more attention in recent years. Due to its large field of view, reflective cameras are widely used in robot navigation, video surveillance, video conferencing and other scenes. The refractor camera can be divided into single-view and non-single-view Dot Reflector cameras according to whether they have a single view or not. Single-looking Dot Reflector camera is ideal and difficult to obtain in reality. Because of the inaccuracy of the mirror and camera position, the single-view Dot Reflector camera becomes a non-single-looking Dot Reflector camera, which is widely existed in reality. The existing model of single-looking Dot Reflector has very poor ability to compensate for misalignment. However, the model of non-single-looking Dot Reflector camera is often too complex, so it is not easy to calibrate and use it. Therefore, there is an urgent need for a simple, easy-to-use, high-precision model for non-single-looking point-bending reflection cameras. In this paper, a generalized unified model for non-single-looking Dot Reflectors is presented. By adding two parameters to make up for the misalignment in the unit ball model, the generalized unified model can well adapt to the misalignment of the single-looking point-bending reflection camera, while the generalized unified model keeps the unit ball model simple. This makes the calibration and application of non-single-looking Dot Reflector camera easier. Based on the generalized unified model, this paper first presents a calibration method for non-single-looking point-bending reflection camera. The validity of the generalized unified model and the reliability of the calibration algorithm are verified by simulation and real experiments. Based on the forward mapping, backward mapping and polar geometry of the generalized unified model, a self-calibration method for the generalized unified model is proposed in this paper. Without manual intervention, the generalized unified model can be automatically calibrated by two maps collected from different positions. Simulation experiments and real experiments verify the accuracy and reliability of the self-calibration method, and further verify the effectiveness of the generalized unified model for non-single-looking point-bending reflection cameras.
【學(xué)位授予單位】:浙江大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2014
【分類號】:TB852.1;TP391.41
【共引文獻(xiàn)】
相關(guān)期刊論文 前10條
1 韓強(qiáng);;基于廣義Hough變換的手寫文檔整詞定位[J];安徽電子信息職業(yè)技術(shù)學(xué)院學(xué)報(bào);2011年05期
2 程剛;鄭小華;陽鋒;徐祖艦;;三維全景視覺技術(shù)在農(nóng)業(yè)機(jī)器人中的應(yīng)用[J];安徽農(nóng)業(yè)科學(xué);2010年34期
3 何海燕;施培蓓;;基于改進(jìn)AdaBoost算法的行人檢測方法[J];安慶師范學(xué)院學(xué)報(bào)(自然科學(xué)版);2009年03期
4 吳慧蘭;劉國棟;劉炳國;胡濤;浦昭邦;;ICF實(shí)驗(yàn)靶定位技術(shù)研究[J];半導(dǎo)體光電;2008年05期
5 陳京;袁保宗;劉渭濱;;多視點(diǎn)標(biāo)定圖像的交替迭代度量重建方法[J];北京交通大學(xué)學(xué)報(bào);2012年02期
6 周峰;劉輝;李超峰;;SIFT算法在圖像配準(zhǔn)中的應(yīng)用[J];辦公自動化;2009年22期
7 劉彬;葉麗娜;;一種基于SIFT特征的序列圖像拼接算法[J];兵工自動化;2009年06期
8 劉煥敏;王華;段慧芬;;一種改進(jìn)的SIFT雙向匹配算法[J];兵工自動化;2009年06期
9 彭勃;周文暉;劉濟(jì)林;;基于Harris角點(diǎn)檢測的立體視覺里程計(jì)[J];兵工學(xué)報(bào);2007年12期
10 陳冰;趙亦工;李欣;;基于高斯尺度空間的末制導(dǎo)目標(biāo)跟蹤方法[J];兵工學(xué)報(bào);2009年05期
相關(guān)會議論文 前10條
1 劉善磊;張亮;;基于相位相關(guān)和SURF算法的關(guān)鍵幀實(shí)時(shí)匹配研究[A];江蘇省測繪學(xué)會2011年學(xué)術(shù)年會論文集[C];2011年
2 隋樹林;孫立宏;姚文龍;袁健;;融合改進(jìn)UKF/SIFT信息的自主光學(xué)導(dǎo)航方法[A];第二十六屆中國控制會議論文集[C];2007年
3 汪力;葉樺;夏良正;;利用特征點(diǎn)定位嘴巴[A];第二十六屆中國控制會議論文集[C];2007年
4 ;Loop-closing By Using SIFT Features for Mobile Robots[A];第二十六屆中國控制會議論文集[C];2007年
5 周凱;范瑞霞;李位星;;一種基于SIFT的MeanShift-粒子濾波融合跟蹤算法[A];第二十九屆中國控制會議論文集[C];2010年
6 ;Rapid Target Recognition and Tracking under Large Scale Variation Using Semi-Naive Bayesian[A];第二十九屆中國控制會議論文集[C];2010年
7 ;A High-level Image Sequence Fusion Algorithm for Human Detection[A];第二十九屆中國控制會議論文集[C];2010年
8 鄒麗暉;陳杰;張娟;竇麗華;;一種基于時(shí)空域流形的視頻序列圖像拼接算法[A];第二十九屆中國控制會議論文集[C];2010年
9 ;Machine Vision Based Flotation Froth Mobility Analysis[A];第二十九屆中國控制會議論文集[C];2010年
10 孫明竹;趙新;程小燕;孫程;盧桂章;;面向復(fù)雜作業(yè)的微操作機(jī)器人關(guān)鍵技術(shù)研究[A];第二十九屆中國控制會議論文集[C];2010年
相關(guān)博士學(xué)位論文 前10條
1 王玉全;基于全景視覺的移動機(jī)器人同時(shí)定位與地圖創(chuàng)建方法研究[D];哈爾濱工程大學(xué);2010年
2 梁洪;基于內(nèi)容的醫(yī)學(xué)圖像檢索及語義建模關(guān)鍵技術(shù)研究[D];哈爾濱工程大學(xué);2010年
3 任楨;圖像分類任務(wù)的關(guān)鍵技術(shù)研究[D];哈爾濱工程大學(xué);2010年
4 孔凡芝;引線鍵合視覺檢測關(guān)鍵技術(shù)研究[D];哈爾濱工程大學(xué);2009年
5 王作為;具有認(rèn)知能力的智能機(jī)器人行為學(xué)習(xí)方法研究[D];哈爾濱工程大學(xué);2010年
6 肖潔;視覺注意模型及其在目標(biāo)感知中的應(yīng)用研究[D];華中科技大學(xué);2010年
7 朱清波;序列圖像三維重建方法研究[D];華中科技大學(xué);2010年
8 田文;多視圖圖像的快速三維場景重建[D];華中科技大學(xué);2010年
9 涂虬;智能視覺監(jiān)視中目標(biāo)檢測與跟蹤算法研究[D];華中科技大學(xué);2010年
10 章鵬;多尺度特征檢測:方法和應(yīng)用研究[D];中國科學(xué)技術(shù)大學(xué);2010年
相關(guān)碩士學(xué)位論文 前10條
1 宋抗;壓縮機(jī)活塞圓度誤差數(shù)字檢測系統(tǒng)研究[D];河南理工大學(xué);2010年
2 陳忠翔;基于立體視覺的三維重建方法研究[D];南昌航空大學(xué);2010年
3 雒燕飛;地質(zhì)災(zāi)害應(yīng)急地理信息數(shù)據(jù)庫設(shè)計(jì)及其應(yīng)用[D];山東科技大學(xué);2010年
4 唐紅梅;基于輻射與空間信息的遙感圖像檢索[D];山東科技大學(xué);2010年
5 倪希亮;基于尺度不變特征的多源遙感影像配準(zhǔn)[D];山東科技大學(xué);2010年
6 賈偉潔;SAR影像與光學(xué)影像配準(zhǔn)研究[D];山東科技大學(xué);2010年
7 任天宇;自穩(wěn)定航拍系統(tǒng)算法與設(shè)計(jì)[D];長春理工大學(xué);2010年
8 李躍;三維運(yùn)動估計(jì)在織物動態(tài)仿真中的應(yīng)用[D];浙江理工大學(xué);2010年
9 婁錚錚;sIB算法在圖像無監(jiān)督分類中的應(yīng)用研究[D];鄭州大學(xué);2010年
10 王博;全景視覺智能移動機(jī)器人固有環(huán)境定位[D];哈爾濱工程大學(xué);2010年
,本文編號:2444656
本文鏈接:http://sikaile.net/guanlilunwen/gongchengguanli/2444656.html