天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

基于慣性測(cè)量單元與視覺融合的三維空間定位技術(shù)研究

發(fā)布時(shí)間:2019-02-13 20:04
【摘要】:虛擬現(xiàn)實(shí)技術(shù)(簡(jiǎn)稱:VR)是當(dāng)前技術(shù)研究的熱點(diǎn)之一。檢測(cè)人體行為操作的慣性測(cè)量單元(簡(jiǎn)稱IMU)是虛擬現(xiàn)實(shí)技術(shù)的核心感應(yīng)元器件,把IMU慣性測(cè)量與機(jī)器視覺測(cè)量進(jìn)行融合,從而實(shí)現(xiàn)抑制慣性測(cè)量的累計(jì)誤差是本文的主要研究?jī)?nèi)容。在現(xiàn)實(shí)應(yīng)用中,IMU慣性測(cè)量會(huì)引起的累計(jì)誤差最終導(dǎo)致IMU慣性測(cè)量失真,這個(gè)問題一直困擾著很多國(guó)內(nèi)外的VR設(shè)備廠家。在這種背景下,有關(guān)IMU慣性測(cè)量校正的相關(guān)概念應(yīng)運(yùn)而生,它的目標(biāo)是借用外部信息作為參照來更新IMU慣性測(cè)量的狀態(tài),降低和消除IMU慣性測(cè)量的累積誤差。目前IMU慣性測(cè)量校正算法已被廣泛地應(yīng)用于航天、導(dǎo)航儀器、虛擬現(xiàn)實(shí)等領(lǐng)域。本文首先討論有關(guān)IMU慣性測(cè)量和視覺測(cè)量的相關(guān)理論技術(shù)基礎(chǔ),以及國(guó)內(nèi)外在該領(lǐng)域的相關(guān)研究成果。接著分別對(duì)IMU慣性測(cè)量和視覺測(cè)量?jī)煞N測(cè)量方法進(jìn)行推導(dǎo)和實(shí)現(xiàn)。最后將兩種測(cè)量的結(jié)果進(jìn)行融合,得到校正后的IMU慣性測(cè)量結(jié)果。本文主要工作分為以下3點(diǎn):(1)基于陀螺儀和加速度計(jì)、磁強(qiáng)計(jì)的IMU慣性組合算法:通過組合陀螺儀和加速度計(jì)、磁強(qiáng)計(jì)三種慣性元器件,得到混合磁強(qiáng)計(jì)的IMU慣性測(cè)量單元。這種IMU慣性測(cè)量單元的慣性坐標(biāo)系與地球坐標(biāo)系重合,可以監(jiān)測(cè)元器件在移動(dòng)時(shí)所產(chǎn)生的的偏移角度,最后利用羅德里格斯變換(Rodrigues)解出與視覺測(cè)量相匹配的數(shù)據(jù)。(2)基于視覺測(cè)距的方法獲取現(xiàn)實(shí)中被測(cè)物體的方向向量:首先對(duì)雙目相機(jī)進(jìn)行視覺標(biāo)定,得到相機(jī)的焦距和旋轉(zhuǎn)矩陣等相關(guān)參數(shù),接著用特征點(diǎn)檢測(cè)方法檢測(cè)目標(biāo)特征點(diǎn),最后利用雙目測(cè)距定理解算目標(biāo)深度信息,并求解出被測(cè)標(biāo)志物的三維空間坐標(biāo)。(3)基于卡爾曼算法將IMU測(cè)量向量和視覺測(cè)量向量的融合:將高頻率的IMU測(cè)量作為濾波系統(tǒng)的狀態(tài)向量,低頻率的視覺測(cè)量作為更新向量,最終系統(tǒng)輸出的偏移向量不僅頻率高,并且具有自適應(yīng)校準(zhǔn)累積誤差的功能。
[Abstract]:Virtual reality (: VR) technology is one of the hotspots of current technology research. The Inertial Measurement Unit (IMU), which detects human behavior, is the core inductive component of virtual reality technology, which combines IMU inertial measurement with machine vision measurement. It is the main research content of this paper to reduce the cumulative error of inertial measurement. In the practical application, the cumulative error caused by IMU inertial measurement will eventually lead to the distortion of IMU inertial measurement. This problem has been puzzling many domestic and foreign VR equipment manufacturers. In this context, the related concepts of IMU inertial measurement correction emerge as the times require. Its goal is to update the state of IMU inertial measurement by using external information as reference, and to reduce and eliminate the cumulative error of IMU inertial measurement. At present, IMU inertial measurement correction algorithm has been widely used in aerospace, navigation instruments, virtual reality and other fields. This paper first discusses the theoretical and technical basis of IMU inertial measurement and visual measurement, as well as the domestic and foreign research results in this field. Then the IMU inertial measurement and visual measurement are deduced and implemented. Finally, the results of the two measurements are fused to get the corrected IMU inertial measurement results. The main work of this paper is as follows: (1) the IMU inertial combination algorithm based on gyroscopes and accelerometers, magnetometers: through the combination of gyroscopes and accelerometers, magnetometer three kinds of inertial components, The IMU inertial measurement unit of the mixed magnetometer is obtained. The inertial coordinate system of the IMU inertial measurement unit coincides with the Earth coordinate system, which can monitor the deviation angle of the components when they move. Finally, the Rodrigues transform (Rodrigues) is used to solve the data matching with the visual measurement. (2) based on the visual ranging method, the direction vector of the measured object in reality is obtained: firstly, the binocular camera is visually calibrated. The relative parameters such as focal length and rotation matrix of the camera are obtained, then the target feature points are detected by the feature point detection method, and the target depth information is calculated by binocular ranging. The three-dimensional coordinates of the markers are solved. (3) based on the Kalman algorithm, the IMU measurement vector and the visual measurement vector are fused. The high-frequency IMU measurement is used as the state vector of the filtering system. The low-frequency vision measurement is used as the update vector, and the offset vector output by the system is not only high frequency, but also has the function of self-adaptive calibration cumulative error.
【學(xué)位授予單位】:中國(guó)地質(zhì)大學(xué)(北京)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.9;TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 劉秉;閆建國(guó);;一種小型慣性測(cè)量單元的精確標(biāo)定技術(shù)[J];計(jì)算機(jī)測(cè)量與控制;2009年11期

2 吳賽成;秦石喬;王省書;胡春生;;激光陀螺慣性測(cè)量單元系統(tǒng)級(jí)標(biāo)定方法[J];中國(guó)慣性技術(shù)學(xué)報(bào);2011年02期

3 陳楸;王曉麗;馬松輝;;飛行仿真環(huán)境中慣性測(cè)量單元建模[J];測(cè)控技術(shù);2011年03期

4 田雙太;宋全軍;葛運(yùn)建;;基于慣性測(cè)量單元的數(shù)字鐵餅設(shè)計(jì)及數(shù)據(jù)處理算法研究[J];傳感技術(shù)學(xué)報(bào);2010年10期

5 劉新廠;柴曉冬;鄭樹彬;朱文發(fā);蔣U_榛;;慣性測(cè)量單元中加速度信號(hào)的去噪處理[J];儀表技術(shù)與傳感器;2013年10期

6 李彬;張強(qiáng);;航天器用機(jī)電式慣性測(cè)量單元的標(biāo)定及影響因素分析[J];計(jì)算機(jī)測(cè)量與控制;2011年08期

7 劉秉;閆建國(guó);邱岳恒;;基于神經(jīng)網(wǎng)絡(luò)的慣性測(cè)量單元誤差標(biāo)定[J];計(jì)算機(jī)仿真;2009年11期

8 朱文發(fā);柴曉冬;鄭樹彬;李立明;羅永建;;基于LabVIEW的慣性測(cè)量單元信號(hào)采集及處理系統(tǒng)設(shè)計(jì)[J];計(jì)算機(jī)測(cè)量與控制;2012年06期

9 孔慶鵬;高爽;林鐵;焦禹舜;王妍;王小龍;;MEMS隨鉆慣性測(cè)量單元設(shè)計(jì)與實(shí)現(xiàn)[J];傳感器與微系統(tǒng);2014年03期

10 張倫東;練軍想;吳美平;胡小平;;單軸旋轉(zhuǎn)慣導(dǎo)系統(tǒng)載體航向隔離方法研究[J];儀器儀表學(xué)報(bào);2012年06期

相關(guān)會(huì)議論文 前8條

1 屈新芬;商順昌;;捷聯(lián)慣性測(cè)量單元的配置方式[A];中國(guó)工程物理研究院科技年報(bào)(2003)[C];2003年

2 杜娜;方漪;;多目視覺測(cè)量中有效測(cè)量域的計(jì)算模型[A];幾何設(shè)計(jì)與計(jì)算的新進(jìn)展[C];2005年

3 楊健新;魏榛;;瓢蟲翼面展開過程的立體視覺測(cè)量[A];中國(guó)力學(xué)大會(huì)——2013論文摘要集[C];2013年

4 余加勇;鄒崢嶸;朱建軍;;計(jì)算機(jī)視覺測(cè)量準(zhǔn)二維控制場(chǎng)建設(shè)[A];中國(guó)測(cè)繪學(xué)會(huì)九屆三次理事會(huì)暨2007年“信息化測(cè)繪論壇”學(xué)術(shù)年會(huì)論文集[C];2007年

5 單磊;樊繼宏;;立體視覺測(cè)量乳房體積軟件系統(tǒng)的研發(fā)[A];美麗人生 和諧世界——中華醫(yī)學(xué)會(huì)第七次全國(guó)醫(yī)學(xué)美學(xué)與美容學(xué)術(shù)年會(huì)、中華醫(yī)學(xué)會(huì)醫(yī)學(xué)美學(xué)與美容學(xué)分會(huì)20周年慶典暨第三屆兩岸四地美容醫(yī)學(xué)學(xué)術(shù)論壇論文匯編[C];2010年

6 王京獻(xiàn);;打造一代戰(zhàn)術(shù)導(dǎo)彈通用的激光陀螺慣性測(cè)量單元[A];2003年慣性技術(shù)科技工作者研討會(huì)論文集[C];2003年

7 楊永躍;鄧善熙;何革群;;復(fù)雜曲面形貌無影視覺測(cè)量研究[A];面向制造業(yè)的自動(dòng)化與信息化技術(shù)創(chuàng)新設(shè)計(jì)的基礎(chǔ)技術(shù)——2001年中國(guó)機(jī)械工程學(xué)會(huì)年會(huì)暨第九屆全國(guó)特種加工學(xué)術(shù)年會(huì)論文集[C];2001年

8 陳小宇;毛慶洲;張亮;張曉曄;;基于FPGA的IMU信號(hào)采集與處理[A];第二屆中國(guó)衛(wèi)星導(dǎo)航學(xué)術(shù)年會(huì)電子文集[C];2011年

相關(guān)博士學(xué)位論文 前10條

1 劉超軍;無陀螺慣性測(cè)量單元關(guān)鍵技術(shù)的研究[D];華中科技大學(xué);2016年

2 于瀟宇;高速視覺測(cè)量系統(tǒng)關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2014年

3 郭杰;基于視覺的振動(dòng)特征提取算法研究及應(yīng)用[D];中國(guó)科學(xué)技術(shù)大學(xué);2015年

4 閔永智;鐵路路基表面沉降相機(jī)鏈視覺測(cè)量方法研究[D];蘭州交通大學(xué);2014年

5 趙首博;成像前光學(xué)調(diào)制方法與視覺測(cè)量應(yīng)用技術(shù)研究[D];天津大學(xué);2014年

6 雷秀軍;高速視覺動(dòng)態(tài)測(cè)量系統(tǒng)關(guān)鍵技術(shù)與應(yīng)用研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2016年

7 郝飛;機(jī)器視覺測(cè)量關(guān)鍵技術(shù)研究及其在細(xì)長(zhǎng)軸中應(yīng)用[D];東南大學(xué);2015年

8 胡立華;大型物體的單目視覺測(cè)量理論與方法[D];太原科技大學(xué);2015年

9 周虎;高精度視覺測(cè)量系統(tǒng)關(guān)鍵技術(shù)研究與應(yīng)用[D];東華大學(xué);2011年

10 張大山;基于高速視覺的結(jié)構(gòu)運(yùn)動(dòng)測(cè)量算法研究與應(yīng)用[D];中國(guó)科學(xué)技術(shù)大學(xué);2017年

相關(guān)碩士學(xué)位論文 前10條

1 高yN軒;基于擴(kuò)展卡爾曼濾波的10-DOF慣性測(cè)量單元[D];杭州電子科技大學(xué);2015年

2 張磊;軌道沉降的連續(xù)運(yùn)動(dòng)測(cè)量模型研究[D];上海工程技術(shù)大學(xué);2016年

3 朱加義;微慣性測(cè)量單元標(biāo)定與溫度補(bǔ)償技術(shù)研究[D];哈爾濱工程大學(xué);2013年

4 王利雙;ESC慣性測(cè)量單元的研究與開發(fā)[D];燕山大學(xué);2014年

5 劉曉艷;基于慣性測(cè)量單元及GPS的運(yùn)動(dòng)記錄技術(shù)研究[D];吉林大學(xué);2011年

6 張欣;基于嵌入式系統(tǒng)和MEMS的慣性測(cè)量單元的研究[D];天津理工大學(xué);2014年

7 李楠;基于MEMS和DSP技術(shù)的低成本小型慣性測(cè)量單元的研制[D];哈爾濱工業(yè)大學(xué);2007年

8 代海洋;人手生理性震顫測(cè)試關(guān)鍵技術(shù)研究[D];哈爾濱工程大學(xué);2013年

9 鄒海龍;基于視覺測(cè)量的挖掘機(jī)工作裝置姿態(tài)測(cè)量系統(tǒng)[D];西南交通大學(xué);2015年

10 胡亞利;車輛行駛中障礙高度視覺測(cè)量的研究[D];廣西科技大學(xué);2015年

,

本文編號(hào):2421814

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2421814.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶2ee73***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com