天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 航空航天論文 >

基于循環(huán)卷積網(wǎng)絡(luò)的小行星繞飛段視覺相對(duì)位姿估計(jì)算法研究

發(fā)布時(shí)間:2020-04-20 20:31
【摘要】:深空小行星的探測(cè)與資源利用是空間科學(xué)領(lǐng)域的重要發(fā)展方向,而探測(cè)器在未知環(huán)境小行星探測(cè)任務(wù)中的巡視、繞飛、著陸等階段中高精度定位導(dǎo)航是當(dāng)前面臨的關(guān)鍵難題。由于深空通信周期較長(zhǎng),小行星探測(cè)器必須具有較強(qiáng)的自主導(dǎo)航能力,才能保證探測(cè)任務(wù)的實(shí)施。利用視覺傳感器感知周圍環(huán)境信息的導(dǎo)航方式,即視覺導(dǎo)航,可以在接近行星的過程中通過光學(xué)相機(jī)拍攝圖像獲取更多的特征信息而提高導(dǎo)航精度。在視覺導(dǎo)航領(lǐng)域,視覺SLAM(simultaneous localization and mapping,即時(shí)定位與地圖構(gòu)建)算法是目前的研究熱點(diǎn),該算法不僅能夠利用視覺圖像之間的相關(guān)性進(jìn)行相對(duì)定位與場(chǎng)景構(gòu)圖,還能保證一定實(shí)時(shí)性,無論是對(duì)于未知小行星探測(cè)任務(wù)中相對(duì)定位、導(dǎo)航與避障,還是用于結(jié)合軌道動(dòng)力學(xué)的軌道修正,乃至探測(cè)器自主決策,都有重大意義。視覺SLAM算法前端通常是采用特征點(diǎn)法關(guān)聯(lián)相鄰圖像信息,即提取圖像特征并匹配,由此結(jié)合圖像間幾何關(guān)系求得相機(jī)相對(duì)位姿信息。由于小行星表面地形未知且光照環(huán)境復(fù)雜,可能會(huì)出現(xiàn)光照強(qiáng)度變化和局部陰影變化。這些變化會(huì)影響提取圖像特征的準(zhǔn)確性,進(jìn)而影響視覺定位與導(dǎo)航的精度。因此,我們需要一種可以對(duì)于光照變化具有穩(wěn)定性的圖像特征提取及匹配算法,進(jìn)而得到較精確的相機(jī)相對(duì)位姿。由于傳統(tǒng)的特征點(diǎn)算法無法兼顧高精度與高效率,對(duì)實(shí)時(shí)性要求高的SLAM算法通?紤]一些適當(dāng)降低精度和健壯性以提升計(jì)算速度的特征算法,但其對(duì)光照變化的穩(wěn)定性能較差。近幾年,深度學(xué)習(xí)算法在圖像處理領(lǐng)域是研究熱點(diǎn),其利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像處理任務(wù)中代替手工提取特征而提高算法性能,且深度學(xué)習(xí)算法可通過大量數(shù)據(jù)驅(qū)動(dòng)學(xué)習(xí)對(duì)光照變化等干擾的適應(yīng)性。在小行星探測(cè)器繞飛階段,相機(jī)的拍攝場(chǎng)景與航拍場(chǎng)景相似,而單應(yīng)性矩陣可以用于航拍場(chǎng)景,因此,本文提出了一個(gè)基于單應(yīng)性矩陣的位姿估計(jì)方法,其中單應(yīng)性矩陣估計(jì)算法是基于深度學(xué)習(xí)的,它通過學(xué)習(xí)后能夠?qū)Ω黝愋⌒行黔h(huán)境的視覺圖像進(jìn)行特征提取和單應(yīng)性矩陣估計(jì)。同時(shí),考慮到飛行器受軌道動(dòng)力學(xué)約束所表現(xiàn)的飛行連貫性和循環(huán)網(wǎng)絡(luò)(RNN)可處理時(shí)序信號(hào)的特性,單應(yīng)性矩陣估計(jì)算法采用一個(gè)基于循環(huán)卷積網(wǎng)絡(luò)(RNN-CNN)的框架,提高了單應(yīng)性矩陣的估計(jì)精度,并兼顧對(duì)光照變化、幾何形變等干擾的魯棒性。最后,通過小行星環(huán)境仿真與成像模擬生成了一系列探測(cè)器繞飛階段的小行星表面圖像,并將本文算法應(yīng)用于該圖像序列的位姿估計(jì),測(cè)試本文算法的性能。本文的主要工作概括如下:1.用公開數(shù)據(jù)集分別訓(xùn)練有監(jiān)督與無監(jiān)督的基于CNN的單應(yīng)性估計(jì)網(wǎng)絡(luò)的模型參數(shù),并測(cè)試對(duì)比兩者的估計(jì)誤差和對(duì)光照變化的穩(wěn)定性。此外,為了得到對(duì)光照變化穩(wěn)定性較好的模型,引入光照噪聲做數(shù)據(jù)增強(qiáng),改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),并調(diào)整損失函數(shù);2.考慮到輸入圖像的序列性,在基于CNN的單應(yīng)性估計(jì)網(wǎng)絡(luò)框架的基礎(chǔ)上引入RNN結(jié)構(gòu)構(gòu)建時(shí)序模型,得到一個(gè)無監(jiān)督的基于RNN-CNN的單應(yīng)性估計(jì)網(wǎng)絡(luò),提高了網(wǎng)絡(luò)的估計(jì)精度和對(duì)光照變化的穩(wěn)定性;3.通過小行星表面的光照、陰影的仿真和小行星探測(cè)器在繞飛階段的運(yùn)動(dòng)模擬,并結(jié)合成像模擬生成小行星表面圖像序列。應(yīng)用本文的算法估計(jì)小行星表面圖像序列的相對(duì)位姿,通過位姿估計(jì)結(jié)果與相關(guān)算法比較,表明了本文算法在實(shí)時(shí)性和精度方面具有綜合優(yōu)勢(shì)。
【圖文】:

場(chǎng)景,光照,視覺定位,特征匹配


下面為 SIFT 特征的匹配結(jié)果?梢钥吹,陰影位置的變化蓋原來提取特征點(diǎn)的像素團(tuán),這樣局部的光照變化可能會(huì)影響特征提取,進(jìn)而影響視覺定位的精度。圖 1.1 光照不足條件下(左)和光照充足條件下(右)的特征匹配.1.1 Feature matching under poor light conditions (left) and under abundant light cond(right)

框架圖,里程計(jì),特征點(diǎn)法,視覺


相鄰兩幀圖像之間的相對(duì)位姿估計(jì)是實(shí)現(xiàn)視覺里程計(jì)的主要思想,視覺移動(dòng)機(jī)器人視覺定位的基礎(chǔ)算法,它主要是通過估計(jì)相鄰圖像之間的相并根據(jù)幾何約束優(yōu)化位姿信息,從而估算出移動(dòng)機(jī)器人的運(yùn)動(dòng)軌跡。Mo[2]提出了從連續(xù)的圖像序列中估計(jì)相機(jī)運(yùn)動(dòng),并在其研發(fā)的斯坦福小車體視覺估計(jì)小車的位姿,他們利用單個(gè)相機(jī)在軌道上平移而得到立體相。在 1987 年,Matthies 等人[3]提出一個(gè)視覺里程計(jì)的基本理論框架,這及到特征提取、特征匹配與跟蹤、運(yùn)動(dòng)估計(jì)。NASA 將視覺里程計(jì)應(yīng)用測(cè)器上[3-5],證明了基于視覺的位姿估計(jì)方法的能力,并推動(dòng)了基于視體位姿估計(jì)的研究。2004 年,,“視覺里程計(jì)”這一術(shù)語首次出現(xiàn)在文獻(xiàn)[6獻(xiàn)還實(shí)現(xiàn)了一種實(shí)時(shí)視覺里程計(jì),并分別給出了在單目視覺和立體視覺下視覺里程計(jì)的實(shí)現(xiàn)流程,同時(shí)也進(jìn)一步完善了視覺里程計(jì)的框架。隨里程計(jì)的深入研究,其實(shí)現(xiàn)框架可以概括為三個(gè)步驟:特征提取及匹配計(jì)、濾波器優(yōu)化或非線性優(yōu)化。
【學(xué)位授予單位】:中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院國(guó)家空間科學(xué)中心)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:V448.2;TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 茹祥宇;金潮;潘成峰;許超;;單目視覺慣性融合方法在無人機(jī)位姿估計(jì)中的應(yīng)用[J];控制與信息技術(shù);2018年06期

2 曾霞霞;李佐勇;林文如;;一種基于隨機(jī)森林的頭部位姿估計(jì)算法[J];福建師范大學(xué)學(xué)報(bào)(自然科學(xué)版);2016年04期

3 宋亮;李志;馬興瑞;;基于激光成像雷達(dá)的未知目標(biāo)相對(duì)位姿估計(jì)算法[J];系統(tǒng)仿真學(xué)報(bào);2017年05期

4 徐蕭蕭;王智靈;陳宗海;;視頻序列中基于頭肩分割的人體位姿估計(jì)算法[J];中國(guó)圖象圖形學(xué)報(bào);2010年12期

5 臧雨飛;談?dòng)⒆?;基于救援機(jī)器人靈活操控的目標(biāo)位姿估計(jì)研究[J];工業(yè)控制計(jì)算機(jī);2018年06期

6 張正鵬;張強(qiáng);;車載全景序列影像的位姿估計(jì)優(yōu)化方法[J];測(cè)繪科學(xué);2017年12期

7 屈也頻;張超然;呂余海;;基于機(jī)器視覺的最大似然位姿估計(jì)算法[J];應(yīng)用光學(xué);2019年02期

8 吳妍;吳芬;戚國(guó)慶;;基于人工標(biāo)志的單目視覺下無人機(jī)位姿估計(jì)[J];電子設(shè)計(jì)工程;2017年12期

9 劉然;范秀敏;尹旭悅;王冀凱;楊旭;;AR輔助裝配中基體及零件位姿組合估計(jì)方法[J];機(jī)械設(shè)計(jì)與研究;2018年06期

10 朱楓;秦麗娟;談大龍;;量化誤差對(duì)直線位姿估計(jì)精度影響的研究[J];機(jī)器人;2007年04期

相關(guān)會(huì)議論文 前7條

1 張捚豪;楊旭升;馮遠(yuǎn)靜;李永強(qiáng);張文安;;基于自適應(yīng)無跡卡爾曼濾波和單目視覺的運(yùn)動(dòng)剛體位姿估計(jì)[A];第37屆中國(guó)控制會(huì)議論文集(C)[C];2018年

2 張?chǎng)?張雅聲;姚紅;;基于SoftPOSIT算法的非合作目標(biāo)相對(duì)位姿估計(jì)[A];系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)論文集(第15卷)[C];2014年

3 周船;談大龍;朱楓;;基于模型的位姿估計(jì)中優(yōu)化方法研究[A];第二屆全國(guó)信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2004年

4 李博;王孝通;徐曉剛;楊常青;;艦載直升機(jī)位置姿態(tài)測(cè)量方法研究[A];可持續(xù)發(fā)展的中國(guó)交通——2005全國(guó)博士生學(xué)術(shù)論壇(交通運(yùn)輸工程學(xué)科)論文集(下冊(cè))[C];2005年

5 吳清瀟;郝穎明;李碩;朱楓;;基于視覺伺服的水下機(jī)器人懸停定位[A];2007中國(guó)控制與決策學(xué)術(shù)年會(huì)論文集[C];2007年

6 劉璽;方勇純;張雪波;;基于單應(yīng)矩陣的位姿估計(jì)方法及應(yīng)用[A];第二十七屆中國(guó)控制會(huì)議論文集[C];2008年

7 姚紅;程文華;張雅聲;湯亞鋒;;僅使用單目視覺的航天器自主逼近控制仿真[A];空天資源的可持續(xù)發(fā)展——第一屆中國(guó)空天安全會(huì)議論文集[C];2015年

相關(guān)博士學(xué)位論文 前10條

1 陳鵬;基于單目視覺的像機(jī)位姿估計(jì)技術(shù)[D];北京科技大學(xué);2015年

2 王可;基于變分模型的移動(dòng)機(jī)器人三維環(huán)境建模方法研究[D];北京工業(yè)大學(xué);2016年

3 張躍強(qiáng);基于直線特征的空間非合作目標(biāo)位姿視覺測(cè)量方法研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2016年

4 李鑫;基于視覺的位姿估計(jì)與點(diǎn)目標(biāo)運(yùn)動(dòng)測(cè)量方法研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2015年

5 江士雄;面向位姿估計(jì)的相機(jī)系統(tǒng)標(biāo)定方法研究[D];華中科技大學(xué);2016年

6 李由;基于輪廓和邊緣的空間非合作目標(biāo)視覺跟蹤[D];國(guó)防科學(xué)技術(shù)大學(xué);2013年

7 徐偉杰;基于視覺的微小型無人直升機(jī)位姿估計(jì)與目標(biāo)跟蹤研究[D];浙江大學(xué);2012年

8 崔家山;三維運(yùn)動(dòng)立體視覺測(cè)量方法研究[D];哈爾濱工業(yè)大學(xué);2016年

9 桂陽;基于機(jī)載視覺的無人機(jī)自主著艦引導(dǎo)關(guān)鍵技術(shù)研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2013年

10 洪裕珍;空間非合作目標(biāo)的單目視覺姿態(tài)測(cè)量技術(shù)研究[D];中國(guó)科學(xué)院光電技術(shù)研究所;2017年

相關(guān)碩士學(xué)位論文 前10條

1 吳炎桐;基于無監(jiān)督學(xué)習(xí)的相機(jī)位姿估計(jì)算法研究[D];北京郵電大學(xué);2019年

2 李媛;基于循環(huán)卷積網(wǎng)絡(luò)的小行星繞飛段視覺相對(duì)位姿估計(jì)算法研究[D];中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院國(guó)家空間科學(xué)中心);2019年

3 陳玉寅;基于卡爾曼濾波器的運(yùn)動(dòng)剛體位姿估計(jì)方法研究[D];浙江工業(yè)大學(xué);2018年

4 孫俊逸;基于三維人體姿態(tài)估計(jì)的老人跌倒檢測(cè)[D];鄭州大學(xué);2019年

5 蘇俊欽;基于計(jì)算機(jī)視覺的無人飛行器位姿估計(jì)方法研究[D];哈爾濱工業(yè)大學(xué);2018年

6 付泰;調(diào)運(yùn)態(tài)勢(shì)監(jiān)測(cè)及避碰技術(shù)研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2016年

7 張澄宇;自動(dòng)泊車路徑規(guī)劃及泊車位姿估計(jì)算法研究[D];合肥工業(yè)大學(xué);2018年

8 秦瑞康;基于全參數(shù)自適應(yīng)粒子群算法的單目標(biāo)定與位姿估計(jì)研究[D];揚(yáng)州大學(xué);2018年

9 喬明起;基于深度神經(jīng)網(wǎng)絡(luò)的視覺位姿估計(jì)方法研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2018年

10 李浩琛;基于深度學(xué)習(xí)的工業(yè)機(jī)器人目標(biāo)定位及位姿估計(jì)研究[D];中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院重慶綠色智能技術(shù)研究院);2018年



本文編號(hào):2634932

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/hangkongsky/2634932.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶154a3***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com