基于粒子群優(yōu)化算法的SLAM閉環(huán)檢測方法研究
發(fā)布時間:2021-03-04 05:19
相比于傳統(tǒng)的激光、紅外傳感器,視覺傳感器不僅價格低廉,而且采集的數(shù)據(jù)信息更豐富;趫D優(yōu)化的視覺SLAM技術(shù)成為機器視覺領(lǐng)域中的研究熱點之一。在視覺SLAM技術(shù)中,通過相鄰幀間圖像的數(shù)據(jù)關(guān)聯(lián)信息計算機器人位姿,會使得前一時刻的累積誤差不可避免的傳遞到后一時刻,導(dǎo)致機器人位姿發(fā)生漂移,最終無法構(gòu)建全局一致的軌跡和地圖。引入閉環(huán)檢測模塊會對機器人的位姿增加一個額外的約束,能夠極大程度的消除機器人位姿的累積誤差,得到全局一致的軌跡和地圖。本文對SLAM技術(shù)中閉環(huán)檢測模塊進行深入研究,針對目前主流的基于詞袋模型的閉環(huán)檢測中存在離線訓(xùn)練特征耗時長,單詞本加載緩慢,在用離散的單詞表征圖像時沒有考慮到數(shù)據(jù)關(guān)聯(lián)信息,導(dǎo)致可能出現(xiàn)閉環(huán)誤判的問題,提出了一種基于粒子群優(yōu)化算法的SLAM閉環(huán)檢測方法,并且提出“直方圖降維”策略對圖像關(guān)鍵信息壓縮,得到圖像的魯棒描述子作為粒子群優(yōu)化算法的尋優(yōu)模型,進一步提高了算法的收斂速度和可靠性。本文主要工作如下:(1)深入研究了 RGB-D傳感器的成像原理和數(shù)據(jù)采集過程,通過對彩色攝像頭與深度攝像頭的標(biāo)定,獲取到Kinect相機內(nèi)外參數(shù)模型,為后續(xù)圖像特征匹配、位姿估計等...
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:82 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.1?SLAM技術(shù)在Google無人車和Tango中應(yīng)用??
劃等方面取得了比較突出的成果;中國科學(xué)研究院沈陽自動化研究所的CASIA-1通??過激光測距儀和單目攝像頭協(xié)調(diào)完成自主路徑規(guī)劃和智能避障等功能。其中Cyber??Tiggo無人駕駛汽車和TIMR智能車如圖1.2所示。另外國內(nèi)我們所熟知的大疆無人??機采用的就是雙目攝像+超聲波探測的避障技術(shù),在無人機領(lǐng)域SLAM是最為核心的??技術(shù)。??(a)?Cyber?Tiggo無人車?(b)清華THMR無人車??圖1.2?SLAM技術(shù)在國內(nèi)無人車的應(yīng)用??綜上所述,閉環(huán)檢測是SLAM領(lǐng)域最關(guān)鍵的技術(shù)之一,在SLAM中應(yīng)用閉環(huán)檢??測己得到國內(nèi)外學(xué)者的認(rèn)可與實驗論證,但是SLAM在運行過程中不可避免的會受??到來自外界的干擾,現(xiàn)有系統(tǒng)的魯棒性往往不能令人滿意。根據(jù)閉環(huán)檢測技術(shù)的特點,??本文研究了圖像的特征點的提取與檢測、圖像魯棒描述子方法,隨后提出一種基于粒??子群優(yōu)化算法的閉環(huán)檢測,以提高閉環(huán)檢測的準(zhǔn)確性和高效性。??4??
運行過程中若采用相機作為傳感器,稱之為“視覺SLAM”。事實上,SLAM技術(shù)就??是根據(jù)一幀一幀圖像之間的關(guān)聯(lián)信息去估計相機的運動過程以及周圍的環(huán)境情況。??一個完整的SLAM系統(tǒng)可以分為以下五個模塊,如下圖2.1所示。??傳感器數(shù)據(jù)?前端?后端?輸出結(jié)果??.圖像?一??視覺里程計?一??濾波器?一^??軌跡???點云?I?V0?.圖優(yōu)化??地圖??I?k?????閉環(huán)檢測????Loop?Closure??圖2.1?整體視覺SLAM流程圖??SLAM系統(tǒng)各個模塊的具體任務(wù):??(1)
【參考文獻】:
期刊論文
[1]移動機器人視覺候選閉環(huán)召回方法設(shè)計[J]. 吳俊君. 計算機工程與設(shè)計. 2016(06)
[2]基于改進ORB的圖像特征點匹配研究[J]. 戴雪梅,郎朗,陳孟元. 電子測量與儀器學(xué)報. 2016(02)
[3]基于RSOM的兩階段移動機器人閉環(huán)檢測算法[J]. 宋思陽,滕召勝,郭斯羽,張水梅. 儀器儀表學(xué)報. 2016(02)
[4]基于快速視網(wǎng)膜關(guān)鍵點算法改進的圖像匹配方法[J]. 付偲,鄧麗,盧根,費敏銳. 計算機工程與應(yīng)用. 2016(19)
[5]稀疏表示和貪婪搜索的人臉分類[J]. 劉梓,宋曉寧,唐振民. 中國圖象圖形學(xué)報. 2015(01)
[6]基于圖優(yōu)化的同時定位與地圖創(chuàng)建綜述[J]. 梁明杰,閔華清,羅榮華. 機器人. 2013(04)
[7]基于改進ORB算法的遙感圖像自動配準(zhǔn)方法[J]. 張云生,鄒崢嶸. 國土資源遙感. 2013(03)
[8]移動機器人閉環(huán)檢測的視覺字典樹金字塔TF-IDF得分匹配方法[J]. 李博,楊丹,鄧林. 自動化學(xué)報. 2011(06)
[9]基于最大最小適應(yīng)度函數(shù)的多目標(biāo)粒子群算法[J]. 徐佳,李紹軍,王惠,錢鋒. 計算機與數(shù)字工程. 2006(08)
本文編號:3062633
【文章來源】:西安電子科技大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁數(shù)】:82 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.1?SLAM技術(shù)在Google無人車和Tango中應(yīng)用??
劃等方面取得了比較突出的成果;中國科學(xué)研究院沈陽自動化研究所的CASIA-1通??過激光測距儀和單目攝像頭協(xié)調(diào)完成自主路徑規(guī)劃和智能避障等功能。其中Cyber??Tiggo無人駕駛汽車和TIMR智能車如圖1.2所示。另外國內(nèi)我們所熟知的大疆無人??機采用的就是雙目攝像+超聲波探測的避障技術(shù),在無人機領(lǐng)域SLAM是最為核心的??技術(shù)。??(a)?Cyber?Tiggo無人車?(b)清華THMR無人車??圖1.2?SLAM技術(shù)在國內(nèi)無人車的應(yīng)用??綜上所述,閉環(huán)檢測是SLAM領(lǐng)域最關(guān)鍵的技術(shù)之一,在SLAM中應(yīng)用閉環(huán)檢??測己得到國內(nèi)外學(xué)者的認(rèn)可與實驗論證,但是SLAM在運行過程中不可避免的會受??到來自外界的干擾,現(xiàn)有系統(tǒng)的魯棒性往往不能令人滿意。根據(jù)閉環(huán)檢測技術(shù)的特點,??本文研究了圖像的特征點的提取與檢測、圖像魯棒描述子方法,隨后提出一種基于粒??子群優(yōu)化算法的閉環(huán)檢測,以提高閉環(huán)檢測的準(zhǔn)確性和高效性。??4??
運行過程中若采用相機作為傳感器,稱之為“視覺SLAM”。事實上,SLAM技術(shù)就??是根據(jù)一幀一幀圖像之間的關(guān)聯(lián)信息去估計相機的運動過程以及周圍的環(huán)境情況。??一個完整的SLAM系統(tǒng)可以分為以下五個模塊,如下圖2.1所示。??傳感器數(shù)據(jù)?前端?后端?輸出結(jié)果??.圖像?一??視覺里程計?一??濾波器?一^??軌跡???點云?I?V0?.圖優(yōu)化??地圖??I?k?????閉環(huán)檢測????Loop?Closure??圖2.1?整體視覺SLAM流程圖??SLAM系統(tǒng)各個模塊的具體任務(wù):??(1)
【參考文獻】:
期刊論文
[1]移動機器人視覺候選閉環(huán)召回方法設(shè)計[J]. 吳俊君. 計算機工程與設(shè)計. 2016(06)
[2]基于改進ORB的圖像特征點匹配研究[J]. 戴雪梅,郎朗,陳孟元. 電子測量與儀器學(xué)報. 2016(02)
[3]基于RSOM的兩階段移動機器人閉環(huán)檢測算法[J]. 宋思陽,滕召勝,郭斯羽,張水梅. 儀器儀表學(xué)報. 2016(02)
[4]基于快速視網(wǎng)膜關(guān)鍵點算法改進的圖像匹配方法[J]. 付偲,鄧麗,盧根,費敏銳. 計算機工程與應(yīng)用. 2016(19)
[5]稀疏表示和貪婪搜索的人臉分類[J]. 劉梓,宋曉寧,唐振民. 中國圖象圖形學(xué)報. 2015(01)
[6]基于圖優(yōu)化的同時定位與地圖創(chuàng)建綜述[J]. 梁明杰,閔華清,羅榮華. 機器人. 2013(04)
[7]基于改進ORB算法的遙感圖像自動配準(zhǔn)方法[J]. 張云生,鄒崢嶸. 國土資源遙感. 2013(03)
[8]移動機器人閉環(huán)檢測的視覺字典樹金字塔TF-IDF得分匹配方法[J]. 李博,楊丹,鄧林. 自動化學(xué)報. 2011(06)
[9]基于最大最小適應(yīng)度函數(shù)的多目標(biāo)粒子群算法[J]. 徐佳,李紹軍,王惠,錢鋒. 計算機與數(shù)字工程. 2006(08)
本文編號:3062633
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3062633.html
最近更新
教材專著