基于計算機視覺的無人飛行器位姿估計方法研究
發(fā)布時間:2021-07-22 18:52
近年來,無人飛行器已經(jīng)在農(nóng)業(yè)植保、災(zāi)難搜救、電影制作、低空監(jiān)測等多個領(lǐng)域廣泛應(yīng)用。在這些應(yīng)用中,無人飛行器的自主導(dǎo)航是關(guān)鍵技術(shù),實現(xiàn)無人飛行器自主導(dǎo)航的傳統(tǒng)方法是結(jié)合慣性導(dǎo)航和衛(wèi)星導(dǎo)航。隨著計算機視覺技術(shù)的快速發(fā)展,基于計算機視覺的導(dǎo)航技術(shù)趨于成熟,在傳統(tǒng)導(dǎo)航方法失效的情況下,基于計算機視覺的導(dǎo)航技術(shù)可以起到很好的補充作用。其中無人飛行器位姿信息的獲取是無人飛行器實現(xiàn)避障、路徑規(guī)劃和巡航等導(dǎo)航功能的前提和基礎(chǔ)。在上述背景下,本文主要研究基于計算機視覺的無人飛行器位姿估計方法。針對單目視覺初始位姿的估計問題,本文對SVO中使用的光流跟蹤+單應(yīng)矩陣估計方法進行了改進,使用光流跟蹤+單應(yīng)矩陣/基礎(chǔ)矩陣估計方法對初始位姿進行估計。通過檢測光流跟蹤的特征點的視差,自動選擇初始化圖像幀,根據(jù)匹配的特征點,同時計算單應(yīng)矩陣模型和基礎(chǔ)矩陣模型,通過評分從兩個模型中選擇最好的模型來求解圖像幀間的相對運動。實驗結(jié)果表明,與SVO中使用的光流跟蹤+單應(yīng)矩陣估計方法相比,本文改進的單目視覺初始位姿估計方法具有較好的魯棒性和較小的初始姿態(tài)估計誤差。針對單目視覺里程計中位姿估計問題,本文在SVO半直接法單目視覺里...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
FAST和ORB特征提取效果對比
一路標點的特征點。第一種方法適用于像機運動較小導(dǎo)致視角變化較小的場合,而第二種方法則適用于像機運動較大導(dǎo)致視角變化大的場合。根據(jù)相似性進行特征匹配的方法存在以下三個問題:一、特征點描述子相似性所使用的度量方法;二、特征點匹配成功的判定方法;三、誤匹配的處理方式。以 ORB 特征匹配為例,通過計算漢明距離:兩個相同長度字符所對應(yīng)位置不同的個數(shù),來度量兩個描述子的相似度。匹配成功的判定方法主要有三種:一、根據(jù)相似度閾值進行判定,滿足閾值的描述子的漢明距離最小的特征點相對應(yīng);二、最近鄰匹配,找到與該特征點在另一圖像幀上位置最近的特征點,如果這兩個特征點的描述子滿足相似度閾值的條件下,則這兩個特征點具有對應(yīng)關(guān)系;三、相似度最近值與次近值的比率閾值判定法。在 Opencv 中有兩種特征點的數(shù)據(jù)關(guān)聯(lián)方式,分別是暴力匹配以及 FLANN(Fast Library forApproximateNearest Neighbors)匹配。暴力匹配是將兩個圖像幀中關(guān)鍵點的描述子一一對比,相似度最大的兩個描述子即為最優(yōu)匹配。FLANN 使用快速近似最近鄰算法進行搜索匹配,雖然匹配準確率沒有暴力匹配的高,但是 FLANN 匹配可以保證一定匹配正確率的情況下,進行快速匹配,可用于實時性要求高的場合。對 ORB特征進行暴力匹配,并對誤匹配進行剔除后的匹配效果如圖 2-2 所示:
c) 圖像幀 3 d) 圖像幀 4圖 2-3 光流跟蹤效果2.3 基于視覺的位姿估計方法對 SLAM 進行建模,可以表示成一個運動方程和觀測方程: (2-21)第一個方程為運動方程,對于視覺 SLAM 來說, 是 時刻的像機位姿,一般由 3 個位置變量 ①和 3 個姿態(tài)角變量 ①組成,可以使用變換矩陣或李代數(shù)表示它。第二個方程為觀測方程,在視覺 SLAM 中,則是具體的針孔模型的投影函數(shù)。針孔模型是像機將真實世界中的三維路標點投影到圖像二維平面上,真實世界中的三維路標點通過成像模型投影為圖像序列中的特征,在匹配特征后,就可以通過特征點的關(guān)聯(lián)關(guān)系估計像機的運動;也可以通過直接法求解,即直接使用圖像像素點的光度信息,求解像機的位姿。
【參考文獻】:
期刊論文
[1]基于單目視覺的同時定位與地圖構(gòu)建方法綜述[J]. 劉浩敏,章國鋒,鮑虎軍. 計算機輔助設(shè)計與圖形學(xué)學(xué)報. 2016(06)
[2]單目視覺同步定位與地圖創(chuàng)建方法綜述[J]. 顧照鵬,劉宏. 智能系統(tǒng)學(xué)報. 2015(04)
[3]無人機在電力線路巡視中的應(yīng)用[J]. 湯明文,戴禮豪,林朝輝,王芳東,宋福根. 中國電力. 2013(03)
[4]一種移動機器人SLAM中的多假設(shè)數(shù)據(jù)關(guān)聯(lián)方法[J]. 陳白帆,蔡自興,鄒智榮. 中南大學(xué)學(xué)報(自然科學(xué)版). 2012(02)
[5]基于單目視覺的SLAM算法研究[J]. 溫豐,柴曉杰,朱智平,董小明,鄒偉,原魁. 系統(tǒng)科學(xué)與數(shù)學(xué). 2010(06)
碩士論文
[1]基于Kinect的視覺同步定位與建圖研究[D]. 徐冬云.哈爾濱工業(yè)大學(xué) 2016
[2]基于g2o的SLAM后端優(yōu)化算法研究[D]. 張彥珍.西安電子科技大學(xué) 2014
本文編號:3297704
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
FAST和ORB特征提取效果對比
一路標點的特征點。第一種方法適用于像機運動較小導(dǎo)致視角變化較小的場合,而第二種方法則適用于像機運動較大導(dǎo)致視角變化大的場合。根據(jù)相似性進行特征匹配的方法存在以下三個問題:一、特征點描述子相似性所使用的度量方法;二、特征點匹配成功的判定方法;三、誤匹配的處理方式。以 ORB 特征匹配為例,通過計算漢明距離:兩個相同長度字符所對應(yīng)位置不同的個數(shù),來度量兩個描述子的相似度。匹配成功的判定方法主要有三種:一、根據(jù)相似度閾值進行判定,滿足閾值的描述子的漢明距離最小的特征點相對應(yīng);二、最近鄰匹配,找到與該特征點在另一圖像幀上位置最近的特征點,如果這兩個特征點的描述子滿足相似度閾值的條件下,則這兩個特征點具有對應(yīng)關(guān)系;三、相似度最近值與次近值的比率閾值判定法。在 Opencv 中有兩種特征點的數(shù)據(jù)關(guān)聯(lián)方式,分別是暴力匹配以及 FLANN(Fast Library forApproximateNearest Neighbors)匹配。暴力匹配是將兩個圖像幀中關(guān)鍵點的描述子一一對比,相似度最大的兩個描述子即為最優(yōu)匹配。FLANN 使用快速近似最近鄰算法進行搜索匹配,雖然匹配準確率沒有暴力匹配的高,但是 FLANN 匹配可以保證一定匹配正確率的情況下,進行快速匹配,可用于實時性要求高的場合。對 ORB特征進行暴力匹配,并對誤匹配進行剔除后的匹配效果如圖 2-2 所示:
c) 圖像幀 3 d) 圖像幀 4圖 2-3 光流跟蹤效果2.3 基于視覺的位姿估計方法對 SLAM 進行建模,可以表示成一個運動方程和觀測方程: (2-21)第一個方程為運動方程,對于視覺 SLAM 來說, 是 時刻的像機位姿,一般由 3 個位置變量 ①和 3 個姿態(tài)角變量 ①組成,可以使用變換矩陣或李代數(shù)表示它。第二個方程為觀測方程,在視覺 SLAM 中,則是具體的針孔模型的投影函數(shù)。針孔模型是像機將真實世界中的三維路標點投影到圖像二維平面上,真實世界中的三維路標點通過成像模型投影為圖像序列中的特征,在匹配特征后,就可以通過特征點的關(guān)聯(lián)關(guān)系估計像機的運動;也可以通過直接法求解,即直接使用圖像像素點的光度信息,求解像機的位姿。
【參考文獻】:
期刊論文
[1]基于單目視覺的同時定位與地圖構(gòu)建方法綜述[J]. 劉浩敏,章國鋒,鮑虎軍. 計算機輔助設(shè)計與圖形學(xué)學(xué)報. 2016(06)
[2]單目視覺同步定位與地圖創(chuàng)建方法綜述[J]. 顧照鵬,劉宏. 智能系統(tǒng)學(xué)報. 2015(04)
[3]無人機在電力線路巡視中的應(yīng)用[J]. 湯明文,戴禮豪,林朝輝,王芳東,宋福根. 中國電力. 2013(03)
[4]一種移動機器人SLAM中的多假設(shè)數(shù)據(jù)關(guān)聯(lián)方法[J]. 陳白帆,蔡自興,鄒智榮. 中南大學(xué)學(xué)報(自然科學(xué)版). 2012(02)
[5]基于單目視覺的SLAM算法研究[J]. 溫豐,柴曉杰,朱智平,董小明,鄒偉,原魁. 系統(tǒng)科學(xué)與數(shù)學(xué). 2010(06)
碩士論文
[1]基于Kinect的視覺同步定位與建圖研究[D]. 徐冬云.哈爾濱工業(yè)大學(xué) 2016
[2]基于g2o的SLAM后端優(yōu)化算法研究[D]. 張彥珍.西安電子科技大學(xué) 2014
本文編號:3297704
本文鏈接:http://sikaile.net/kejilunwen/hangkongsky/3297704.html
最近更新
教材專著