基于視覺與IMU融合的林冠下無人機SLAM技術研究
發(fā)布時間:2020-09-05 07:18
無人機遙感監(jiān)測具有實時、精細、遠程等優(yōu)勢,是現代林業(yè)信息監(jiān)測的重要方式,并在林冠上監(jiān)測得到了廣泛應用。而林冠下也蘊藏著豐富的林區(qū)環(huán)境信息,因此對林冠下進行信息監(jiān)測也尤為重要。林冠上的環(huán)境較為空曠可以很好的接收GNSS信號,但林冠下環(huán)境由于樹冠遮擋在監(jiān)測時面臨著GNSS信號缺失的問題。為解決無人機林冠下監(jiān)測由于信號缺失導致無法自主定位導航的問題,本文提出了基于RGB-D相機和慣性測量單元進行傳感器信息融合的方法,實現四旋翼無人機在林冠下復雜環(huán)境中的地圖構建與無人機定位。本文完成的主要工作如下:(1)建立四旋翼無人機數學模型。根據四旋翼無人機的飛行原理,分析無人機的模型參數,采用牛頓歐拉法分析四旋翼無人機的動力學模型,建立四旋翼無人機的系統(tǒng)狀態(tài)方程,并進行了 PID控制器的設計。(2)研究圖像的特征點提取與匹配的方法。首先利用RGB-D相機可以高效獲取圖像中路標深度信息的特點,完成圖像信息獲取。然后利用ORB特征點進行所獲取圖像特征點的提取與匹配。最后在特征匹配后端改進了 RANSAC算法,并進行了誤匹配點的篩除工作,在滿足實時性要求的情況下,對特征點匹配的精確度進行了提高。(3)提出一套RGB-D相機與IMU融合定位系統(tǒng)方案。利用IMU預積分理論以及緊耦合視覺慣性融合方法對圖像提取的關鍵幀進行位姿估計;采取幀間滑窗法的非線性優(yōu)化方法進行IMU與視覺的信息融合。最后針對林冠下環(huán)境中無人機執(zhí)行飛行監(jiān)測任務時的實際需求,搭建了基于RGB-D視覺與IMU慣性信息融合的四旋翼無人機SLAM系統(tǒng)平臺,并開展無人機林冠下定位與地圖構建的平臺實驗,實驗結果表明本文算法相較于ORBSLAM算法精度高、魯棒性好,可以完成無人機在林冠下的定位和地圖構建。
【學位單位】:北京林業(yè)大學
【學位級別】:碩士
【學位年份】:2019
【中圖分類】:S771.8
【部分圖文】:
nectusonewcome,za,et邋a,一-統(tǒng),該系統(tǒng)將原始的深度數據用于計算稠密的頂點圖和法向圖金字塔,使用迭代最近逡逑算法(Iterative邋Closest邋Point,邋ICP)跟蹤相機姿態(tài)(Rusinkiewicz邋S,邋Levoy邋M,2002)。逡逑該算法需要借助GPU工具實現以滿足實時性,對硬件設備要求較高,并無閉環(huán)檢逡逑測環(huán)節(jié)、算法精確度不高、地圖位姿易產生漂移。在2014年,Endres等人在此基礎逡逑上開發(fā)出了一套基于特征的RGB-D邋SLAM系統(tǒng)(Endres邋F,邋Sprunk邋C,et邋al,2014),其逡逑前端通過特征匹配并利用隨機抽樣一致性(Chum邋O,邋Matas邋J,et邋al,2003)的方法減小了逡逑匹配誤差,然后利用ICP算法計算幀到幀運動,后端通過閉環(huán)約束來執(zhí)行姿態(tài)圖優(yōu)逡逑化。雖然和之前方法比較有所進步,但在地圖構建的實時性、精度與漂移問題處理方逡逑面仍需改善。逡逑2015邋年,Mur-Artal邋等人提出了邋ORB邋SLAM邋方案(Mur-Artal邋R,Monticl邋J邋M邋M,ct逡逑al,2015),算法的視覺里程計前端部分利用ORB特征提取圖像信息,利用特征點進行逡逑地標點跟蹤,后端采用圖優(yōu)化,同時在回環(huán)部分采用詞袋(Bag-of-Words)模型,在逡逑CPU可以進行實時計算。2017年算法擴展成為ORB邋SLAM2邋(Mur-Artal邋R,Tard6s邋J逡逑D,2017),改進的方案添加了雙目相機和RGB-D相機的實現方案,下面是RGBD相逡逑機進行ORB邋SLAM2方案的流程圖。逡逑
圖2.1四旋翼無人機動力結構圖逡逑Figure2.丨邋Four-rotor邋UAV邋power邋structure逡逑四旋翼無人機的動力結構如圖2.1所示。四旋翼無人機的升力由四個轉子帶動旋逡逑槳產生,通過改變四個轉子的相對速度可以實現對于飛行器的控制(王亭亭,蔡志浩逡逑等2018)。當旋槳產生垂直于旋槳平面的推力T和繞X和Y軸的力矩M,旋槳的反逡逑轉獲得繞Z軸的力矩。前后轉子逆時針旋轉,左右轉子順時針旋轉,消除了平衡飛行逡逑中的陀螺效應和空氣動力學扭矩。逡逑通過同時增大或者減小四個螺旋槳的速度可以調節(jié)無人機的爬升和下降;通過再逡逑使兩對轉子之間產生角速度差可以實現偏轉(產生反作用力矩);通過改變一對轉子逡逑的相對螺旋槳速度使得無人機傾斜,可以實現圍繞縱軸(俯仰)和橫軸(滾轉)的旋逡逑轉,實現水平運動。逡逑10逡逑
2.2四旋翼無人機坐標系逡逑假設無人機機身滿足剛性假設,同時所有螺旋槳都在同一水平面上,四旋
本文編號:2812724
【學位單位】:北京林業(yè)大學
【學位級別】:碩士
【學位年份】:2019
【中圖分類】:S771.8
【部分圖文】:
nectusonewcome,za,et邋a,一-統(tǒng),該系統(tǒng)將原始的深度數據用于計算稠密的頂點圖和法向圖金字塔,使用迭代最近逡逑算法(Iterative邋Closest邋Point,邋ICP)跟蹤相機姿態(tài)(Rusinkiewicz邋S,邋Levoy邋M,2002)。逡逑該算法需要借助GPU工具實現以滿足實時性,對硬件設備要求較高,并無閉環(huán)檢逡逑測環(huán)節(jié)、算法精確度不高、地圖位姿易產生漂移。在2014年,Endres等人在此基礎逡逑上開發(fā)出了一套基于特征的RGB-D邋SLAM系統(tǒng)(Endres邋F,邋Sprunk邋C,et邋al,2014),其逡逑前端通過特征匹配并利用隨機抽樣一致性(Chum邋O,邋Matas邋J,et邋al,2003)的方法減小了逡逑匹配誤差,然后利用ICP算法計算幀到幀運動,后端通過閉環(huán)約束來執(zhí)行姿態(tài)圖優(yōu)逡逑化。雖然和之前方法比較有所進步,但在地圖構建的實時性、精度與漂移問題處理方逡逑面仍需改善。逡逑2015邋年,Mur-Artal邋等人提出了邋ORB邋SLAM邋方案(Mur-Artal邋R,Monticl邋J邋M邋M,ct逡逑al,2015),算法的視覺里程計前端部分利用ORB特征提取圖像信息,利用特征點進行逡逑地標點跟蹤,后端采用圖優(yōu)化,同時在回環(huán)部分采用詞袋(Bag-of-Words)模型,在逡逑CPU可以進行實時計算。2017年算法擴展成為ORB邋SLAM2邋(Mur-Artal邋R,Tard6s邋J逡逑D,2017),改進的方案添加了雙目相機和RGB-D相機的實現方案,下面是RGBD相逡逑機進行ORB邋SLAM2方案的流程圖。逡逑
圖2.1四旋翼無人機動力結構圖逡逑Figure2.丨邋Four-rotor邋UAV邋power邋structure逡逑四旋翼無人機的動力結構如圖2.1所示。四旋翼無人機的升力由四個轉子帶動旋逡逑槳產生,通過改變四個轉子的相對速度可以實現對于飛行器的控制(王亭亭,蔡志浩逡逑等2018)。當旋槳產生垂直于旋槳平面的推力T和繞X和Y軸的力矩M,旋槳的反逡逑轉獲得繞Z軸的力矩。前后轉子逆時針旋轉,左右轉子順時針旋轉,消除了平衡飛行逡逑中的陀螺效應和空氣動力學扭矩。逡逑通過同時增大或者減小四個螺旋槳的速度可以調節(jié)無人機的爬升和下降;通過再逡逑使兩對轉子之間產生角速度差可以實現偏轉(產生反作用力矩);通過改變一對轉子逡逑的相對螺旋槳速度使得無人機傾斜,可以實現圍繞縱軸(俯仰)和橫軸(滾轉)的旋逡逑轉,實現水平運動。逡逑10逡逑
2.2四旋翼無人機坐標系逡逑假設無人機機身滿足剛性假設,同時所有螺旋槳都在同一水平面上,四旋
本文編號:2812724
本文鏈接:http://sikaile.net/nykjlw/lylw/2812724.html
最近更新
教材專著