多傳感器融合的無人機位姿跟蹤與路徑規(guī)劃
【學位單位】:浙江大學
【學位級別】:碩士
【學位年份】:2019
【中圖分類】:V279;V249;TP212
【部分圖文】:
并帶來極大的便利,智能無人機作為其中的一個重要方面,已經(jīng)逐步發(fā)展出了軍逡逑用級,工業(yè)級,消費級多層次的產(chǎn)品結(jié)構(gòu),為國家及社會的安全與便利提供了保逡逑障。具體的,如圖1.1所示,軍用領(lǐng)域的無人機更為注重飛行速度與打擊能力;逡逑農(nóng)林植保,線路巡檢所使用的無人機更傾向于在長時間滯空的情況下解決專業(yè)問逡逑題;而城市中的消費級無人機則需要解決在城市復(fù)雜的飛行條件下的精準定位與逡逑實施避障問題,并在此基礎(chǔ)上利用人臉識別、行為分析等技術(shù)完成與用戶的人機逡逑交互。逡逑EmuHH邋:逡逑圖1.1各領(lǐng)域的智能無人機逡逑無人機的靈活應(yīng)用與部署離不開精確的環(huán)境感知與位姿追蹤,迅速發(fā)展的傳逡逑感器科學為此提供了保障。對于戶外工作的軍民用中大型無人機而言,全球衛(wèi)星逡逑定位系統(tǒng)(Global邋Navigation邋Satellite邋System,邋GNSS)是無人機跟蹤定位的主要逡逑信息源,在此基礎(chǔ)上,結(jié)合可見光相機便可對環(huán)境進行充分感知。然而,這對于逡逑以城市環(huán)境為主要應(yīng)用場景的消費級無人機而言卻困難的多。由于城市內(nèi)建筑物逡逑繁多,遮擋嚴重,GNSS的定位數(shù)據(jù)不再絕對可靠。而且由于城市內(nèi)光
僅僅依靠可見光相機也顯得有些力不從心。近年來,隨著傳感器科學的逡逑發(fā)展,設(shè)備工藝水平的不斷提高,傳感器的高精度化、小型化、便攜化已成為大逡逑勢所趨(如圖1.2所示)�?蒲腥藛T開始聚焦于融合多傳感器信息進行環(huán)境感知逡逑以求獲得更為全面的環(huán)境感知數(shù)據(jù),在此基礎(chǔ)上利用即時定位與地圖構(gòu)建逡逑(SimultaneousLocalizationandMapping,SLAM)技術(shù)更好的跟蹤無人機、無人逡逑車等設(shè)備的位姿軌跡,保障運行安全。逡逑圖1.2邋MEMS傳感器與]6線激光雷達逡逑此外對于無人機而言,路徑規(guī)劃技術(shù)同樣是保證其靈活性與實用性的關(guān)鍵技逡逑術(shù)。無人機的路徑規(guī)劃技術(shù)是在三維環(huán)境中,綜合考慮環(huán)境威脅、無人機物理條逡逑件、飛行區(qū)域限制等諸多因素,為無人機規(guī)劃出最優(yōu)的全局路徑,亦或是最安全逡逑的局部飛行路徑,使無人機能夠避開各類危險,完成預(yù)定任務(wù)目標。與機器人、逡逑無人車等設(shè)備路徑規(guī)劃不同的是
并在優(yōu)化求解的同時不斷更新。作為第一個可以實時運行的SLAM系統(tǒng),逡逑MonoSLAM為視覺SLAM的發(fā)展做出了巨大貢獻,可以稱得上是里程碑式的工逡逑作。圖1.3是MonoSLAM運行時的截圖,其中左圖表示對圖像中的特征點進行逡逑追蹤,右圖表示觀測到的三維空間中的路標信息。這里,使用了橢球來表示路標逡逑的均值和不確定度。由于單目相機提取得到的深度信息并不準確,所以路標點在逡逑相機Z方向上不確定性較大。逡逑,/y逡逑圖1.3邋MonoSLAM效果展示逡逑此外,Klein,邋David等人提出了另一個重要的視覺SLAM系統(tǒng)框架PTAM逡逑(Parallel邋Tracking邋and邋Mapping邋)[16],這個框架是針對增強現(xiàn)實(Augmented邋Reality,逡逑AR)領(lǐng)域開發(fā),是SLAM技術(shù)與AR技術(shù)的第一次結(jié)合。PTAM第一次為SLAM逡逑系統(tǒng)引入了前后端的概念,同時提出了跟蹤與建圖過程的并行化,這一思路被后逡逑續(xù)SLAM廣泛采納。此外
【相似文獻】
相關(guān)期刊論文 前10條
1 肖權(quán);樂緒鑫;任巖;王瑞清;謝廣明;;基于軌跡生成法的機器魚位姿控制研究[J];機械設(shè)計;2013年08期
2 王雪松;郝名林;程玉虎;李明;;基于差分進化的并聯(lián)機器人位姿正解[J];中國礦業(yè)大學學報;2008年05期
3 劉寶華;曹海龍;周偉科;;汽車電動座椅出廠位姿調(diào)整方法研究[J];工程設(shè)計學報;2018年05期
4 王一;趙進進;金爽;張ng濤;;基于錐孔靶標的機器人末端位姿間接測量方法[J];中國測試;2017年03期
5 梁書立;馮渭春;;空間機械手末端位姿修正模型構(gòu)建方法[J];工業(yè)儀表與自動化裝置;2017年03期
6 嚴國全;張學鋒;余利;李博;葉蔭球;;乒乓球機器人球拍位姿的確定[J];工業(yè)控制計算機;2013年04期
7 沙晶晶;陳志平;施滸立;呂興榮;;基于懸絲機構(gòu)的目標飛行物位姿解算分析與實現(xiàn)[J];機械科學與技術(shù);2007年06期
8 尚洋;孫曉亮;張躍強;李由;于起峰;;三維目標位姿跟蹤與模型修正[J];測繪學報;2018年06期
9 陳欠根;高尚康;趙喻明;沈東羽;;挖掘機器人負載工況下的力與位姿控制[J];合肥工業(yè)大學學報(自然科學版);2016年11期
10 汪啟躍;王中宇;;基于單目視覺的航天器位姿測量[J];應(yīng)用光學;2017年02期
相關(guān)會議論文 前10條
1 沙晶晶;陳志平;施滸立;呂興榮;;基于懸絲機構(gòu)的目標飛行物位姿解算分析與實現(xiàn)[A];2005年機械電子學學術(shù)會議論文集[C];2005年
2 劉玉;陳鳳;王盈;黃建明;魏祥泉;;基于激光雷達的航天器相對位姿測量技術(shù)研究[A];國防光電子論壇第二屆激光雷達成像探測技術(shù)及應(yīng)用研討會論文集[C];2015年
3 吳勇;郝礦榮;丁永生;張淑平;;基于視覺位姿的機器人測速系統(tǒng)[A];第三屆中國智能計算大會論文集[C];2009年
4 田原;;基于機器視覺的空間位姿檢測系統(tǒng)性能改進的研究[A];第22屆全國煤礦自動化與信息化學術(shù)會議暨第4屆中國煤礦信息化與自動化高層論壇論文集[C];2012年
5 郝穎明;朱楓;;視覺位姿測量中的點狀目標中心自適應(yīng)定位方法[A];中國儀器儀表學會第九屆青年學術(shù)會議論文集[C];2007年
6 葉榛;項安波;陶品;朱紹文;;基于PSD的動態(tài)位姿檢測技術(shù)[A];1998年中國智能自動化學術(shù)會議論文集(下冊)[C];1998年
7 劉璽;方勇純;張雪波;;基于單應(yīng)矩陣的位姿估計方法及應(yīng)用[A];第二十七屆中國控制會議論文集[C];2008年
8 鮑官軍;張立彬;楊慶華;計時鳴;;氣動柔性球關(guān)節(jié)的位姿測量系統(tǒng)研究[A];第二屆全國信息獲取與處理學術(shù)會議論文集[C];2004年
9 王逍;師鵬;溫昶煊;趙育善;;非合作目標近距離�?康淖赃m應(yīng)位姿聯(lián)合控制[A];第36屆中國控制會議論文集(C)[C];2017年
10 熊凱;魏春嶺;;基于自適應(yīng)極大后驗估計的航天器相對位姿確定[A];第36屆中國控制會議論文集(D)[C];2017年
相關(guān)重要報紙文章 前2條
1 本報記者 鹿慰;“機器人”進駐掘進面[N];中國煤炭報;2013年
2 趙瓊;不同藥物喝水有別[N];醫(yī)藥養(yǎng)生保健報;2004年
相關(guān)博士學位論文 前10條
1 趙麗科;單目視覺的剛體運動目標位姿測量方法研究[D];武漢大學;2018年
2 彭鍵清;空間翻滾目標的位姿測量及其雙臂捕獲機器人的軌跡規(guī)劃[D];哈爾濱工業(yè)大學;2018年
3 尚軻;高軌非合作慢旋失穩(wěn)空間目標位姿測量方法研究[D];華中科技大學;2018年
4 張霖;液壓支架自主跟機關(guān)鍵技術(shù)研究[D];中國礦業(yè)大學;2017年
5 趙金濤;顯微CT系統(tǒng)標定關(guān)鍵技術(shù)的研究[D];天津大學;2017年
6 朱笑叢;氣動肌肉并聯(lián)關(guān)節(jié)高精度位姿控制研究[D];浙江大學;2007年
7 陶云飛;掘進機位姿激光自動測量方法及系統(tǒng)研究[D];中國礦業(yè)大學(北京);2017年
8 楊博文;大型裝備裝配位姿視覺檢測的關(guān)鍵技術(shù)研究[D];南京航空航天大學;2013年
9 夏軍營;空間目標的單目視覺位姿測量方法研究[D];國防科學技術(shù)大學;2012年
10 趙振慶;大視距非合作目標視覺位姿測量系統(tǒng)關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學;2016年
相關(guān)碩士學位論文 前10條
1 豐意;艙段對接位姿擬合解算與軌跡規(guī)劃技術(shù)仿真研究[D];華中科技大學;2018年
2 楊嘉珩;多傳感器融合的無人機位姿跟蹤與路徑規(guī)劃[D];浙江大學;2019年
3 高佳;基于單目視覺無人機降落位姿檢測估計算法的研究[D];廣西師范大學;2018年
4 羅旭;基于激光輪廓掃描的艙段法蘭相對位姿測量方法研究[D];哈爾濱工業(yè)大學;2018年
5 馬云超;火星車低重力模擬中單目視覺位姿測量技術(shù)研究[D];哈爾濱工業(yè)大學;2018年
6 胡連軍;基于機器人手眼視覺的目標位姿測量方法研究[D];華北理工大學;2018年
7 呂剛;六自由度工業(yè)機器人鉆孔位姿研究[D];哈爾濱理工大學;2018年
8 鄭紅杰;基于視覺的手術(shù)機器人腹腔鏡位姿自動調(diào)節(jié)方法研究[D];哈爾濱工程大學;2018年
9 侯誼;室內(nèi)場景的語義地圖建立[D];哈爾濱工業(yè)大學;2018年
10 韓旺;六自由度位姿測量系統(tǒng)研究[D];西安電子科技大學;2018年
本文編號:2822045
本文鏈接:http://sikaile.net/kejilunwen/hangkongsky/2822045.html