基于深度學習的視覺SLAM閉環(huán)檢測方法研究
發(fā)布時間:2021-11-28 13:54
視覺SLAM作為機器人移動和導航的關(guān)鍵技術(shù)之一,該技術(shù)有著非常廣闊的應用前景。而在攝像機視角、光照、氣候、地貌等條件的大幅度變化或者存在快速移動物體的復雜場景下,視覺SLAM還存在精確性、魯棒性和實時性較低問題,閉環(huán)檢測作為解決SLAM位姿漂移的重要環(huán)節(jié),本文針對閉環(huán)檢測的應用特性,提出改進Darknet53網(wǎng)絡損失函數(shù),構(gòu)造一個新的方法。最后為了進一步提升本方法的實時性,將該方法與二值化-自編碼器降維方法結(jié)合,已經(jīng)通過實驗證明了本方法的科學有效性和技術(shù)上的優(yōu)越性。本文的主要工作有以下兩個方面:(1)針對現(xiàn)有基于深度學習的閉環(huán)檢測方法提取的特征描述子區(qū)分度不足、維數(shù)過大的問題。對現(xiàn)有深度學習方法進行了深度分析,用時間和分類效果有著優(yōu)異表現(xiàn)的Darknet53網(wǎng)絡來代替?zhèn)鹘y(tǒng)閉環(huán)檢測方法進行特征提取,并從閉環(huán)檢測問題本身的特點出發(fā),對Darknet53網(wǎng)絡的損失函數(shù)進行改進,更好的表征閉環(huán)檢測中三重距離約束關(guān)系。對改進損失函數(shù)的Darknet53網(wǎng)絡重新進行訓練,構(gòu)造了一個新的閉環(huán)檢測方法。通過New College數(shù)據(jù)集和光照及角度變化更明顯的City Centre數(shù)據(jù)集這兩個公開閉環(huán)檢...
【文章來源】:天津理工大學天津市
【文章頁數(shù)】:60 頁
【學位級別】:碩士
【部分圖文】:
視覺SLAM系統(tǒng)結(jié)構(gòu)
天津理工大學碩士學位論文第二章視覺SLAM與深度學習基礎-9-圖2.1ORB特征點提取提取特征點后,下一步將通過特征匹配來得到相機位姿。視覺里程計的優(yōu)劣依賴于特征匹配的效果。常用的特征匹配算法有:暴力匹配[72]、FLANN匹配[73]、K-最近鄰匹配[74]等。第一種匹配方法是一種描述符匹配算法,該算法計算量大,耗時較長,很少在實際應用中使用[72]。FLANN算法是根據(jù)圖像本身選取最適合的算法來處理數(shù)據(jù)集,該方法速度快,且當來兩幅圖像,有一副圖像出現(xiàn)投影畸變時,仍可以相互匹配。K-最近鄰(knn)匹配是通過馬氏距離等距離度量方法計算訓練圖像和測試圖像中每個圖像的距離;將計算得到的距離值排序;選取前k個距離最近的樣本;最后通過給K個樣本的標簽投票,獲得最終的分類類別。特征匹配的結(jié)果如圖2.2所示。相機通過匹配的特征點就能找到幀間運動關(guān)系,進而得到相機的運動過程[72]。具體過程如下。圖2.2ORB特征匹配結(jié)果假設兩幀之間的運動為R,t,相機內(nèi)參為k,相機中心為DyDa,對應特征點為Py,Pa,那么,P的空間位置為如公式2.1所示。=[,,]TPXYZ(2.1)
天津理工大學碩士學位論文第二章視覺SLAM與深度學習基礎-9-圖2.1ORB特征點提取提取特征點后,下一步將通過特征匹配來得到相機位姿。視覺里程計的優(yōu)劣依賴于特征匹配的效果。常用的特征匹配算法有:暴力匹配[72]、FLANN匹配[73]、K-最近鄰匹配[74]等。第一種匹配方法是一種描述符匹配算法,該算法計算量大,耗時較長,很少在實際應用中使用[72]。FLANN算法是根據(jù)圖像本身選取最適合的算法來處理數(shù)據(jù)集,該方法速度快,且當來兩幅圖像,有一副圖像出現(xiàn)投影畸變時,仍可以相互匹配。K-最近鄰(knn)匹配是通過馬氏距離等距離度量方法計算訓練圖像和測試圖像中每個圖像的距離;將計算得到的距離值排序;選取前k個距離最近的樣本;最后通過給K個樣本的標簽投票,獲得最終的分類類別。特征匹配的結(jié)果如圖2.2所示。相機通過匹配的特征點就能找到幀間運動關(guān)系,進而得到相機的運動過程[72]。具體過程如下。圖2.2ORB特征匹配結(jié)果假設兩幀之間的運動為R,t,相機內(nèi)參為k,相機中心為DyDa,對應特征點為Py,Pa,那么,P的空間位置為如公式2.1所示。=[,,]TPXYZ(2.1)
【參考文獻】:
期刊論文
[1]AoA-ToA目標跟蹤的偏差補償卡爾曼濾波算法[J]. 林杰,齊望東,劉鵬,趙躍新. 信息與控制. 2020(06)
[2]面向深度學習的視覺問答技術(shù)的分析[J]. 王青青,郭星晨,王亞. 阜陽師范大學學報(自然科學版). 2020(04)
[3]移動機器人三維激光SLAM算法研究[J]. 歐陽仕晗,劉振宇,趙怡巍,秦圣然,劉瀟. 微處理機. 2020(05)
[4]基于非監(jiān)督深度學習的閉環(huán)檢測方法[J]. 汪丹,石朝俠,王燕清. 計算機科學. 2020(10)
[5]基于圖卷積網(wǎng)格自編碼器的網(wǎng)格參數(shù)化[J]. 高晨. 信息技術(shù)與網(wǎng)絡安全. 2020(10)
[6]視覺SLAM研究進展[J]. 王霞,左一凡. 智能系統(tǒng)學報. 2020(05)
[7]單機器人SLAM技術(shù)的發(fā)展及相關(guān)主流技術(shù)綜述[J]. 劉明芹,張曉光,徐桂云,李宗周. 計算機工程與應用. 2020(18)
[8]無人駕駛車輛視覺SLAM方法綜述[J]. 李希宇,仲首任,馬芳武. 汽車文摘. 2020(07)
[9]點線特征結(jié)合的視覺SLAM閉環(huán)檢測研究[J]. 胡慧娟,李偉,李昂松,韋慶玥. 計量與測試技術(shù). 2020(04)
[10]一種KD樹集成偏標記學習算法[J]. 盧勇全,劉振丙,顏振翔,方旭升. 桂林電子科技大學學報. 2019(06)
碩士論文
[1]基于自編碼器的圖像壓縮算法研究與FPGA實現(xiàn)[D]. 孟磊.西安理工大學 2020
[2]關(guān)于單目視覺實時定位與建圖中的優(yōu)化算法研究[D]. 李攀偉.中國科學院大學(中國科學院深圳先進技術(shù)研究院) 2020
[3]移動機器人基于柵格-八叉樹混合地圖的自主環(huán)境探索[D]. 吳桐.大連海事大學 2020
[4]基于視覺/激光的移動機器人定位與建圖研究[D]. 康璐.東南大學 2019
[5]基于語義樹的短文本相似度算法研究與應用[D]. 郭炳元.湘潭大學 2019
[6]基于單目視覺與慣導融合的SLAM技術(shù)研究[D]. 王雷.廣東工業(yè)大學 2019
[7]基于卷積神經(jīng)網(wǎng)絡的故障分類算法與應用[D]. 程誠.浙江理工大學 2019
[8]基于掃地機器人的SLAM算法研究與實現(xiàn)[D]. 劉智宇.西安電子科技大學 2019
[9]基于YOLO的雙目圖像匹配方法研究[D]. 牛馨苑.蘭州交通大學 2019
[10]基于深度置信網(wǎng)絡的路面裂縫識別算法研究[D]. 王磊.湖北工業(yè)大學 2018
本文編號:3524544
【文章來源】:天津理工大學天津市
【文章頁數(shù)】:60 頁
【學位級別】:碩士
【部分圖文】:
視覺SLAM系統(tǒng)結(jié)構(gòu)
天津理工大學碩士學位論文第二章視覺SLAM與深度學習基礎-9-圖2.1ORB特征點提取提取特征點后,下一步將通過特征匹配來得到相機位姿。視覺里程計的優(yōu)劣依賴于特征匹配的效果。常用的特征匹配算法有:暴力匹配[72]、FLANN匹配[73]、K-最近鄰匹配[74]等。第一種匹配方法是一種描述符匹配算法,該算法計算量大,耗時較長,很少在實際應用中使用[72]。FLANN算法是根據(jù)圖像本身選取最適合的算法來處理數(shù)據(jù)集,該方法速度快,且當來兩幅圖像,有一副圖像出現(xiàn)投影畸變時,仍可以相互匹配。K-最近鄰(knn)匹配是通過馬氏距離等距離度量方法計算訓練圖像和測試圖像中每個圖像的距離;將計算得到的距離值排序;選取前k個距離最近的樣本;最后通過給K個樣本的標簽投票,獲得最終的分類類別。特征匹配的結(jié)果如圖2.2所示。相機通過匹配的特征點就能找到幀間運動關(guān)系,進而得到相機的運動過程[72]。具體過程如下。圖2.2ORB特征匹配結(jié)果假設兩幀之間的運動為R,t,相機內(nèi)參為k,相機中心為DyDa,對應特征點為Py,Pa,那么,P的空間位置為如公式2.1所示。=[,,]TPXYZ(2.1)
天津理工大學碩士學位論文第二章視覺SLAM與深度學習基礎-9-圖2.1ORB特征點提取提取特征點后,下一步將通過特征匹配來得到相機位姿。視覺里程計的優(yōu)劣依賴于特征匹配的效果。常用的特征匹配算法有:暴力匹配[72]、FLANN匹配[73]、K-最近鄰匹配[74]等。第一種匹配方法是一種描述符匹配算法,該算法計算量大,耗時較長,很少在實際應用中使用[72]。FLANN算法是根據(jù)圖像本身選取最適合的算法來處理數(shù)據(jù)集,該方法速度快,且當來兩幅圖像,有一副圖像出現(xiàn)投影畸變時,仍可以相互匹配。K-最近鄰(knn)匹配是通過馬氏距離等距離度量方法計算訓練圖像和測試圖像中每個圖像的距離;將計算得到的距離值排序;選取前k個距離最近的樣本;最后通過給K個樣本的標簽投票,獲得最終的分類類別。特征匹配的結(jié)果如圖2.2所示。相機通過匹配的特征點就能找到幀間運動關(guān)系,進而得到相機的運動過程[72]。具體過程如下。圖2.2ORB特征匹配結(jié)果假設兩幀之間的運動為R,t,相機內(nèi)參為k,相機中心為DyDa,對應特征點為Py,Pa,那么,P的空間位置為如公式2.1所示。=[,,]TPXYZ(2.1)
【參考文獻】:
期刊論文
[1]AoA-ToA目標跟蹤的偏差補償卡爾曼濾波算法[J]. 林杰,齊望東,劉鵬,趙躍新. 信息與控制. 2020(06)
[2]面向深度學習的視覺問答技術(shù)的分析[J]. 王青青,郭星晨,王亞. 阜陽師范大學學報(自然科學版). 2020(04)
[3]移動機器人三維激光SLAM算法研究[J]. 歐陽仕晗,劉振宇,趙怡巍,秦圣然,劉瀟. 微處理機. 2020(05)
[4]基于非監(jiān)督深度學習的閉環(huán)檢測方法[J]. 汪丹,石朝俠,王燕清. 計算機科學. 2020(10)
[5]基于圖卷積網(wǎng)格自編碼器的網(wǎng)格參數(shù)化[J]. 高晨. 信息技術(shù)與網(wǎng)絡安全. 2020(10)
[6]視覺SLAM研究進展[J]. 王霞,左一凡. 智能系統(tǒng)學報. 2020(05)
[7]單機器人SLAM技術(shù)的發(fā)展及相關(guān)主流技術(shù)綜述[J]. 劉明芹,張曉光,徐桂云,李宗周. 計算機工程與應用. 2020(18)
[8]無人駕駛車輛視覺SLAM方法綜述[J]. 李希宇,仲首任,馬芳武. 汽車文摘. 2020(07)
[9]點線特征結(jié)合的視覺SLAM閉環(huán)檢測研究[J]. 胡慧娟,李偉,李昂松,韋慶玥. 計量與測試技術(shù). 2020(04)
[10]一種KD樹集成偏標記學習算法[J]. 盧勇全,劉振丙,顏振翔,方旭升. 桂林電子科技大學學報. 2019(06)
碩士論文
[1]基于自編碼器的圖像壓縮算法研究與FPGA實現(xiàn)[D]. 孟磊.西安理工大學 2020
[2]關(guān)于單目視覺實時定位與建圖中的優(yōu)化算法研究[D]. 李攀偉.中國科學院大學(中國科學院深圳先進技術(shù)研究院) 2020
[3]移動機器人基于柵格-八叉樹混合地圖的自主環(huán)境探索[D]. 吳桐.大連海事大學 2020
[4]基于視覺/激光的移動機器人定位與建圖研究[D]. 康璐.東南大學 2019
[5]基于語義樹的短文本相似度算法研究與應用[D]. 郭炳元.湘潭大學 2019
[6]基于單目視覺與慣導融合的SLAM技術(shù)研究[D]. 王雷.廣東工業(yè)大學 2019
[7]基于卷積神經(jīng)網(wǎng)絡的故障分類算法與應用[D]. 程誠.浙江理工大學 2019
[8]基于掃地機器人的SLAM算法研究與實現(xiàn)[D]. 劉智宇.西安電子科技大學 2019
[9]基于YOLO的雙目圖像匹配方法研究[D]. 牛馨苑.蘭州交通大學 2019
[10]基于深度置信網(wǎng)絡的路面裂縫識別算法研究[D]. 王磊.湖北工業(yè)大學 2018
本文編號:3524544
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3524544.html
最近更新
教材專著