基于哈希檢索與路標(biāo)篩選的視覺SLAM地點(diǎn)識(shí)別研究
發(fā)布時(shí)間:2021-10-08 03:48
地點(diǎn)識(shí)別是判斷移動(dòng)機(jī)器人是否到達(dá)先前經(jīng)過的場(chǎng)景,常被應(yīng)用在視覺SLAM的回環(huán)檢測(cè)優(yōu)化環(huán)節(jié)。隨著視覺傳感器在移動(dòng)機(jī)器人中的廣泛應(yīng)用,復(fù)雜場(chǎng)景下的視覺地點(diǎn)識(shí)別是一個(gè)長(zhǎng)期未解決的具有挑戰(zhàn)性的問題,挑戰(zhàn)主要來(lái)自兩個(gè)方面,第一,由光照、季節(jié)、天氣等發(fā)生劇烈變化造成的圖像外觀變化,第二,由相機(jī)拍攝角度不同造成的圖像視角變化。利用基于卷積神經(jīng)網(wǎng)絡(luò)路標(biāo)的描述方式來(lái)進(jìn)行圖像路標(biāo)之間的匹配,已取得了一定的效果。但仍由于低效率的路標(biāo)檢索機(jī)制和圖像中存在大量的動(dòng)態(tài)路標(biāo)作為對(duì)圖像的描述而導(dǎo)致誤匹配、弱匹配、識(shí)別實(shí)時(shí)性差的問題。據(jù)此,本文利用Mutip Cp LSH算法和動(dòng)態(tài)路標(biāo)篩選對(duì)基于卷積神經(jīng)網(wǎng)絡(luò)路標(biāo)的視覺地點(diǎn)識(shí)別算法進(jìn)行改進(jìn),本文詳細(xì)內(nèi)容如下:(1)介紹一種基于卷積神經(jīng)網(wǎng)絡(luò)路標(biāo)的視覺地點(diǎn)識(shí)別技術(shù),詳細(xì)分析了該技術(shù)的優(yōu)缺點(diǎn)。(2)提出一種基于哈希檢索的視覺地點(diǎn)識(shí)別技術(shù),利用一種近似最近鄰搜索的Mutip Cp LSH算法替換雙向最近鄰搜索將視覺地點(diǎn)識(shí)別系統(tǒng)分為離線和在線兩個(gè)部分。離線構(gòu)建哈希表與查詢表來(lái)存儲(chǔ)參考圖像集中的路標(biāo)特征,在線檢索查詢圖像路標(biāo)在哈希表與查詢表中的全局最優(yōu)解。最后在三個(gè)具有挑戰(zhàn)性的數(shù)據(jù)集...
【文章來(lái)源】:杭州電子科技大學(xué)浙江省
【文章頁(yè)數(shù)】:65 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
視覺SLAM框架
回環(huán)檢測(cè)前后結(jié)果
杭州電子科技大學(xué)碩士學(xué)位論文9件之一,都會(huì)被檢測(cè)出來(lái)。圖2.1通用對(duì)象估計(jì)提取候選框?qū)τ谝粡垐D像,通用對(duì)象估計(jì)方法可以在圖像中提取一系列的候選框,針對(duì)每個(gè)候選框都有響應(yīng)的評(píng)分,評(píng)分代表著候選框中包含任意物體的概率。如圖2.1所示,圖像中包含紅色和青色候選框,紅色的候選框表示評(píng)分最高,就是該候選框內(nèi)包含任何物體的概率最大。青色的候選框評(píng)分最低,通常該候選框內(nèi)包含的是一些樹木、天空等背景信息。候選框只表示在該框內(nèi)是否包含物體,但是至于具體是什么物體并不進(jìn)行檢測(cè)。接下來(lái)介紹在視覺地點(diǎn)識(shí)別系統(tǒng)中最常用的一種通用對(duì)象估計(jì)方法來(lái)進(jìn)行圖像路標(biāo)的提齲2.1.2EdgeBoxes算法Edgeboxes算法是視覺地點(diǎn)識(shí)別系統(tǒng)中最常用的路標(biāo)提取算法,EdgeBoxes算法是利用圖像邊緣信息生成候選框并且具有高計(jì)算效率的目標(biāo)檢測(cè)算法,邊緣信息提供了圖像中豐富的稀疏信息。由于圖像中可能存在大量的候選框,EdgeBoxes算法提供了有效的候選框評(píng)分機(jī)制,選取評(píng)分高的候選框作為對(duì)圖像的描述。候選框評(píng)分是利用文獻(xiàn)[57][58]中提出的快速、公開的結(jié)構(gòu)化邊緣檢測(cè)器來(lái)獲得初始邊緣圖,為了提高后續(xù)計(jì)算效率,將相似方向的相鄰邊緣像素聚集在一起形成邊緣組,通過計(jì)算邊緣組之間的相對(duì)位置和方向來(lái)計(jì)算邊緣組之間的相似度。因此,對(duì)于形成長(zhǎng)連續(xù)輪廓邊緣組之間具有較高的相似度,一個(gè)候選框的得分就是通過將候選框內(nèi)所有邊緣組的邊緣強(qiáng)度加起來(lái),減去跨越候選框邊界的輪廓的邊緣組強(qiáng)度來(lái)計(jì)算的。如圖2.2為EdgeBoxes算法的詳細(xì)流程圖。
【參考文獻(xiàn)】:
碩士論文
[1]室內(nèi)復(fù)雜環(huán)境下基于閉環(huán)檢測(cè)技術(shù)優(yōu)化的SLAM算法研究[D]. 吳奇.北京郵電大學(xué) 2019
[2]應(yīng)用于移動(dòng)機(jī)器人視覺SLAM的地點(diǎn)識(shí)別研究[D]. 劉威.杭州電子科技大學(xué) 2019
[3]面向動(dòng)態(tài)環(huán)境的移動(dòng)機(jī)器人視覺SLAM算法研究[D]. 王志昊.北京郵電大學(xué) 2018
[4]基于通用對(duì)象估計(jì)的目標(biāo)檢測(cè)與模糊車牌識(shí)別算法研究[D]. 趙丹鳳.南京郵電大學(xué) 2016
[5]基于卷積神經(jīng)網(wǎng)絡(luò)的場(chǎng)景理解方法研究[D]. 吳裔慧.清華大學(xué) 2015
本文編號(hào):3423373
【文章來(lái)源】:杭州電子科技大學(xué)浙江省
【文章頁(yè)數(shù)】:65 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
視覺SLAM框架
回環(huán)檢測(cè)前后結(jié)果
杭州電子科技大學(xué)碩士學(xué)位論文9件之一,都會(huì)被檢測(cè)出來(lái)。圖2.1通用對(duì)象估計(jì)提取候選框?qū)τ谝粡垐D像,通用對(duì)象估計(jì)方法可以在圖像中提取一系列的候選框,針對(duì)每個(gè)候選框都有響應(yīng)的評(píng)分,評(píng)分代表著候選框中包含任意物體的概率。如圖2.1所示,圖像中包含紅色和青色候選框,紅色的候選框表示評(píng)分最高,就是該候選框內(nèi)包含任何物體的概率最大。青色的候選框評(píng)分最低,通常該候選框內(nèi)包含的是一些樹木、天空等背景信息。候選框只表示在該框內(nèi)是否包含物體,但是至于具體是什么物體并不進(jìn)行檢測(cè)。接下來(lái)介紹在視覺地點(diǎn)識(shí)別系統(tǒng)中最常用的一種通用對(duì)象估計(jì)方法來(lái)進(jìn)行圖像路標(biāo)的提齲2.1.2EdgeBoxes算法Edgeboxes算法是視覺地點(diǎn)識(shí)別系統(tǒng)中最常用的路標(biāo)提取算法,EdgeBoxes算法是利用圖像邊緣信息生成候選框并且具有高計(jì)算效率的目標(biāo)檢測(cè)算法,邊緣信息提供了圖像中豐富的稀疏信息。由于圖像中可能存在大量的候選框,EdgeBoxes算法提供了有效的候選框評(píng)分機(jī)制,選取評(píng)分高的候選框作為對(duì)圖像的描述。候選框評(píng)分是利用文獻(xiàn)[57][58]中提出的快速、公開的結(jié)構(gòu)化邊緣檢測(cè)器來(lái)獲得初始邊緣圖,為了提高后續(xù)計(jì)算效率,將相似方向的相鄰邊緣像素聚集在一起形成邊緣組,通過計(jì)算邊緣組之間的相對(duì)位置和方向來(lái)計(jì)算邊緣組之間的相似度。因此,對(duì)于形成長(zhǎng)連續(xù)輪廓邊緣組之間具有較高的相似度,一個(gè)候選框的得分就是通過將候選框內(nèi)所有邊緣組的邊緣強(qiáng)度加起來(lái),減去跨越候選框邊界的輪廓的邊緣組強(qiáng)度來(lái)計(jì)算的。如圖2.2為EdgeBoxes算法的詳細(xì)流程圖。
【參考文獻(xiàn)】:
碩士論文
[1]室內(nèi)復(fù)雜環(huán)境下基于閉環(huán)檢測(cè)技術(shù)優(yōu)化的SLAM算法研究[D]. 吳奇.北京郵電大學(xué) 2019
[2]應(yīng)用于移動(dòng)機(jī)器人視覺SLAM的地點(diǎn)識(shí)別研究[D]. 劉威.杭州電子科技大學(xué) 2019
[3]面向動(dòng)態(tài)環(huán)境的移動(dòng)機(jī)器人視覺SLAM算法研究[D]. 王志昊.北京郵電大學(xué) 2018
[4]基于通用對(duì)象估計(jì)的目標(biāo)檢測(cè)與模糊車牌識(shí)別算法研究[D]. 趙丹鳳.南京郵電大學(xué) 2016
[5]基于卷積神經(jīng)網(wǎng)絡(luò)的場(chǎng)景理解方法研究[D]. 吳裔慧.清華大學(xué) 2015
本文編號(hào):3423373
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3423373.html
最近更新
教材專著