天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

改進(jìn)ORB G MS算法的大視差圖像拼接方法研究

發(fā)布時(shí)間:2021-07-18 08:19
  針對(duì)常用的圖像拼接算法中存在拼接效率低、視差圖像拼接效果差等問題,提出一種基于改進(jìn)ORB_GMS(Oriented FAST and Rotated BRIEF_Grid-based Motion Statistics)算法的大視差圖像拼接方法,即ORB_M(jìn)SURF_GMS法。該方法首先利用高斯函數(shù)構(gòu)建尺度空間,借助FAST算法提取尺度空間特征點(diǎn),使用小波函數(shù)提取MSURF(M-Speeded Up Robust Features)描述符并匹配,得到魯棒性更強(qiáng)的改進(jìn)ORB(Oriented FAST and Rotated BRIEF)算法;然后通過運(yùn)動(dòng)網(wǎng)格統(tǒng)計(jì)算法篩選匹配點(diǎn);隨后,根據(jù)匹配點(diǎn)Harris強(qiáng)度值,提出使用非極大值抑制算法均勻化處理特征點(diǎn);最后,借助盡可能投影算法對(duì)待匹配圖像進(jìn)行配準(zhǔn),并借助拉普拉斯金字塔算法融合重疊區(qū)域圖像,從而得到完整的拼接圖像。將改進(jìn)的ORB_GMS算法與常用的特征匹配算法,在Oxford數(shù)據(jù)集中對(duì)算法的光照魯棒性、旋轉(zhuǎn)不變性、尺度不變性、抗模糊變換不變性等指標(biāo)進(jìn)行對(duì)比評(píng)價(jià),驗(yàn)證了本文所提匹配算法具有較好的魯棒性、效率較高、可保留更多的正確匹配點(diǎn)。將... 

【文章來源】:遼寧工程技術(shù)大學(xué)遼寧省

【文章頁(yè)數(shù)】:73 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

改進(jìn)ORB G MS算法的大視差圖像拼接方法研究


無人機(jī)航拍拼接圖像

地圖,虛擬現(xiàn)實(shí),圖像


?詡撲慊?誆?仿真建立一個(gè)為現(xiàn)實(shí)世界類似的虛擬世界,用戶可通過三維穿戴設(shè)備與虛擬現(xiàn)實(shí)世界交互,并通過三維視覺可體驗(yàn)與現(xiàn)實(shí)類似的情景[17-18]。虛擬現(xiàn)實(shí)技術(shù)是圖形圖像處理的一個(gè)重要前沿研究方向,可廣泛應(yīng)用于電子商務(wù)、醫(yī)療、虛擬現(xiàn)實(shí)游戲、虛擬體驗(yàn)、旅游等場(chǎng)景。虛擬現(xiàn)實(shí)地圖制作離不開圖像拼接技術(shù)[19-20],圖像拼接效果質(zhì)量直接影響虛擬現(xiàn)實(shí)的逼真程度。使用多個(gè)相機(jī)分別采集現(xiàn)實(shí)情境的圖像,然后借助圖像拼接算法構(gòu)建成360圖像,用戶可以根據(jù)自己喜好任意旋轉(zhuǎn)虛擬現(xiàn)實(shí)地圖,從不同方向觀看地圖,虛擬現(xiàn)實(shí)地圖如圖1.2所示。圖1.2虛擬現(xiàn)實(shí)圖像拼接Figure1.2Virtualrealityimagemosaic在現(xiàn)實(shí)生活中,隨著移動(dòng)拍攝設(shè)備普及,越來越多的人習(xí)慣用手機(jī)拍攝圖像,由于拍攝環(huán)境復(fù)雜、拍攝者技術(shù)良莠不齊等,導(dǎo)致相鄰圖像的焦點(diǎn)、拍攝平面不同,相鄰拍攝圖像具有較大視差,致使圖像拼接難度大大增加。1.2國(guó)內(nèi)外研究現(xiàn)狀圖像拼接主要有三個(gè)步驟,圖像匹配、圖像配準(zhǔn)和重疊區(qū)域融合,每一個(gè)步驟都至關(guān)重要,直接影響拼接圖像質(zhì)量。圖像匹配是根據(jù)兩張待匹配圖像上紋理信息,對(duì)重疊區(qū)域上的具有相同紋理特征進(jìn)行匹配,簡(jiǎn)而言之就是尋找兩張圖像相同部分。圖像配準(zhǔn)是在圖像匹配后,根據(jù)相同部分的位置或者空間關(guān)系,計(jì)算出不同關(guān)系式,并進(jìn)行配準(zhǔn)的過程。圖像融合是對(duì)具有重疊區(qū)域進(jìn)行處理的過程。局部特征匹配算法主要分為三個(gè)步驟:尺度空間構(gòu)建、特征點(diǎn)提取和描述符構(gòu)建,根據(jù)描述符的類型不同可把局部特征匹配算法分為:浮點(diǎn)型描述符匹配方法和二進(jìn)制描述符匹配算法。2004年Low等人提出了SIFT(Scale-InvariantFeatureTransform)算法[21],該算法為特征匹配算法翻開了嶄新篇章,首先借助高斯濾波函數(shù)構(gòu)建尺度空間,然后對(duì)相鄰高斯尺度層做差?

過程圖,矩陣,過程,特征點(diǎn)


?∩,D.Lowe等人提出了AutoStitching算法[41],該算法先借助SIFT算法完成特征匹配,然后使用隨機(jī)采樣一致性算法篩選內(nèi)點(diǎn),最后計(jì)算單應(yīng)性矩陣完成配準(zhǔn)。該方法對(duì)于無視差待拼接圖像,拼接效果較好,但是若是待拼接圖像具有較大視差,則重疊區(qū)域會(huì)有巨大重影,非重疊區(qū)域會(huì)出現(xiàn)畸變。針對(duì)AutoStitching算法對(duì)具有視差圖像拼接效果較差等問題,Gao等人提出把目標(biāo)圖像按照紋理差異分為前后景[42],并分別計(jì)算前后景的單應(yīng)性矩陣進(jìn)行投影配準(zhǔn)。該算法首先借助SIFT算法完成特征匹配,然后特征點(diǎn)聚類操作,可把特征點(diǎn)分為兩組,如圖1.3所示,前景特征點(diǎn)聚類為黃色、后景特征點(diǎn)聚類為綠色,然后對(duì)兩組特征點(diǎn)分別計(jì)算單應(yīng)性矩陣配準(zhǔn)。Lin等人提出一種平滑過渡的仿射變換模型[43],該模型對(duì)小視差圖像拼接效果較好。圖1.3雙單應(yīng)性矩陣拼接過程Figure1.3Double-homogeneousmatrixsplicingprocess針對(duì)上述算法對(duì)具有視差的圖像配準(zhǔn)效果較差等問題,JulioZaragoza等人提出盡可能投影算法(As-Projective-As-PossibleImageStitching,APAP)[44,45],該算法首先借助SIFT算法圖像匹配,然后使用隨機(jī)采樣一致性算法篩選內(nèi)點(diǎn),隨后對(duì)目標(biāo)圖像網(wǎng)格劃分,最后根據(jù)特征點(diǎn)分布計(jì)算每個(gè)網(wǎng)格單應(yīng)性矩陣并添加高斯權(quán)重值,完成配準(zhǔn)。該方法對(duì)具視差的圖像配準(zhǔn)效果較好,靈活度較高。盡可能投影算法對(duì)特征點(diǎn)數(shù)量和分布要求較高,而人造

【參考文獻(xiàn)】:
期刊論文
[1]虛擬現(xiàn)實(shí)技術(shù)的現(xiàn)狀與發(fā)展[J]. 劉顏東.  中國(guó)設(shè)備工程. 2020(14)
[2]基于ORB-SLAM2系統(tǒng)的快速誤匹配剔除算法與地圖構(gòu)建[J]. 席志紅,王洪旭,韓雙全.  計(jì)算機(jī)應(yīng)用. 2020(11)
[3]特征點(diǎn)聚類高精度視差圖像拼接[J]. 謝從華,張冰,高蘊(yùn)梅.  中國(guó)圖象圖形學(xué)報(bào). 2020(06)
[4]基于DDTW的非線形建筑數(shù)字圖像形貌拼接仿真[J]. 張華.  計(jì)算機(jī)仿真. 2020(06)
[5]基于GPU的實(shí)時(shí)SIFT算法[J]. 汪亮,周新志,嚴(yán)華.  計(jì)算機(jī)科學(xué). 2020(08)
[6]基于改進(jìn)ORB算法的圖像特征點(diǎn)提取與匹配方法[J]. 楊弘凡,李航,陳凱陽,李嘉琪,王曉菲.  圖學(xué)學(xué)報(bào). 2020(04)
[7]廢棄礦山植被覆蓋度無人機(jī)遙感快速提取技術(shù)[J]. 王美琪,楊建英,孫永康,王高平,謝宇虹.  中國(guó)水土保持科學(xué). 2020(02)
[8]基于改進(jìn)ORB算法的VSLAM特征匹配算法研究[J]. 楊立闖,馬杰,馬鵬飛,王旭嬌,王楠楠.  河北工業(yè)大學(xué)學(xué)報(bào). 2020(02)
[9]一種改進(jìn)的APAP影像匹配算法[J]. 張冬梅,盧小平,苗沛基,周雨石,馬靚婷.  測(cè)繪通報(bào). 2020(03)
[10]基于特征提取的圖像拼接方法[J]. 李芹.  現(xiàn)代計(jì)算機(jī). 2020(09)



本文編號(hào):3289207

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3289207.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶4a9bb***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com