天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 管理論文 > 工程管理論文 >

基于上下文感知的高分辨率遙感影像目標(biāo)檢測

發(fā)布時間:2020-04-23 19:02
【摘要】:隨著航空航天技術(shù)的發(fā)展,遙感影像分辨率不斷提高,遙感影像目標(biāo)識別在很多領(lǐng)域,諸如國防安全、交通監(jiān)測、城市管理、智能視頻監(jiān)控、機器人導(dǎo)航和增強現(xiàn)實等都有廣泛的應(yīng)用。作為視覺領(lǐng)域的基礎(chǔ)研究課題之一,目標(biāo)檢測是很多高級視覺任務(wù)的基礎(chǔ)和前提,但總體來看依然受制于以下三個因素:圖像質(zhì)量不高,目標(biāo)本身尺寸過小以及檢測方法不完善等。圖像質(zhì)量不佳是由于遙感圖像在成像過程中容易受到光照、云、霧、海浪等自然環(huán)境的影響導(dǎo)致的,同時一些目標(biāo)由于自身尺度過小及周邊噪聲的干擾進(jìn)一步增加了目標(biāo)檢測的難度。因此如何快速、準(zhǔn)確的從大量復(fù)雜的場景中提取感興趣的目標(biāo)和信息具有非常重要的意義。豐富的地物表達(dá)是目標(biāo)檢測的關(guān)鍵,因此本文基于上下文思想提出了一種基于上下文感知的高分辨率遙感影像目標(biāo)檢測方法。該方法主要包括三個過程:尺度上下文提取,空間上下文提取及特征融合,本文首先對尺度上下文和空間上下文分別進(jìn)行研究,通過實驗分析他們對目標(biāo)檢測的貢獻(xiàn)和影響,最后在進(jìn)行特征融合時,設(shè)計了一種更加有效的特征融合方式,結(jié)果表明本文提出的上下文融合方法能夠顯著提高目標(biāo)的檢測精度,相比于常規(guī)的目標(biāo)檢測方法具有更準(zhǔn)確的效果。文章主要包括以下內(nèi)容:(1)對基于尺度上下文的遙感影像目標(biāo)檢測方法進(jìn)行了研究。本文基于深度學(xué)習(xí)進(jìn)行尺度上下文提取,針對卷積造成的細(xì)節(jié)丟失問題,考慮在多個尺度上學(xué)習(xí)目標(biāo)的特征表示,融合成尺度上下文用于目標(biāo)檢測。首先在不同層級的特征圖上進(jìn)行特征提取,通過實驗比較不同層級特征對目標(biāo)檢測的影響。然后進(jìn)一步將提取到的不同尺度的特征進(jìn)行融合,以彌補低層特征與高層特征之間的語義鴻溝,提高目標(biāo)檢測的精度。(2)對基于空間上下文的遙感影像目標(biāo)檢測方法進(jìn)行了研究。物體總是出現(xiàn)在特定的場景中,目標(biāo)與周邊環(huán)境的內(nèi)在聯(lián)系能夠有效降低目標(biāo)檢測的不確定性,提高檢測的精度。因此本文重點研究了空間上下文對目標(biāo)檢測的貢獻(xiàn)及影響,通過對不同范圍大小的空間上下文對目標(biāo)檢測的影響進(jìn)行實驗和分析,最終提出一種有效的空間上下文融合方法。結(jié)果表明,空間上下文的融合有助于檢測精度的提高。(3)對上下文特征的融合方法進(jìn)行了研究。在前面研究的基礎(chǔ)上,本文將尺度上下文和空間上下文進(jìn)行融合,聯(lián)合用于目標(biāo)檢測,并針對上下文特征融合提出了一種新的更有效的特征融合方法,結(jié)果證明改進(jìn)后的特征融合方法進(jìn)一步提高了目標(biāo)檢測的精度。本文致力于提高高分辨率目標(biāo)檢測的精度,通過對特征表達(dá)及融合進(jìn)行研究,提出了基于上下文感知的高分辨率遙感影像目標(biāo)檢測方法,實驗結(jié)果表明,這種方法能夠有效提升目標(biāo)檢測的精度,也為上下文的發(fā)展提供借鑒和思路。
【圖文】:

技術(shù)路線圖,目標(biāo)檢測,上下文,候選框


檢測提供新的方法和借鑒。逡逑1.3.2技術(shù)路線逡逑圖1-2給出了本文基于上下文感知的遙感影像目標(biāo)檢測的總體框架,主要包括尺逡逑度上下文、空間上下文及上下文特征融合三部分。逡逑卷積邐^賣選框生^邐邋邐邋邐邐—分類逡逑入計算灶什陽成網(wǎng)絡(luò)候選框邐上下文候邐上下文特」今沐垃_邋邐逡逑圖邐*特征圖邐生成邐J選框生成邐征融合邐接邐邐逡逑L邋|邐邐邋H邋到立,逡逑r---l邐■fk--]逡逑丨尺度上下邐空間上下[_逡逑j文提取邐文提。慑义县保撸婂邋澹桢义蠄D1-2基于上下文感知的高分辨率遙感影像目標(biāo)

卷積,參數(shù),卷積核,隱藏層


下減小數(shù)據(jù)量。這三個操作都起到了降低模型參數(shù)復(fù)雜度的作用。逡逑同時,卷積神經(jīng)網(wǎng)絡(luò)將卷積和池化操作交疊進(jìn)行,通過不斷的對圖像特征進(jìn)行抽逡逑象,,從而得到更高級的語義信息。圖2-2是經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型LeNet-5,只由逡逑卷積、池化和全連接構(gòu)成。對于一幅32*32的輸入圖像,如果采用5*5的卷積核,逡逑那么輸入層到第一個隱藏層的每個節(jié)點只需要訓(xùn)練25個參數(shù),在卷積核步長為1個逡逑像素的情況下,第一個隱藏層的輸出為28*28個節(jié)點,倘若權(quán)值不共享,總的訓(xùn)練逡逑參數(shù)將是28*28*25,如果拓展成1000*1000*3的圖像或者,參數(shù)將是996*996*75,逡逑訓(xùn)練參數(shù)會非常龐大,因此卷積神經(jīng)網(wǎng)絡(luò)采用權(quán)值共享的方式,讓上一級到下一級逡逑所有節(jié)點共享同一套卷積參數(shù),因此該層卷積只需要訓(xùn)練25個參數(shù)即可。卷積神經(jīng)逡逑網(wǎng)絡(luò)相比于BP神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)參數(shù)更少,更加易于訓(xùn)練和提取抽象特征。逡逑除此之外
【學(xué)位授予單位】:武漢大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2018
【分類號】:TP751

【參考文獻(xiàn)】

相關(guān)期刊論文 前4條

1 李德仁;張良培;夏桂松;;遙感大數(shù)據(jù)自動分析與數(shù)據(jù)挖掘[J];測繪學(xué)報;2014年12期

2 高常鑫;桑農(nóng);;基于深度學(xué)習(xí)的高分辨率遙感影像目標(biāo)檢測[J];測繪通報;2014年S1期

3 劉麗;匡綱要;;圖像紋理特征提取方法綜述[J];中國圖象圖形學(xué)報;2009年04期

4 付瑋;曾接賢;;基于形狀特征的圖像檢索技術(shù)研究[J];計算機技術(shù)與發(fā)展;2007年11期



本文編號:2638046

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/guanlilunwen/gongchengguanli/2638046.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶26ba6***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com