天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于深度學(xué)習(xí)的高光譜圖像目標(biāo)檢測

發(fā)布時間:2021-07-10 01:37
  近年來,深度學(xué)習(xí)通過提取深層特征極大地提升了網(wǎng)絡(luò)的認(rèn)知能力,在高光譜圖像的特征提取和分類領(lǐng)域中得到了成功的應(yīng)用。然而,在高光譜圖像目標(biāo)檢測領(lǐng)域中,先驗(yàn)?zāi)繕?biāo)光譜信息非常稀少,會導(dǎo)致網(wǎng)絡(luò)無法訓(xùn)練,嚴(yán)重阻礙了深度模型的構(gòu)建。本文針對該問題,從遷移學(xué)習(xí)和生成樣本兩個角度,分析目標(biāo)光譜特性,設(shè)計了兩種深度學(xué)習(xí)目標(biāo)檢測框架,解決了訓(xùn)練樣本稀少的問題,論文的主要工作如下:第一,從遷移學(xué)習(xí)的角度,結(jié)合像素配對的思想,利用一個標(biāo)注好的數(shù)據(jù)集,生成像素對,根據(jù)已有的標(biāo)簽信息,為每個像素對分配新的標(biāo)簽,構(gòu)建像素對數(shù)據(jù)集并訓(xùn)練網(wǎng)絡(luò),使網(wǎng)絡(luò)學(xué)習(xí)像素之間的光譜相似特性。測試時,首先通過線性預(yù)測算法在測試圖像上尋找與目標(biāo)光譜差異最大的樣本作為背景像素,然后對于一個測試像素而言,分別與目標(biāo)和背景樣本分別配對,送入網(wǎng)絡(luò),最后將兩組結(jié)果進(jìn)行自適應(yīng)的融合,得到最終的相似性評分。該方法有效地解決了樣本稀缺的問題,并加入了深度像素對相似性特征,增強(qiáng)了網(wǎng)絡(luò)的檢測能力,但該方法需要訓(xùn)練與測試數(shù)據(jù)的傳感器相同,因此限制了使用范圍。第二,從生成樣本的角度,對基于遷移學(xué)習(xí)的方法進(jìn)行改進(jìn),利用自編碼器輸出逼近輸入的特性,構(gòu)建目標(biāo)樣本生成器... 

【文章來源】:北京化工大學(xué)北京市 211工程院校 教育部直屬院校

【文章頁數(shù)】:78 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的高光譜圖像目標(biāo)檢測


圖2-1多層感知器??Fig.2-1?Multilayer?perceptron??目前深度學(xué)習(xí)最流行的兩大流派是卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),它們都是??

原理圖,卷積,原理


?北京化工大學(xué)碩士學(xué)位論文???12?;2?上一乂?6?L-^y—廣T??一:P?22?上:4?6?二一^??圖2-2卷積原理??Fig.2-2?Convolution?principle??得到卷積層提取的特征之后,需要將其用來分類,理論上,應(yīng)該將所有的特??征矩陣送入全連接層進(jìn)行分類。然而,這樣的做法會導(dǎo)致計算開銷過大而嚴(yán)重地??降低了效率,甚至程序無法運(yùn)行。假設(shè),使用300個7X7的卷積核在一張100?x??100的圖像進(jìn)行卷積,那么輸出的特征大小為(100?-?7?+?1)?X?(100?-?7?+?1)?x??300?=?2650800。對于一個分類器而言,學(xué)習(xí)如此大的特征效率是非常低的,并??且會使網(wǎng)絡(luò)容易過擬合。為解決這個問題,需要一個策略可以對得到的特征進(jìn)行??降維,保留其中有代表性的信息,去掉其他的冗余信息。池化層正是用來解決這??一問題的,它的本質(zhì)是一種下采樣算法。規(guī)則通常很簡單,比如選取一個區(qū)域內(nèi)??的最大值或平均值。如果只對圖像上連續(xù)的區(qū)域進(jìn)行池化,并且待池化特征來自??相同的節(jié)點(diǎn),那么這些池化節(jié)點(diǎn)就具有轉(zhuǎn)換不變性。也就是說,即使圖像被降采??樣變小了,但是特征圖上與原圖像相對位置相同的節(jié)點(diǎn)依然保持著原有的特征,??即特性沒有發(fā)生改變。??CNN的最優(yōu)化方法的核心依然是反向傳播算法,但是傳統(tǒng)的反向傳播算法??需要為所有的訓(xùn)練集樣本計算損失函數(shù)和導(dǎo)數(shù),這無疑會導(dǎo)致訓(xùn)練速度非常緩慢。??針對這一問題,隨機(jī)梯度下降算法[43](Stochastic?Gradient?Descent,?SGD)被提出,??它可以在獲取少量甚至一個樣本信息的情況下,將梯度回傳,從而加快網(wǎng)絡(luò)收斂??速度。對于目

導(dǎo)數(shù),圖像,梯度


標(biāo)檢測理論基礎(chǔ)???這里代表訓(xùn)練樣集中的一對樣本,該公式表明SGD只用少量樣本的參??數(shù)來計算梯度。這樣的原因是既可以減少參數(shù)更新時的變化,使網(wǎng)絡(luò)可以穩(wěn)定的??收斂,還可以使網(wǎng)絡(luò)的計算充分利用一些對損失函數(shù)和梯度向量化計算有益的最??優(yōu)化矩陣操作。??在早期的CNN中常使用sigmoid作為每一個節(jié)點(diǎn)的激活函數(shù),但是這常常??會導(dǎo)致梯度消失現(xiàn)象,即從輸出端回傳的導(dǎo)數(shù)越來越小,以至于到比較靠前的層??時梯度幾乎為0了,這樣會使網(wǎng)絡(luò)的訓(xùn)練速度越來越慢,無法達(dá)到預(yù)期的結(jié)果。??如圖2-3所示為sigmoid的導(dǎo)數(shù)圖像,可以看到其最大值為0.25,對于前面層的??導(dǎo)數(shù)而言,是需要由后面層的導(dǎo)數(shù)相乘得到的,因此會不斷的乘以小于1的數(shù),??這樣也就導(dǎo)致了越靠前導(dǎo)數(shù)越小的現(xiàn)象。Relu[44]?(Rectified?Linear?Units)函數(shù)有??效解決了這一問題,它的函數(shù)公式如下:??Relu(x)?=?max(x,?°)?=?>?〇?式(2-3)??從公式可以看出Relu在大于0的情況下,輸入等于輸出,這樣計算導(dǎo)數(shù)就簡單??很多了,并且始終為1,不會像sigmoid—樣減少前面層的導(dǎo)數(shù)。??—八??0??圖2-3?sigmoid導(dǎo)數(shù)圖像??Fig.2-3?Derivative?of?sigmoid??Relu的出現(xiàn)使CNN的訓(xùn)練效率有所提升,但此時的收斂速度依然是比較慢??的。批歸一化[45]?(Batch?Normalization,?BN)的出現(xiàn)使網(wǎng)絡(luò)的收斂速度得到了第??二次提升。BN主要是用來解決內(nèi)部變量偏移問題的,該問題是指在訓(xùn)練過程中,??隱藏層的輸入分布會一直改變,導(dǎo)致網(wǎng)絡(luò)的模型很難穩(wěn)定學(xué)習(xí)規(guī)

【參考文獻(xiàn)】:
期刊論文
[1]高光譜圖像目標(biāo)檢測研究進(jìn)展[J]. 賀霖,潘泉,邸韡,李遠(yuǎn)清.  電子學(xué)報. 2009(09)



本文編號:3274918

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3274918.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶5eab3***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com