基于深度學習的高分辨率遙感影像語義分割研究
發(fā)布時間:2020-12-06 07:15
高分辨率遙感影像成為了人類對地觀測的重要窗口。遙感影像的語義分割通過為圖像每個像素分配語義標簽完成對目標的分類和識別,是遙感影像理解的重要手段之一,在地物變化、城鎮(zhèn)變遷、災難救援等中得到廣泛應用。由于高分辨率遙感影像具有空間分辨率高、地物種類復雜、類內(nèi)差異大等特點,導致傳統(tǒng)方法下語義分割精度較低。隨著深度學習在圖像分類、目標檢測等視覺任務展示出來優(yōu)異的性能,近些年,使用深度學習方法進行圖像解譯和視覺分析的研究越來越多。深度學習突破傳統(tǒng)方法需要人工參與設計特征的思想,從大量圖像數(shù)據(jù)中自動學習特征信息,為遙感影像語義分割的研究帶來了新的思路。本論文基于卷積神經(jīng)網(wǎng)絡,對高分辨遙感影像的語義分割開展了相關的研究工作。通過研究和分析深度學習技術及常見語義分割模型特點,構建了一個基于雙注意力多尺度特征融合的網(wǎng)絡模型。該模型主要有以下幾個特點:針對高分辨遙感影像細節(jié)多,在編碼部分,采用ResNet50提取特征,并在ResNet50最后兩階段使用了空洞卷積方式,在保持參數(shù)量不變的情況下增大感受野,捕獲更多全局信息;針對目標尺度差異變化,在ResNet50各階段分別引入金字塔池化結構,充分利用多尺度上下...
【文章來源】:江西師范大學江西省
【文章頁數(shù)】:57 頁
【學位級別】:碩士
【部分圖文】:
單層單個神經(jīng)網(wǎng)絡結構
工程碩士專業(yè)學位論文8的有:sigmoid函數(shù)、ReLU函數(shù)、tanh函數(shù)等。將若干相同結構的神經(jīng)單元按照一定規(guī)則連接在一起就可以構建多層的神經(jīng)網(wǎng)絡,層數(shù)三層及以上可以稱為深度神經(jīng)網(wǎng)絡或深度學習,常說的深度學習的“深度”含義便體現(xiàn)在此。如圖2-2所示:圖2-2多層神經(jīng)網(wǎng)絡與單層的神經(jīng)網(wǎng)絡相比較,可以看到多層神經(jīng)網(wǎng)絡擁有更多網(wǎng)絡層數(shù)(中間的稱為隱藏層),每一層的輸出結果作為下一層的輸入,最后經(jīng)過多層的運算得到了最終輸出結果。其內(nèi)部實質(zhì)是學習一組包含大量參數(shù)的數(shù)學函數(shù)模型,通過不斷的調(diào)整內(nèi)部參數(shù)來逼近最優(yōu)解。多層神經(jīng)網(wǎng)絡增強了模型的表達能力,可以提取更多特征信息。2.1.2損失函數(shù)和梯度下降法構建好了合適的網(wǎng)絡模型結構,如何去優(yōu)化模型是深度學習最關鍵的問題之一。這里得先提到損失函數(shù),在深度學習中,該函數(shù)的意義表達是模型最后的預測數(shù)值和真實值之間的差距,這個差距越小,即損失值越小,那么說明對數(shù)據(jù)的擬合或說特征表達能力越好。因此,模型的優(yōu)化過程實質(zhì)就是去使得損失函數(shù)最小的過程,使用公式(2-2)表達:tpLossff(1-2)其中,tf代表真實值,pf代表預測值,Loss即為需要優(yōu)化的目標函數(shù)。如何得到目標函數(shù)最小值,在數(shù)學上可以通過轉(zhuǎn)換為去求解函數(shù)極值的問題。如圖2-3所示:圖2-3函數(shù)優(yōu)化示例
工程碩士專業(yè)學位論文8的有:sigmoid函數(shù)、ReLU函數(shù)、tanh函數(shù)等。將若干相同結構的神經(jīng)單元按照一定規(guī)則連接在一起就可以構建多層的神經(jīng)網(wǎng)絡,層數(shù)三層及以上可以稱為深度神經(jīng)網(wǎng)絡或深度學習,常說的深度學習的“深度”含義便體現(xiàn)在此。如圖2-2所示:圖2-2多層神經(jīng)網(wǎng)絡與單層的神經(jīng)網(wǎng)絡相比較,可以看到多層神經(jīng)網(wǎng)絡擁有更多網(wǎng)絡層數(shù)(中間的稱為隱藏層),每一層的輸出結果作為下一層的輸入,最后經(jīng)過多層的運算得到了最終輸出結果。其內(nèi)部實質(zhì)是學習一組包含大量參數(shù)的數(shù)學函數(shù)模型,通過不斷的調(diào)整內(nèi)部參數(shù)來逼近最優(yōu)解。多層神經(jīng)網(wǎng)絡增強了模型的表達能力,可以提取更多特征信息。2.1.2損失函數(shù)和梯度下降法構建好了合適的網(wǎng)絡模型結構,如何去優(yōu)化模型是深度學習最關鍵的問題之一。這里得先提到損失函數(shù),在深度學習中,該函數(shù)的意義表達是模型最后的預測數(shù)值和真實值之間的差距,這個差距越小,即損失值越小,那么說明對數(shù)據(jù)的擬合或說特征表達能力越好。因此,模型的優(yōu)化過程實質(zhì)就是去使得損失函數(shù)最小的過程,使用公式(2-2)表達:tpLossff(1-2)其中,tf代表真實值,pf代表預測值,Loss即為需要優(yōu)化的目標函數(shù)。如何得到目標函數(shù)最小值,在數(shù)學上可以通過轉(zhuǎn)換為去求解函數(shù)極值的問題。如圖2-3所示:圖2-3函數(shù)優(yōu)化示例
【參考文獻】:
期刊論文
[1]深度學習在遙感影像分類與識別中的研究進展綜述[J]. 王斌,范冬林. 測繪通報. 2019(02)
[2]基于深度學習的語音識別方法研究[J]. 邵娜,李曉坤,劉磊,陳虹旭,鄭永亮,楊磊. 智能計算機與應用. 2019(02)
[3]聯(lián)合顯著性特征與卷積神經(jīng)網(wǎng)絡的遙感影像艦船檢測[J]. 余東行,張保明,郭海濤,趙傳,徐俊峰. 中國圖象圖形學報. 2018(12)
[4]一種基于遺傳算法的圖像分割算法[J]. 唐琳,蔡德榮,黃猛. 計算機與數(shù)字工程. 2008(07)
[5]基于主動輪廓模型和水平集方法的圖像分割技術[J]. 羅紅根,朱利民,丁漢. 中國圖象圖形學報. 2006(03)
本文編號:2900955
【文章來源】:江西師范大學江西省
【文章頁數(shù)】:57 頁
【學位級別】:碩士
【部分圖文】:
單層單個神經(jīng)網(wǎng)絡結構
工程碩士專業(yè)學位論文8的有:sigmoid函數(shù)、ReLU函數(shù)、tanh函數(shù)等。將若干相同結構的神經(jīng)單元按照一定規(guī)則連接在一起就可以構建多層的神經(jīng)網(wǎng)絡,層數(shù)三層及以上可以稱為深度神經(jīng)網(wǎng)絡或深度學習,常說的深度學習的“深度”含義便體現(xiàn)在此。如圖2-2所示:圖2-2多層神經(jīng)網(wǎng)絡與單層的神經(jīng)網(wǎng)絡相比較,可以看到多層神經(jīng)網(wǎng)絡擁有更多網(wǎng)絡層數(shù)(中間的稱為隱藏層),每一層的輸出結果作為下一層的輸入,最后經(jīng)過多層的運算得到了最終輸出結果。其內(nèi)部實質(zhì)是學習一組包含大量參數(shù)的數(shù)學函數(shù)模型,通過不斷的調(diào)整內(nèi)部參數(shù)來逼近最優(yōu)解。多層神經(jīng)網(wǎng)絡增強了模型的表達能力,可以提取更多特征信息。2.1.2損失函數(shù)和梯度下降法構建好了合適的網(wǎng)絡模型結構,如何去優(yōu)化模型是深度學習最關鍵的問題之一。這里得先提到損失函數(shù),在深度學習中,該函數(shù)的意義表達是模型最后的預測數(shù)值和真實值之間的差距,這個差距越小,即損失值越小,那么說明對數(shù)據(jù)的擬合或說特征表達能力越好。因此,模型的優(yōu)化過程實質(zhì)就是去使得損失函數(shù)最小的過程,使用公式(2-2)表達:tpLossff(1-2)其中,tf代表真實值,pf代表預測值,Loss即為需要優(yōu)化的目標函數(shù)。如何得到目標函數(shù)最小值,在數(shù)學上可以通過轉(zhuǎn)換為去求解函數(shù)極值的問題。如圖2-3所示:圖2-3函數(shù)優(yōu)化示例
工程碩士專業(yè)學位論文8的有:sigmoid函數(shù)、ReLU函數(shù)、tanh函數(shù)等。將若干相同結構的神經(jīng)單元按照一定規(guī)則連接在一起就可以構建多層的神經(jīng)網(wǎng)絡,層數(shù)三層及以上可以稱為深度神經(jīng)網(wǎng)絡或深度學習,常說的深度學習的“深度”含義便體現(xiàn)在此。如圖2-2所示:圖2-2多層神經(jīng)網(wǎng)絡與單層的神經(jīng)網(wǎng)絡相比較,可以看到多層神經(jīng)網(wǎng)絡擁有更多網(wǎng)絡層數(shù)(中間的稱為隱藏層),每一層的輸出結果作為下一層的輸入,最后經(jīng)過多層的運算得到了最終輸出結果。其內(nèi)部實質(zhì)是學習一組包含大量參數(shù)的數(shù)學函數(shù)模型,通過不斷的調(diào)整內(nèi)部參數(shù)來逼近最優(yōu)解。多層神經(jīng)網(wǎng)絡增強了模型的表達能力,可以提取更多特征信息。2.1.2損失函數(shù)和梯度下降法構建好了合適的網(wǎng)絡模型結構,如何去優(yōu)化模型是深度學習最關鍵的問題之一。這里得先提到損失函數(shù),在深度學習中,該函數(shù)的意義表達是模型最后的預測數(shù)值和真實值之間的差距,這個差距越小,即損失值越小,那么說明對數(shù)據(jù)的擬合或說特征表達能力越好。因此,模型的優(yōu)化過程實質(zhì)就是去使得損失函數(shù)最小的過程,使用公式(2-2)表達:tpLossff(1-2)其中,tf代表真實值,pf代表預測值,Loss即為需要優(yōu)化的目標函數(shù)。如何得到目標函數(shù)最小值,在數(shù)學上可以通過轉(zhuǎn)換為去求解函數(shù)極值的問題。如圖2-3所示:圖2-3函數(shù)優(yōu)化示例
【參考文獻】:
期刊論文
[1]深度學習在遙感影像分類與識別中的研究進展綜述[J]. 王斌,范冬林. 測繪通報. 2019(02)
[2]基于深度學習的語音識別方法研究[J]. 邵娜,李曉坤,劉磊,陳虹旭,鄭永亮,楊磊. 智能計算機與應用. 2019(02)
[3]聯(lián)合顯著性特征與卷積神經(jīng)網(wǎng)絡的遙感影像艦船檢測[J]. 余東行,張保明,郭海濤,趙傳,徐俊峰. 中國圖象圖形學報. 2018(12)
[4]一種基于遺傳算法的圖像分割算法[J]. 唐琳,蔡德榮,黃猛. 計算機與數(shù)字工程. 2008(07)
[5]基于主動輪廓模型和水平集方法的圖像分割技術[J]. 羅紅根,朱利民,丁漢. 中國圖象圖形學報. 2006(03)
本文編號:2900955
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2900955.html
最近更新
教材專著