基于數(shù)據(jù)擴(kuò)增式深度學(xué)習(xí)的遙感圖像分析
發(fā)布時間:2021-09-04 03:16
近年來,深度學(xué)習(xí)被廣泛應(yīng)用于表征圖像的復(fù)雜模式中,它有潛力解決遙感領(lǐng)域中一些經(jīng)典且具有挑戰(zhàn)性的問題。典型的深度學(xué)習(xí)需要內(nèi)容豐富且數(shù)量極大的數(shù)據(jù)集來訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)以捕捉遙感圖像中的基本特征。然而,與流行的深度學(xué)習(xí)框架中使用的基準(zhǔn)數(shù)據(jù)集相比,可用的遙感圖像數(shù)據(jù)非常有限,這極大地限制了深度學(xué)習(xí)模型在遙感圖像分析中的性能。為了充分發(fā)揮深度學(xué)習(xí)在遙感小數(shù)據(jù)圖像分析上的性能,本文針對三種不同的遙感圖像分析場景(遙感場景圖像分類、臺風(fēng)云系預(yù)測和溢油分割),提出了三種數(shù)據(jù)擴(kuò)增式深度學(xué)習(xí)方法。首先,針對遙感場景圖像分類,本文提出一種數(shù)據(jù)擴(kuò)增方法,實(shí)現(xiàn)數(shù)據(jù)擴(kuò)增式卷積神經(jīng)網(wǎng)絡(luò)。這種數(shù)據(jù)擴(kuò)增方法不僅可以提高任意遙感圖像數(shù)據(jù)集的圖像數(shù)量和完備性,還可以利用擴(kuò)增的數(shù)據(jù)集訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò),以實(shí)現(xiàn)精確地場景圖像分類。具體而言,本文提出應(yīng)用三種基本操作(鏡像、平移和旋轉(zhuǎn))增強(qiáng)任意原始數(shù)據(jù)集,并使用擴(kuò)增的數(shù)據(jù)集訓(xùn)練,從而使深層模型獲取更強(qiáng)的表達(dá)能力,并通過最近發(fā)布的三個遙感數(shù)據(jù)集驗(yàn)證表明本文所提方法的有效性。其次,針對臺風(fēng)云系預(yù)測,本文提出一種新的基于生成對抗網(wǎng)絡(luò)(Generative Adversarial ...
【文章來源】:中國石油大學(xué)(華東)山東省 211工程院校 教育部直屬院校
【文章頁數(shù)】:70 頁
【學(xué)位級別】:碩士
【部分圖文】:
RSSCN7數(shù)據(jù)
中國石油大學(xué)(華東)碩士學(xué)位論文17為了進(jìn)一步驗(yàn)證模型訓(xùn)練的魯棒性,本節(jié)在SAT-4和SAT-6數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。圖2-5(a)[1]和圖2-5(b)[1]分別展示了本章提出的數(shù)據(jù)擴(kuò)增式CNN模型在這兩個數(shù)據(jù)集上訓(xùn)練和測試50個epoch的場景圖像分類精度(Accuracy)曲線?芍,訓(xùn)練曲線和測試曲線緊密貼合,說明了數(shù)據(jù)擴(kuò)增操作使深度模型平衡了訓(xùn)練和測試之間的差別,提高了模型的魯棒性和泛化能力。(a)(b)圖2-5數(shù)據(jù)擴(kuò)增式CNN模型的訓(xùn)練和測試精確度曲線Fig2-5TrainingandtestingaccuracycurvesofourdataaugmentationenhancedCNNmodelwithrespecttonumberofepochs另外,實(shí)驗(yàn)進(jìn)一步對比了數(shù)據(jù)擴(kuò)增式CNN和DeepSat模型[34]的性能,該模型從150個特征中提取了22種用于訓(xùn)練一個DBN分類器。為了對比公平,本章提出的數(shù)據(jù)擴(kuò)增式CNN模型使用與DeepSat相同的實(shí)驗(yàn)設(shè)置,實(shí)驗(yàn)結(jié)果如表2-6所示。本章提出的數(shù)據(jù)擴(kuò)增式CNN模型在SAT-4和SAT-6數(shù)據(jù)集上的場景圖像分類結(jié)果(99.127%和99.297%)均優(yōu)于DeepSat的結(jié)果(97.946%和93.916%)。表2-6DeepSat和數(shù)據(jù)擴(kuò)增式CNN模型在SAT-4和SAT-6數(shù)據(jù)集上的分類精確度(%)對比Table2-6PerformancecomparisonofDeepSatandourdataaugmentationenhancedCNNmodelonSAT-4andSAT-6datasetsintermsofclassificationaccuracy(%)方法分類精確度(%)SAT-4SAT-6DeepSat97.94693.916數(shù)據(jù)擴(kuò)增式CNN(本方法)99.12799.297
第3章基于生成對抗網(wǎng)絡(luò)(GAN)的臺風(fēng)云系預(yù)測22圖3-1基于GAN的臺風(fēng)云系預(yù)測模型工作原理Fig3-1PrincipleoftyphoonpredictionmodelbasedonGAN圖3-1展示的是基于GAN的臺風(fēng)云系預(yù)測模型的工作原理。生成器由為全卷積神經(jīng)網(wǎng)絡(luò),圖中生成器和判別器矩形框內(nèi)的正方形組表示卷積層,判別器矩形框內(nèi)的粗虛線表示全連接層。歷史云圖序列作為生成器G的輸入,生成器G輸出生成的未來云圖序列;判別器分別判定輸入的未來的云圖序列和生成的云圖序列的真假,其結(jié)果通過反向傳播驅(qū)動整個GAN網(wǎng)絡(luò)的優(yōu)化。最終,判別器D無法區(qū)分生成器G生成的未來云圖序列的真假。本模型充分利用了臺風(fēng)云圖序列的“全時空”信息。在“時間”維度,以歷史云圖序列為訓(xùn)練數(shù)據(jù),學(xué)習(xí)臺風(fēng)的時間演化過程;在“空間”維度,將云圖的全部像素作為模型的輸入和輸出基本單元,充分考慮全部空間信息。本模型的“全時空”分析突破了目前臺風(fēng)云圖分析中僅分析單張?jiān)茍D中臺風(fēng)局部特性的局限,為臺風(fēng)預(yù)測提供更完備的可視化信息。3.1.2多尺度網(wǎng)絡(luò)結(jié)構(gòu)為提高生成衛(wèi)星云圖的清晰度,本章使用多尺度生成器和判別器,每一個尺度的生成器和判別器都遵循圖3-1中的工作原理。本小節(jié)將介紹多尺度生成器和判別器的網(wǎng)絡(luò)結(jié)構(gòu)。多尺度結(jié)構(gòu)的生成器具備由模糊到清晰的圖像生成能力,其結(jié)構(gòu)如圖3-2所示。圖3-2多尺度生成器說明Fig3-2Multi-scalegenerator判別器D真/假真實(shí)的未來云圖序列生成器G歷史云圖序列判別器D真/假生成的未來云圖序列+
【參考文獻(xiàn)】:
期刊論文
[1]利用DCNN融合特征對遙感圖像進(jìn)行場景分類[J]. 王振國,陳宏宇,徐文明. 電子設(shè)計(jì)工程. 2018(01)
[2]結(jié)合深度學(xué)習(xí)與條件隨機(jī)場的遙感圖像分類[J]. 夏夢,曹國,汪光亞,尚巖峰. 中國圖象圖形學(xué)報(bào). 2017(09)
[3]相位一致性的SAR圖像溢油分割算法研究[J]. 林宜琛,傅興玉,王峰,尤紅建. 測繪科學(xué). 2016(03)
[4]基于先驗(yàn)特征的臺風(fēng)云系影像分割方法研究[J]. 廖小露,田玉剛,劉嘉. 國土資源遙感. 2011(03)
[5]多特征-譜聚類的SAR圖像溢油分割[J]. 張偉偉,薄華,王曉峰. 智能系統(tǒng)學(xué)報(bào). 2010(06)
[6]基于紅外衛(wèi)星云圖的臺風(fēng)中心自動定位方法研究[J]. 李妍,陳希,費(fèi)樹岷. 紅外. 2010(03)
[7]利用云導(dǎo)風(fēng)矢量的臺風(fēng)中心自動定位[J]. 劉正光,喻遠(yuǎn)飛,吳冰,劉還珠. 氣象學(xué)報(bào). 2003(05)
[8]基于衛(wèi)星云圖的無眼臺風(fēng)中心定位算法[J]. 劉正光,邱海明,吳冰,劉還珠. 天津大學(xué)學(xué)報(bào). 2003(06)
[9]9711號臺風(fēng)及伴生暴雨的衛(wèi)星云圖特征[J]. 馬嵐,鄭新江,羅敬寧. 國土資源遙感. 1998(01)
博士論文
[1]基于SAR圖像的海面溢油檢測研究[D]. 馮景.北京理工大學(xué) 2015
[2]基于水平集和模糊聚類方法的圖像分割技術(shù)研究[D]. 李傳龍.大連海事大學(xué) 2012
碩士論文
[1]基于多路分層稀疏編碼的遙感圖像場景分類[D]. 鮑珍珍.西安電子科技大學(xué) 2014
[2]基于信息熵的氣象衛(wèi)星云圖臺風(fēng)分割方法研究[D]. 陳禹良.哈爾濱工程大學(xué) 2013
[3]基于氣象衛(wèi)星云圖的云類識別及臺風(fēng)分割和中心定位研究[D]. 余建波.武漢理工大學(xué) 2008
本文編號:3382449
【文章來源】:中國石油大學(xué)(華東)山東省 211工程院校 教育部直屬院校
【文章頁數(shù)】:70 頁
【學(xué)位級別】:碩士
【部分圖文】:
RSSCN7數(shù)據(jù)
中國石油大學(xué)(華東)碩士學(xué)位論文17為了進(jìn)一步驗(yàn)證模型訓(xùn)練的魯棒性,本節(jié)在SAT-4和SAT-6數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。圖2-5(a)[1]和圖2-5(b)[1]分別展示了本章提出的數(shù)據(jù)擴(kuò)增式CNN模型在這兩個數(shù)據(jù)集上訓(xùn)練和測試50個epoch的場景圖像分類精度(Accuracy)曲線?芍,訓(xùn)練曲線和測試曲線緊密貼合,說明了數(shù)據(jù)擴(kuò)增操作使深度模型平衡了訓(xùn)練和測試之間的差別,提高了模型的魯棒性和泛化能力。(a)(b)圖2-5數(shù)據(jù)擴(kuò)增式CNN模型的訓(xùn)練和測試精確度曲線Fig2-5TrainingandtestingaccuracycurvesofourdataaugmentationenhancedCNNmodelwithrespecttonumberofepochs另外,實(shí)驗(yàn)進(jìn)一步對比了數(shù)據(jù)擴(kuò)增式CNN和DeepSat模型[34]的性能,該模型從150個特征中提取了22種用于訓(xùn)練一個DBN分類器。為了對比公平,本章提出的數(shù)據(jù)擴(kuò)增式CNN模型使用與DeepSat相同的實(shí)驗(yàn)設(shè)置,實(shí)驗(yàn)結(jié)果如表2-6所示。本章提出的數(shù)據(jù)擴(kuò)增式CNN模型在SAT-4和SAT-6數(shù)據(jù)集上的場景圖像分類結(jié)果(99.127%和99.297%)均優(yōu)于DeepSat的結(jié)果(97.946%和93.916%)。表2-6DeepSat和數(shù)據(jù)擴(kuò)增式CNN模型在SAT-4和SAT-6數(shù)據(jù)集上的分類精確度(%)對比Table2-6PerformancecomparisonofDeepSatandourdataaugmentationenhancedCNNmodelonSAT-4andSAT-6datasetsintermsofclassificationaccuracy(%)方法分類精確度(%)SAT-4SAT-6DeepSat97.94693.916數(shù)據(jù)擴(kuò)增式CNN(本方法)99.12799.297
第3章基于生成對抗網(wǎng)絡(luò)(GAN)的臺風(fēng)云系預(yù)測22圖3-1基于GAN的臺風(fēng)云系預(yù)測模型工作原理Fig3-1PrincipleoftyphoonpredictionmodelbasedonGAN圖3-1展示的是基于GAN的臺風(fēng)云系預(yù)測模型的工作原理。生成器由為全卷積神經(jīng)網(wǎng)絡(luò),圖中生成器和判別器矩形框內(nèi)的正方形組表示卷積層,判別器矩形框內(nèi)的粗虛線表示全連接層。歷史云圖序列作為生成器G的輸入,生成器G輸出生成的未來云圖序列;判別器分別判定輸入的未來的云圖序列和生成的云圖序列的真假,其結(jié)果通過反向傳播驅(qū)動整個GAN網(wǎng)絡(luò)的優(yōu)化。最終,判別器D無法區(qū)分生成器G生成的未來云圖序列的真假。本模型充分利用了臺風(fēng)云圖序列的“全時空”信息。在“時間”維度,以歷史云圖序列為訓(xùn)練數(shù)據(jù),學(xué)習(xí)臺風(fēng)的時間演化過程;在“空間”維度,將云圖的全部像素作為模型的輸入和輸出基本單元,充分考慮全部空間信息。本模型的“全時空”分析突破了目前臺風(fēng)云圖分析中僅分析單張?jiān)茍D中臺風(fēng)局部特性的局限,為臺風(fēng)預(yù)測提供更完備的可視化信息。3.1.2多尺度網(wǎng)絡(luò)結(jié)構(gòu)為提高生成衛(wèi)星云圖的清晰度,本章使用多尺度生成器和判別器,每一個尺度的生成器和判別器都遵循圖3-1中的工作原理。本小節(jié)將介紹多尺度生成器和判別器的網(wǎng)絡(luò)結(jié)構(gòu)。多尺度結(jié)構(gòu)的生成器具備由模糊到清晰的圖像生成能力,其結(jié)構(gòu)如圖3-2所示。圖3-2多尺度生成器說明Fig3-2Multi-scalegenerator判別器D真/假真實(shí)的未來云圖序列生成器G歷史云圖序列判別器D真/假生成的未來云圖序列+
【參考文獻(xiàn)】:
期刊論文
[1]利用DCNN融合特征對遙感圖像進(jìn)行場景分類[J]. 王振國,陳宏宇,徐文明. 電子設(shè)計(jì)工程. 2018(01)
[2]結(jié)合深度學(xué)習(xí)與條件隨機(jī)場的遙感圖像分類[J]. 夏夢,曹國,汪光亞,尚巖峰. 中國圖象圖形學(xué)報(bào). 2017(09)
[3]相位一致性的SAR圖像溢油分割算法研究[J]. 林宜琛,傅興玉,王峰,尤紅建. 測繪科學(xué). 2016(03)
[4]基于先驗(yàn)特征的臺風(fēng)云系影像分割方法研究[J]. 廖小露,田玉剛,劉嘉. 國土資源遙感. 2011(03)
[5]多特征-譜聚類的SAR圖像溢油分割[J]. 張偉偉,薄華,王曉峰. 智能系統(tǒng)學(xué)報(bào). 2010(06)
[6]基于紅外衛(wèi)星云圖的臺風(fēng)中心自動定位方法研究[J]. 李妍,陳希,費(fèi)樹岷. 紅外. 2010(03)
[7]利用云導(dǎo)風(fēng)矢量的臺風(fēng)中心自動定位[J]. 劉正光,喻遠(yuǎn)飛,吳冰,劉還珠. 氣象學(xué)報(bào). 2003(05)
[8]基于衛(wèi)星云圖的無眼臺風(fēng)中心定位算法[J]. 劉正光,邱海明,吳冰,劉還珠. 天津大學(xué)學(xué)報(bào). 2003(06)
[9]9711號臺風(fēng)及伴生暴雨的衛(wèi)星云圖特征[J]. 馬嵐,鄭新江,羅敬寧. 國土資源遙感. 1998(01)
博士論文
[1]基于SAR圖像的海面溢油檢測研究[D]. 馮景.北京理工大學(xué) 2015
[2]基于水平集和模糊聚類方法的圖像分割技術(shù)研究[D]. 李傳龍.大連海事大學(xué) 2012
碩士論文
[1]基于多路分層稀疏編碼的遙感圖像場景分類[D]. 鮑珍珍.西安電子科技大學(xué) 2014
[2]基于信息熵的氣象衛(wèi)星云圖臺風(fēng)分割方法研究[D]. 陳禹良.哈爾濱工程大學(xué) 2013
[3]基于氣象衛(wèi)星云圖的云類識別及臺風(fēng)分割和中心定位研究[D]. 余建波.武漢理工大學(xué) 2008
本文編號:3382449
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3382449.html
最近更新
教材專著