基于深度學(xué)習(xí)與超分辨率重建的遙感高時(shí)空融合方法
發(fā)布時(shí)間:2023-06-03 10:44
針對(duì)遙感影像的"時(shí)空矛盾",提出一種改進(jìn)STARFM的遙感高時(shí)空融合方法。利用SRCNN對(duì)低分辨率影像進(jìn)行超分辨率重建,由于所融合的2組影像分辨率差距過(guò)大,網(wǎng)絡(luò)訓(xùn)練困難,先將2組影像均采樣至某一中間分辨率,使用高分辨率影像作為低分辨率影像的先驗(yàn)知識(shí)進(jìn)行SRCNN重建,再將得到的中間分辨率影像重采樣后以原始高分辨率影像作為先驗(yàn)知識(shí)進(jìn)行第2次SRCNN重建,得到的最終重建圖像相比原先使用插值法重采樣所得圖像,在PSNR和SSIM上均有提升,緩解了傳感器差異所造成的系統(tǒng)誤差。STARFM融合方法在篩選相似像元與計(jì)算權(quán)重時(shí)均使用專家知識(shí)提取人工特征,基于STARFM時(shí)空融合的基本思想,以SRCNN作為基本框架自動(dòng)提取特征,實(shí)驗(yàn)結(jié)果表明,其MSE值相比原方法更低,進(jìn)一步提高了遙感時(shí)空融合的質(zhì)量,有利于充分利用遙感影像。
【文章頁(yè)數(shù)】:9 頁(yè)
【文章目錄】:
1 引言
2 基于改進(jìn)STARFM的遙感高時(shí)空融合方法
2.1 基于深度學(xué)習(xí)的超分辨率重建方法
2.2 時(shí)空自適應(yīng)反射率融合模型
3 實(shí)驗(yàn)結(jié)果與分析
3.1 研究區(qū)域及數(shù)據(jù)源
3.2 實(shí)驗(yàn)方法
3.2.1 超分辨率重建實(shí)驗(yàn)方法
3.2.2 時(shí)空融合實(shí)驗(yàn)方法
3.2.3 實(shí)驗(yàn)結(jié)果與分析
4 結(jié)束語(yǔ)
本文編號(hào):3829185
【文章頁(yè)數(shù)】:9 頁(yè)
【文章目錄】:
1 引言
2 基于改進(jìn)STARFM的遙感高時(shí)空融合方法
2.1 基于深度學(xué)習(xí)的超分辨率重建方法
2.2 時(shí)空自適應(yīng)反射率融合模型
3 實(shí)驗(yàn)結(jié)果與分析
3.1 研究區(qū)域及數(shù)據(jù)源
3.2 實(shí)驗(yàn)方法
3.2.1 超分辨率重建實(shí)驗(yàn)方法
3.2.2 時(shí)空融合實(shí)驗(yàn)方法
3.2.3 實(shí)驗(yàn)結(jié)果與分析
4 結(jié)束語(yǔ)
本文編號(hào):3829185
本文鏈接:http://sikaile.net/guanlilunwen/gongchengguanli/3829185.html
最近更新
教材專著