利用深度殘差網(wǎng)絡(luò)的遙感影像建筑物提取
發(fā)布時間:2021-10-17 04:24
高分辨率遙感影像中建筑物的提取技術(shù)一直是遙感領(lǐng)域的研究熱點(diǎn)。針對傳統(tǒng)方法需要人工選取特征的缺點(diǎn),提出一種結(jié)合深度殘差網(wǎng)絡(luò)結(jié)構(gòu)和金字塔式層級連接的高分辨率遙感影像建筑物提取方法。首先對影像進(jìn)行多尺度擴(kuò)充,保證網(wǎng)絡(luò)能夠探測不同尺度建筑物特征;其次利用新提出的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練模型,提取建筑物的像素級特征信息;然后對預(yù)測結(jié)果進(jìn)行多模型集成計算,降低隨機(jī)誤差;最后對預(yù)測概率圖選取合適的閾值,進(jìn)行過濾去除椒鹽噪聲,利用形態(tài)學(xué)運(yùn)算對結(jié)果后處理,保證建筑物完整,邊界平滑。實(shí)驗(yàn)表明,相比于其他網(wǎng)絡(luò)結(jié)構(gòu),所提網(wǎng)絡(luò)結(jié)構(gòu)的建筑物提取精度更高。
【文章來源】:遙感信息. 2020,35(02)北大核心CSCD
【文章頁數(shù)】:6 頁
【部分圖文】:
本文提出的Res-UNet結(jié)構(gòu)圖
式中:xl和xl+1是第l個殘差單元的輸入和輸出;F(xl,Wl)是殘差函數(shù);h(xl)是恒等映射函數(shù);f(yl)是ELU激活函數(shù),一般情況下,h(xl)=xl。同一階段下特征圖尺寸與數(shù)量相同,進(jìn)入下一階段時特征圖尺寸變?yōu)樵瓉淼?/2,數(shù)目變?yōu)樵瓉淼?倍。右側(cè)解碼部分也由4個階段組成,每個階段通過1×1卷積層、轉(zhuǎn)置卷積層和1×1卷積層進(jìn)行上采樣,同階段特征圖尺寸和數(shù)量與左側(cè)一致。中間跳躍連接部分受到FPN[19]的啟發(fā),設(shè)計為金字塔型層級結(jié)構(gòu),將左右兩側(cè)的特征圖進(jìn)行疊加再輸入下一層級,實(shí)現(xiàn)上下文多尺度特征融合。在網(wǎng)絡(luò)的最后,通過一個1×1卷積層和sigmoid激活函數(shù)輸出特征向量概率圖,將建筑物與背景分離。本文的網(wǎng)絡(luò)結(jié)構(gòu)解決了層數(shù)增加導(dǎo)致的梯度消失問題,金字塔結(jié)構(gòu)融合了不同層級的多尺度特征,有助于恢復(fù)建筑物邊緣信息。
通常利用深度學(xué)習(xí)訓(xùn)練獲得模型得到的預(yù)測結(jié)果都不夠齊整,有些建筑物存在椒鹽噪聲、孔洞和邊界不平滑等現(xiàn)象,因此需要閾值過濾和后處理來優(yōu)化結(jié)果。首先利用選擇好的閾值,對概率圖進(jìn)行二值化,用于區(qū)分建筑物與背景,然后對有空缺的建筑物孔洞填充,再選擇合適的像素值用于去除較大圖斑,最后進(jìn)行高斯濾波和形態(tài)學(xué)運(yùn)算對邊界進(jìn)行平滑,以上運(yùn)算由OpenCV處理。整體的工作流程如圖3所示。選取合適閾值的策略是通過對訓(xùn)練集和驗(yàn)證集進(jìn)行預(yù)測,預(yù)測結(jié)果閾值以5為步長,從50取至160,計算每個閾值下的F1值,選取最大的F1值作為測試集的二值化閾值。
【參考文獻(xiàn)】:
期刊論文
[1]面向?qū)ο蟮男螒B(tài)學(xué)建筑物指數(shù)及其高分辨率遙感影像建筑物提取應(yīng)用[J]. 林祥國,張繼賢. 測繪學(xué)報. 2017(06)
[2]高分辨率遙感影像中建筑物輪廓信息矢量化[J]. 孫金彥,黃祚繼,周紹光,徐南,錢海明,王春林. 遙感學(xué)報. 2017(03)
[3]面向?qū)ο蠛蚐VM結(jié)合的無人機(jī)數(shù)據(jù)建筑物提取[J]. 王旭東,段福洲,屈新原,李丹,余攀鋒. 國土資源遙感. 2017(01)
[4]基于改進(jìn)Harris算法的高分辨率遙感影像建筑物角點(diǎn)檢測研究[J]. 崔有禎,吳露露,辛星,陳國銳,鄭志雄. 測繪通報. 2013(09)
[5]光譜和形狀特征相結(jié)合的高分辨率遙感圖像的建筑物提取方法[J]. 吳煒,駱劍承,沈占鋒,朱志文. 武漢大學(xué)學(xué)報(信息科學(xué)版). 2012(07)
[6]基于改進(jìn)分水嶺變換的遙感圖像建筑物提取[J]. 任曉娟,肖雙九,彭小朋. 計算機(jī)應(yīng)用與軟件. 2011(12)
[7]基于對象建模的遙感影像建筑物提取方法[J]. 王世偉,方濤. 計算機(jī)仿真. 2010(12)
[8]陰影輔助下的面向?qū)ο蟪鞘薪ㄖ锾崛J]. 周亞男,沈占鋒,駱劍承,陳秋曉,胡曉東,沈金祥. 地理與地理信息科學(xué). 2010(03)
[9]基于SVM的多源遙感影像面向?qū)ο蠼ㄖ锾崛》椒╗J]. 張峰,薛艷麗,李英成,丁曉波. 國土資源遙感. 2008(02)
碩士論文
[1]面向高空間分辨率遙感影像的建筑物目標(biāo)識別方法研究[D]. 孫寧.浙江大學(xué) 2010
本文編號:3441109
【文章來源】:遙感信息. 2020,35(02)北大核心CSCD
【文章頁數(shù)】:6 頁
【部分圖文】:
本文提出的Res-UNet結(jié)構(gòu)圖
式中:xl和xl+1是第l個殘差單元的輸入和輸出;F(xl,Wl)是殘差函數(shù);h(xl)是恒等映射函數(shù);f(yl)是ELU激活函數(shù),一般情況下,h(xl)=xl。同一階段下特征圖尺寸與數(shù)量相同,進(jìn)入下一階段時特征圖尺寸變?yōu)樵瓉淼?/2,數(shù)目變?yōu)樵瓉淼?倍。右側(cè)解碼部分也由4個階段組成,每個階段通過1×1卷積層、轉(zhuǎn)置卷積層和1×1卷積層進(jìn)行上采樣,同階段特征圖尺寸和數(shù)量與左側(cè)一致。中間跳躍連接部分受到FPN[19]的啟發(fā),設(shè)計為金字塔型層級結(jié)構(gòu),將左右兩側(cè)的特征圖進(jìn)行疊加再輸入下一層級,實(shí)現(xiàn)上下文多尺度特征融合。在網(wǎng)絡(luò)的最后,通過一個1×1卷積層和sigmoid激活函數(shù)輸出特征向量概率圖,將建筑物與背景分離。本文的網(wǎng)絡(luò)結(jié)構(gòu)解決了層數(shù)增加導(dǎo)致的梯度消失問題,金字塔結(jié)構(gòu)融合了不同層級的多尺度特征,有助于恢復(fù)建筑物邊緣信息。
通常利用深度學(xué)習(xí)訓(xùn)練獲得模型得到的預(yù)測結(jié)果都不夠齊整,有些建筑物存在椒鹽噪聲、孔洞和邊界不平滑等現(xiàn)象,因此需要閾值過濾和后處理來優(yōu)化結(jié)果。首先利用選擇好的閾值,對概率圖進(jìn)行二值化,用于區(qū)分建筑物與背景,然后對有空缺的建筑物孔洞填充,再選擇合適的像素值用于去除較大圖斑,最后進(jìn)行高斯濾波和形態(tài)學(xué)運(yùn)算對邊界進(jìn)行平滑,以上運(yùn)算由OpenCV處理。整體的工作流程如圖3所示。選取合適閾值的策略是通過對訓(xùn)練集和驗(yàn)證集進(jìn)行預(yù)測,預(yù)測結(jié)果閾值以5為步長,從50取至160,計算每個閾值下的F1值,選取最大的F1值作為測試集的二值化閾值。
【參考文獻(xiàn)】:
期刊論文
[1]面向?qū)ο蟮男螒B(tài)學(xué)建筑物指數(shù)及其高分辨率遙感影像建筑物提取應(yīng)用[J]. 林祥國,張繼賢. 測繪學(xué)報. 2017(06)
[2]高分辨率遙感影像中建筑物輪廓信息矢量化[J]. 孫金彥,黃祚繼,周紹光,徐南,錢海明,王春林. 遙感學(xué)報. 2017(03)
[3]面向?qū)ο蠛蚐VM結(jié)合的無人機(jī)數(shù)據(jù)建筑物提取[J]. 王旭東,段福洲,屈新原,李丹,余攀鋒. 國土資源遙感. 2017(01)
[4]基于改進(jìn)Harris算法的高分辨率遙感影像建筑物角點(diǎn)檢測研究[J]. 崔有禎,吳露露,辛星,陳國銳,鄭志雄. 測繪通報. 2013(09)
[5]光譜和形狀特征相結(jié)合的高分辨率遙感圖像的建筑物提取方法[J]. 吳煒,駱劍承,沈占鋒,朱志文. 武漢大學(xué)學(xué)報(信息科學(xué)版). 2012(07)
[6]基于改進(jìn)分水嶺變換的遙感圖像建筑物提取[J]. 任曉娟,肖雙九,彭小朋. 計算機(jī)應(yīng)用與軟件. 2011(12)
[7]基于對象建模的遙感影像建筑物提取方法[J]. 王世偉,方濤. 計算機(jī)仿真. 2010(12)
[8]陰影輔助下的面向?qū)ο蟪鞘薪ㄖ锾崛J]. 周亞男,沈占鋒,駱劍承,陳秋曉,胡曉東,沈金祥. 地理與地理信息科學(xué). 2010(03)
[9]基于SVM的多源遙感影像面向?qū)ο蠼ㄖ锾崛》椒╗J]. 張峰,薛艷麗,李英成,丁曉波. 國土資源遙感. 2008(02)
碩士論文
[1]面向高空間分辨率遙感影像的建筑物目標(biāo)識別方法研究[D]. 孫寧.浙江大學(xué) 2010
本文編號:3441109
本文鏈接:http://sikaile.net/guanlilunwen/gongchengguanli/3441109.html
最近更新
教材專著