天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于深度學(xué)習(xí)的GF-2影像建筑物提取研究

發(fā)布時(shí)間:2020-12-21 02:10
  在高分辨率遙感影像中,由于城市地表建筑物所具有的高度復(fù)雜性,使得直接基于遙感影像進(jìn)行建筑物提取一直是影像信息分析中的難點(diǎn)。由于面向?qū)ο蟮慕ㄖ锾崛》椒ㄔ趯?shí)際應(yīng)用中提取精度不高以及后處理工作量大等局限性,近年來(lái)基于深度學(xué)習(xí)算法對(duì)建筑物進(jìn)行提取的技術(shù)在建筑物提取的各類算法中嶄露頭角。目前,大多數(shù)深度學(xué)習(xí)方法均采用全卷積網(wǎng)絡(luò)(FCN)的變體,如U-Net、SegNet和RestNet等。這些網(wǎng)絡(luò)具有顯著改善模型性能和抽象特征提取能力的優(yōu)勢(shì),從而能夠準(zhǔn)確地完成圖像的目標(biāo)分割與識(shí)別。為了充分利用高分影像中建筑物的全局和局部信息以更精確地對(duì)建筑物進(jìn)行分割提取,本文提出了基于全卷積神經(jīng)網(wǎng)絡(luò)上針對(duì)邊界約束的校正神經(jīng)網(wǎng)絡(luò)模型(Boundary Regulated Network,BR-Net),使得建筑物的邊界提取更加清晰完整。該模型由共享后端和多任務(wù)預(yù)測(cè)模塊組成,利用修改的U-Net和多任務(wù)框架,根據(jù)共享后端的一致特征生成分割圖預(yù)測(cè)值和輪廓構(gòu)建。通過(guò)對(duì)邊界信息的規(guī)定,提高了模型性能。并將改進(jìn)后的模型應(yīng)用于國(guó)際開源WHU建筑物數(shù)據(jù)集上,通過(guò)與傳統(tǒng)的U-Net、SegNet、RestNet模型進(jìn)行對(duì)比實(shí)驗(yàn)... 

【文章來(lái)源】:江西理工大學(xué)江西省

【文章頁(yè)數(shù)】:95 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的GF-2影像建筑物提取研究


單層神經(jīng)元輸入輸出示意

效果圖,效果,均值,卷積


第二章深度學(xué)習(xí)理論與模型14也可以采用雙極性S型函數(shù)形式:f(v)=21+1=11+(2.6)2.2卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)機(jī)器學(xué)習(xí)是在深度學(xué)習(xí)出現(xiàn)之前,基于樣本進(jìn)行結(jié)果生成預(yù)測(cè)類問(wèn)題的主流使用算法。但是機(jī)器學(xué)習(xí)需要具體的參數(shù)輸入,耗時(shí)耗力[64]。隨著深度學(xué)習(xí)的出現(xiàn),其以自動(dòng)提取數(shù)據(jù)高維特征,無(wú)需自行完成對(duì)具體特征進(jìn)行提取,直接自動(dòng)進(jìn)行數(shù)據(jù)篩選,借助計(jì)算機(jī)內(nèi)部算法節(jié)約了大量研究者的工作時(shí)間和并提高了工作效率提高。同時(shí),深度學(xué)習(xí)還可以無(wú)縫結(jié)合的應(yīng)用于大數(shù)據(jù)中。其中,卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)常應(yīng)用在計(jì)算機(jī)視覺(jué)分析中;谠摼W(wǎng)絡(luò)的權(quán)重共享以及翻轉(zhuǎn)不變性等特點(diǎn),也稱之為空間或平移不變的神經(jīng)網(wǎng)絡(luò)[65]。1輸入層輸入層的主要作用使對(duì)原始輸入圖像進(jìn)行去均值、歸一化和PCA/白化的預(yù)處理,如下圖2.2所示。圖2.2去均值與歸一化效果(左)去相關(guān)與白化效果(右)2卷積層在卷積層中各個(gè)卷積單元都采用反向傳播算法以確定卷積層中的參數(shù)最佳值。卷積層作為卷積神經(jīng)網(wǎng)絡(luò)中的核心組成,其每次的卷積對(duì)象均為對(duì)上一個(gè)區(qū)域圖像的像素值計(jì)算,并非圖像上所有的像素輸入[66]。在卷積層中進(jìn)行低層特征提取時(shí),卷積操作能提取到圖片的部分邊緣特征信息。以此重復(fù)卷積操作,后對(duì)這些檢測(cè)戴的邊緣特征采用一定數(shù)量的卷積核滑動(dòng)提取,最后則可以根據(jù)低層提取到的邊緣特征中抽象提取出高層的圖像特征。用公式表示為:,=(∑∑,=1=1×+,++)(2.7)

特征圖,邊界,過(guò)濾器,參數(shù)


第二章深度學(xué)習(xí)理論與模型15式中,為第v行、第u的列的卷積核權(quán)重參數(shù),a為偏置項(xiàng)的參數(shù),+,+為圖像的第i+v行、第j+u列的元素,i,j為卷積核在圖像上滑動(dòng)了i行和j列,f(.)為激活函數(shù)。,表示輸出特征圖中第n行m列的元素值。在卷積層中涉及以下四個(gè)參數(shù):(1)Padding:在卷積運(yùn)算時(shí),輸出矩陣的大小會(huì)在卷積運(yùn)算過(guò)程中導(dǎo)致輸入后的運(yùn)算結(jié)果變校因此,可以選擇對(duì)矩陣的四周以0值來(lái)填充使矩陣能得到原始輸入大小,即padding(P)。如下圖2.3中,當(dāng)P=1時(shí),藍(lán)色框中為原5×5的矩陣,四周采用0作為padding。(2)stride:在卷積運(yùn)算中,過(guò)濾器通過(guò)在輸入矩陣中移動(dòng)的點(diǎn)積運(yùn)算獲取結(jié)果。其中過(guò)濾器每次移動(dòng)時(shí)的步長(zhǎng)即為stride(S)。如下圖2.3中,S=2的時(shí)候,過(guò)濾器每次移動(dòng)的距離為2。圖2.3邊界補(bǔ)零(左)、移動(dòng)步長(zhǎng)所S=2(右)由以上padding和stride兩個(gè)參數(shù),加上輸入矩陣參數(shù)大小(W),過(guò)濾器大小(F),計(jì)算輸出矩陣R為:R=(WF+2P)+1(2.8)(3)局部連接:下層神經(jīng)元與上層輸入神經(jīng)元的局部區(qū)域的連接,稱為卷積神經(jīng)網(wǎng)絡(luò)感受野。在對(duì)圖像進(jìn)行卷積操作的過(guò)程時(shí),神經(jīng)元的局部連接存在于空間維度上,全連接僅存在于深度上。局部連接能使得學(xué)習(xí)之后過(guò)濾器能最強(qiáng)的響應(yīng)于局部的輸入特征,從而很大程度上對(duì)網(wǎng)絡(luò)的參數(shù)減少。(4)參數(shù)共享:在運(yùn)算中,每一個(gè)深度上的輸入矩陣的步長(zhǎng)計(jì)算都采用相同的過(guò)濾器矩陣,即參數(shù)共享。在實(shí)際操作中,采參數(shù)共享策略,進(jìn)一步減少參數(shù)個(gè)數(shù),提升網(wǎng)絡(luò)的計(jì)算效率。3池化層

【參考文獻(xiàn)】:
期刊論文
[1]遙感影像中建筑物平面及高度信息提取方法[J]. 孫彥花.  科技創(chuàng)新與應(yīng)用. 2020(05)
[2]基于高分二號(hào)衛(wèi)星遙感數(shù)據(jù)的建筑物高度提取[J]. 趙強(qiáng),楊志,蘇紅超,楊世植.  大氣與環(huán)境光學(xué)學(xué)報(bào). 2019(06)
[3]基于高分二號(hào)數(shù)據(jù)的面向?qū)ο蟪鞘型恋乩梅诸愌芯縖J]. 宋明輝.  遙感技術(shù)與應(yīng)用. 2019(03)
[4]遙感影像建筑物提取的卷積神經(jīng)元網(wǎng)絡(luò)與開源數(shù)據(jù)集方法[J]. 季順平,魏世清.  測(cè)繪學(xué)報(bào). 2019(04)
[5]面向?qū)ο蟮亩喑叨榷嗵卣鞲叻诌b感影像建筑物提取[J]. 呂道雙,林娜,張小青.  北京測(cè)繪. 2019(02)
[6]高分辨率遙感影像建筑物分級(jí)提取[J]. 游永發(fā),王思遠(yuǎn),王斌,馬元旭,申明,劉衛(wèi)華,肖琳.  遙感學(xué)報(bào). 2019(01)
[7]基于深度學(xué)習(xí)的高分辨率遙感影像建筑物提取方法[J]. 范榮雙,陳洋,徐啟恒,王競(jìng)雪.  測(cè)繪學(xué)報(bào). 2019(01)
[8]集成特征分量的高分辨率遙感影像建筑物陰影檢測(cè)[J]. 謝亞坤,馮德俊,李強(qiáng),王垠入,瑚敏君.  測(cè)繪通報(bào). 2018(10)
[9]基于高分辨率遙感影像的建筑物快速提取[J]. 何成斌.  測(cè)繪標(biāo)準(zhǔn)化. 2018(02)
[10]基于卷積網(wǎng)絡(luò)的遙感圖像建筑物提取技術(shù)研究[J]. 付發(fā),未建英,張麗娜.  軟件工程. 2018(06)

碩士論文
[1]高光譜高空間分辨率遙感影像建筑物提取及場(chǎng)景理解[D]. 徐銳.重慶交通大學(xué) 2018
[2]遙感影像高大建筑物陰影檢測(cè)與去除算法研究[D]. 葛樂(lè).中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院長(zhǎng)春光學(xué)精密機(jī)械與物理研究所) 2018
[3]基于形狀規(guī)則指數(shù)的遙感影像建筑物提取研究[D]. 章煉偉.武漢大學(xué) 2018
[4]高分辨率遙感影像建筑物提取研究[D]. 黃冰晶.昆明理工大學(xué) 2018
[5]南寧市西鄉(xiāng)塘區(qū)城市綠地信息提取及景觀格局分析[D]. 杜夢(mèng)龍.廣西大學(xué) 2017
[6]高分辨率遙感影像建筑物輪廓提取方法研究[D]. 何靜然.成都理工大學(xué) 2016
[7]基于高分辨率彩色遙感影像的建筑物提取研究[D]. 高春霞.昆明理工大學(xué) 2016
[8]建筑物半自動(dòng)提取方法的研究[D]. 趙穎.中國(guó)測(cè)繪科學(xué)研究院 2013
[9]高分辨率遙感影像建筑物提取技術(shù)研究[D]. 魏德強(qiáng).解放軍信息工程大學(xué) 2013
[10]一種高分辨率遙感圖像建筑物特征分級(jí)提取算法[D]. 姚高偉.信陽(yáng)師范學(xué)院 2013



本文編號(hào):2928987

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/benkebiyelunwen/2928987.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶9ada6***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com
午夜福利视频偷拍91| 九九蜜桃视频香蕉视频| 五月激情综合在线视频| 欧美三级不卡在线观线看| 精品欧美日韩一区二区三区| 免费观看成人免费视频| 激情亚洲内射一区二区三区| 久久99这里只精品热在线| 中文人妻精品一区二区三区四区 | 亚洲欧洲一区二区中文字幕| 亚洲熟女乱色一区二区三区| 麻豆国产精品一区二区| 香蕉久久夜色精品国产尤物| 日本妇女高清一区二区三区| 国产精品欧美激情在线观看| av在线免费观看一区二区三区| 国产精品尹人香蕉综合网| 可以在线看的欧美黄片| 少妇在线一区二区三区| 精品人妻一区二区三区免费看| 中文字幕乱码一区二区三区四区| 日韩精品中文在线观看| 欧美一区二区三区高潮菊竹| 亚洲一区二区三区一区| 亚洲一区二区亚洲日本| 中文字幕精品一区二区三| 高清在线精品一区二区| 欧美精品女同一区二区| 亚洲高清中文字幕一区二区三区 | 国产精品免费无遮挡不卡视频| 亚洲欧美日本成人在线| 人妻偷人精品一区二区三区不卡 | 91日韩欧美在线视频| 久久亚洲成熟女人毛片| 成人精品欧美一级乱黄| 国产不卡免费高清视频| 中文字幕日韩无套内射| 一二区中文字幕在线观看 | 亚洲欧美日韩另类第一页| 欧美国产日本免费不卡| 国产伦精品一区二区三区精品视频|