天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 管理論文 > 工程管理論文 >

卷積神經(jīng)網(wǎng)絡(luò)在遙感目標(biāo)識別中的應(yīng)用研究

發(fā)布時間:2018-04-28 14:27

  本文選題:目標(biāo)識別 + 高空間分辨率遙感影像�。� 參考:《中國科學(xué)院大學(xué)(中國科學(xué)院遙感與數(shù)字地球研究所)》2017年碩士論文


【摘要】:遙感目標(biāo)識別旨在定位并識別出遙感影像中的感興趣目標(biāo),它是遙感圖像處理的核心問題之一。隨著搭載平臺與傳感器技術(shù)的飛速發(fā)展,遙感影像空間分辨率不斷提高,與自然圖像在視覺上的差異也越來越小。越來越多的計算機(jī)視覺方法可被應(yīng)用于高空間分辨率遙感影像目標(biāo)識別。2012年,Krizhevsky等首次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于大規(guī)模自然圖像分類,分類精度顯著優(yōu)于傳統(tǒng)的圖像分類方法,從而掀起了卷積神經(jīng)網(wǎng)絡(luò)的研究熱潮。2014年,Girshick等提出了R-CNN(Regions with Convolutional Neural Network Features)模型,奠定了使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)識別的基礎(chǔ)。目前,基于卷積神經(jīng)網(wǎng)絡(luò)的自然圖像目標(biāo)識別算法,在精度上已經(jīng)接近了人眼的識別精度,速度上也達(dá)到了準(zhǔn)實時處理。遙感圖像空間分辨率的提高以及卷積神經(jīng)網(wǎng)絡(luò)在自然圖像分類、目標(biāo)識別等領(lǐng)域取得的成功,極大地推動了卷積神經(jīng)網(wǎng)絡(luò)在遙感圖像處理領(lǐng)域的應(yīng)用研究�;诰矸e神經(jīng)網(wǎng)絡(luò)的高分辨率遙感影像分類、目標(biāo)識別、圖像分割等研究已成為當(dāng)前研究熱點之一。本文主要研究卷積神經(jīng)網(wǎng)絡(luò)在高空間分辨率遙感影像目標(biāo)識別中的應(yīng)用,完成了以下研究工作:(1)明確了卷積神經(jīng)網(wǎng)絡(luò)特征在圖像識別中的有效性。本文在相同的遙感影像場景分類框架下,對比了卷積神經(jīng)網(wǎng)絡(luò)和詞袋模型兩種方法提取的特征性能。使用卷積神經(jīng)網(wǎng)絡(luò)特征在UcMerced數(shù)據(jù)集上分類時,平均準(zhǔn)確率均值達(dá)到了87%,在WhU數(shù)據(jù)集上優(yōu)于97%,顯著高于詞袋模型,證明了卷積神經(jīng)網(wǎng)絡(luò)特征在圖像識別領(lǐng)域比傳統(tǒng)人工特征更具有優(yōu)勢。(2)提出了一種由粗到精的高空間分辨遙感影像單類目標(biāo)識別方法。該方法首先采用基于HOG的級聯(lián)AdaBoost算法快速提取少量的感興趣區(qū)域,然后使用基于卷積神經(jīng)網(wǎng)絡(luò)特征的支持向量機(jī)對感興趣區(qū)域進(jìn)行分類。本文提出的方法在飛機(jī)識別實驗中準(zhǔn)確率和識別率分別為98.4%和87.1%。與R-CNN模型相比,本文提出的方法不但準(zhǔn)確率和識別率有所提高,而且速度是R-CNN模型的10倍,在實際應(yīng)用中具有重要意義。(3)研究了如何使用Faster-RCNN模型進(jìn)行遙感多類目標(biāo)識別。通過固定卷積神經(jīng)網(wǎng)絡(luò)低層卷積層和微調(diào)高層卷積層的方式,縮小了Faster-RCNN模型需要訓(xùn)練的參數(shù)規(guī)模。在NWPU VHR-10數(shù)據(jù)集上,使用Faster R-CNN模型進(jìn)行遙感多類目標(biāo)識別的平均準(zhǔn)確率均值達(dá)到了72.6%,說明了Faster R-CNN是一種有效的遙感多類目標(biāo)識別方法。本文研究結(jié)果表明,卷積神經(jīng)網(wǎng)絡(luò)在遙感影像目標(biāo)識別中具有巨大的應(yīng)用潛力,是當(dāng)前和未來的研究熱點。
[Abstract]:Remote sensing target recognition, which is one of the core problems in remote sensing image processing, aims to locate and identify interested objects in remote sensing images. With the rapid development of platform and sensor technology, the spatial resolution of remote sensing image is increasing, and the visual difference between remote sensing image and natural image is becoming smaller and smaller. More and more computer vision methods can be applied to target recognition of high spatial resolution remote sensing images. In 2012, convolution neural network was applied to large-scale natural image classification for the first time, and the classification accuracy was significantly better than that of traditional image classification methods. The R-CNN(Regions with Convolutional Neural Network Features (R-CNN(Regions with Convolutional Neural Network Features) model was proposed by Girshick in 2014, which laid the foundation for target recognition using convolutional neural networks. At present, the natural image target recognition algorithm based on convolution neural network has approached the recognition accuracy of human eyes and achieved quasi-real-time processing in speed. The improvement of spatial resolution of remote sensing image and the success of convolution neural network in natural image classification and target recognition greatly promote the application of convolution neural network in remote sensing image processing. The research of high resolution remote sensing image classification, target recognition and image segmentation based on convolution neural network has become one of the research hotspots. In this paper, the application of convolution neural network in high spatial resolution remote sensing image target recognition is studied. The following research work is done: 1) the effectiveness of convolution neural network feature in image recognition is clarified. In this paper, under the same remote sensing image scene classification framework, the feature performance of convolution neural network and word bag model extraction is compared. When the convolutional neural network features are used to classify UcMerced data sets, the average accuracy is 87% and 97% in WhU data sets, which is significantly higher than the word bag model. It is proved that convolutional neural network features have more advantages than traditional artificial features in image recognition. Firstly, the concatenated AdaBoost algorithm based on HOG is used to extract a small number of regions of interest, and then SVM based on convolution neural network features is used to classify the regions of interest. The accuracy and recognition rate of the proposed method are 98.4% and 87.1%, respectively. Compared with the R-CNN model, the method proposed in this paper not only improves the accuracy and recognition rate, but also is 10 times faster than the R-CNN model. It is of great significance in practical application. By means of fixed convolution layer and fine-tuned high-level convolution layer, the parameter scale of Faster-RCNN model need to be trained is reduced. On the NWPU VHR-10 data set, the average accuracy of multi-class remote sensing target recognition based on Faster R-CNN model is 72.6, which shows that Faster R-CNN is an effective method for multi-class remote sensing target recognition. The research results show that convolutional neural network has great application potential in remote sensing image target recognition, and it is a hot research topic in the future.
【學(xué)位授予單位】:中國科學(xué)院大學(xué)(中國科學(xué)院遙感與數(shù)字地球研究所)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2017
【分類號】:P237;TP751

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 李靜;黃崢;;靜態(tài)傅里葉干涉具在目標(biāo)識別中的應(yīng)用研究[J];光譜學(xué)與光譜分析;2009年08期

2 王保義;K脈沖在目標(biāo)識別中的應(yīng)用[J];四川大學(xué)學(xué)報(自然科學(xué)版);1990年02期

3 姬光榮,王鵬,呂洪濤,胡滿田;基于不變性矩的3D目標(biāo)識別[J];青島海洋大學(xué)學(xué)報;1997年03期

4 周志強(qiáng);汪渤;楊杰;呂冀;;基于局部尺度不變特征的快速目標(biāo)識別[J];光學(xué)技術(shù);2008年05期

5 羅楊潔;呂朝鳳;朱俊;;基于多角度偏振差值曲線的目標(biāo)識別初探[J];光學(xué)技術(shù);2011年03期

6 楊杰,陸正剛,郭英凱;基于數(shù)據(jù)融合和多重智能模型的目標(biāo)識別和跟蹤[J];高技術(shù)通訊;1999年04期

7 王學(xué)軍,史習(xí)智,林良驥,張明之;水下目標(biāo)識別和數(shù)據(jù)融合[J];聲學(xué)學(xué)報;1999年05期

8 任德昊;;基于波譜的目標(biāo)識別模型[J];科技信息;2010年15期

9 劉興章;王建文;;四階譜在水中目標(biāo)識別中的應(yīng)用[J];艦船科學(xué)技術(shù);2010年06期

10 陳懷新,南建設(shè);基于層次分析模糊特征融合的目標(biāo)識別[J];四川大學(xué)學(xué)報(自然科學(xué)版);2003年06期

相關(guān)會議論文 前10條

1 王宇;鐘秋海;;用統(tǒng)計模式識別方法建立海上目標(biāo)識別的數(shù)學(xué)模型[A];1995中國控制與決策學(xué)術(shù)年會論文集[C];1995年

2 鄭援;胡成軍;;基于數(shù)據(jù)融合的魚雷目標(biāo)識別[A];第十四屆全國信號處理學(xué)術(shù)年會(CCSP-2009)論文集[C];2009年

3 李夕海;趙克;慕曉冬;劉代志;;目標(biāo)識別中的特征相空間吸引子分析[A];第十屆全國信號處理學(xué)術(shù)年會(CCSP-2001)論文集[C];2001年

4 馮杰;蓋強(qiáng);古軍峰;;模糊聚類分析方法在海上目標(biāo)識別中的應(yīng)用[A];第二屆全國信息獲取與處理學(xué)術(shù)會議論文集[C];2004年

5 趙克;劉代志;慕曉東;蘇娟;;目標(biāo)識別的特征量約束[A];第九屆全國信號處理學(xué)術(shù)年會(CCSP-99)論文集[C];1999年

6 李正東;陳興無;宋琛;何武良;;多傳感器的目標(biāo)識別[A];中國工程物理研究院科技年報(1999)[C];1999年

7 郭相科;劉進(jìn)忙;曹學(xué)斌;張玉鵬;;子類獨(dú)立分量分析在聲目標(biāo)識別中的應(yīng)用[A];中國聲學(xué)學(xué)會2007年青年學(xué)術(shù)會議論文集(上)[C];2007年

8 張翠;高廣春;趙勝穎;;基于時間融合算法的近程目標(biāo)識別[A];2011下一代自動測試系統(tǒng)學(xué)術(shù)研討會論文集[C];2011年

9 俞鴻波;趙榮椿;;三維空間目標(biāo)識別概述[A];信號與信息處理技術(shù)——第一屆信號與信息處理聯(lián)合學(xué)術(shù)會議論文集[C];2002年

10 曹健;陳紅倩;毛典輝;李海生;蔡強(qiáng);;基于局部特征的圖像目標(biāo)識別問題綜述[A];2013年中國智能自動化學(xué)術(shù)會議論文集(第五分冊)[C];2013年

相關(guān)重要報紙文章 前10條

1 美國明尼蘇達(dá)大學(xué)社會學(xué)博士 密西西比州立大學(xué)國家戰(zhàn)略規(guī)劃與分析研究中心資深助理研究員 陳心想;維護(hù)好創(chuàng)新的“神經(jīng)網(wǎng)絡(luò)硬件”[N];中國教師報;2014年

2 盧業(yè)忠;腦控電腦 驚世駭俗[N];計算機(jī)世界;2001年

3 葛一鳴 路邊文;人工神經(jīng)網(wǎng)絡(luò)將大顯身手[N];中國紡織報;2003年

4 中國科技大學(xué)計算機(jī)系 邢方亮;神經(jīng)網(wǎng)絡(luò)挑戰(zhàn)人類大腦[N];計算機(jī)世界;2003年

5 記者 孫剛;“神經(jīng)網(wǎng)絡(luò)”:打開復(fù)雜工藝“黑箱”[N];解放日報;2007年

6 本報記者 劉霞;美用DNA制造出首個人造神經(jīng)網(wǎng)絡(luò)[N];科技日報;2011年

7 健康時報特約記者  張獻(xiàn)懷;干細(xì)胞移植:修復(fù)受損的神經(jīng)網(wǎng)絡(luò)[N];健康時報;2006年

8 劉力;我半導(dǎo)體神經(jīng)網(wǎng)絡(luò)技術(shù)及應(yīng)用研究達(dá)國際先進(jìn)水平[N];中國電子報;2001年

9 ;神經(jīng)網(wǎng)絡(luò)和模糊邏輯[N];世界金屬導(dǎo)報;2002年

10 鄒麗梅 陳耀群;江蘇科大神經(jīng)網(wǎng)絡(luò)應(yīng)用研究通過鑒定[N];中國船舶報;2006年

相關(guān)博士學(xué)位論文 前10條

1 肖永生;射頻隱身雷達(dá)信號設(shè)計與目標(biāo)識別研究[D];南京航空航天大學(xué);2014年

2 崔宗勇;合成孔徑雷達(dá)目標(biāo)識別理論與關(guān)鍵技術(shù)研究[D];電子科技大學(xué);2015年

3 丁軍;基于稀疏理論的SAR圖像目標(biāo)識別研究[D];西安電子科技大學(xué);2015年

4 韓靜;基于仿生視覺模型和復(fù)雜信息學(xué)習(xí)的多光譜夜視目標(biāo)識別技術(shù)[D];南京理工大學(xué);2014年

5 黃璇;多源引導(dǎo)信息融合及其關(guān)鍵技術(shù)研究[D];中國科學(xué)院研究生院(長春光學(xué)精密機(jī)械與物理研究所);2016年

6 寧宣杰;基于空防雷達(dá)網(wǎng)絡(luò)的多傳感器信息融合關(guān)鍵技術(shù)研究及其應(yīng)用[D];東北大學(xué);2014年

7 楊松巖;高頻波段雷達(dá)目標(biāo)特征提取與識別方法研究[D];哈爾濱工業(yè)大學(xué);2016年

8 張學(xué)峰;雷達(dá)高分辨距離像目標(biāo)識別與拒判方法研究[D];西安電子科技大學(xué);2015年

9 李西平;塔機(jī)超聲安全預(yù)警目標(biāo)識別的神經(jīng)網(wǎng)絡(luò)方法研究[D];西安建筑科技大學(xué);2015年

10 舒銳;衛(wèi)星目標(biāo)識別與特征參數(shù)提取方法研究[D];哈爾濱工業(yè)大學(xué);2010年

相關(guān)碩士學(xué)位論文 前10條

1 殷文斌;卷積神經(jīng)網(wǎng)絡(luò)在遙感目標(biāo)識別中的應(yīng)用研究[D];中國科學(xué)院大學(xué)(中國科學(xué)院遙感與數(shù)字地球研究所);2017年

2 許俊峰;基于模型的任意視點下三維目標(biāo)識別研究[D];南京航空航天大學(xué);2015年

3 李建;毫米波輻射計目標(biāo)識別性能測試系統(tǒng)研究[D];南京理工大學(xué);2015年

4 陳晨;紅外/毫米波復(fù)合信號處理方法及電路設(shè)計[D];南京理工大學(xué);2015年

5 王玉君;基于遠(yuǎn)紅外熱像儀的地面機(jī)動目標(biāo)識別[D];沈陽理工大學(xué);2015年

6 姚國偉;基于高分辨距離像的艦船目標(biāo)識別研究[D];哈爾濱工業(yè)大學(xué);2015年

7 周偉峰;基于神經(jīng)網(wǎng)絡(luò)的單目機(jī)器人目標(biāo)識別定位研究[D];安徽工程大學(xué);2015年

8 譚敏潔;基于壓縮感知的雷達(dá)一維距離像目標(biāo)識別[D];電子科技大學(xué);2015年

9 王翔;基于局部神經(jīng)反應(yīng)的目標(biāo)識別研究[D];華中師范大學(xué);2015年

10 劉巍;基于非均勻采樣圖像的目標(biāo)識別與跟蹤算法研究[D];北京理工大學(xué);2015年

,

本文編號:1815648

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/guanlilunwen/gongchengguanli/1815648.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶80443***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com
国产av一区二区三区久久不卡| 人妻乱近亲奸中文字幕| 日韩特级黄色大片在线观看| 亚洲综合色在线视频香蕉视频| 国产欧美日韩在线一区二区| 四季精品人妻av一区二区三区| 国产又粗又长又大高潮视频| 色婷婷视频免费在线观看| 午夜福利视频六七十路熟女| 亚洲国产另类久久精品| 91偷拍裸体一区二区三区| 国产又大又硬又粗又湿| 97人妻精品一区二区三区男同| 一区二区日韩欧美精品| 中国一区二区三区人妻 | 人妻久久一区二区三区精品99| 成人亚洲国产精品一区不卡 | 99热九九在线中文字幕| 免费黄片视频美女一区| 丰满人妻熟妇乱又乱精品古代| 亚洲国产精品久久综合网 | 日韩人妻免费视频一专区| 国产自拍欧美日韩在线观看| 欧美人禽色视频免费看| 国产精品香蕉在线的人| 日韩人妻中文字幕精品| 91在线爽的少妇嗷嗷叫| 中日韩免费一区二区三区| 国产一区日韩二区欧美| 久久青青草原中文字幕| 女人高潮被爽到呻吟在线观看| 日韩毛片视频免费观看| 偷拍洗澡一区二区三区| 久久精品国产99国产免费| 国产一级内片内射免费看| 亚洲av熟女国产一区二区三区站| 欧美精品一区二区水蜜桃| 狠狠做五月深爱婷婷综合| 色婷婷视频国产一区视频| 超碰在线免费公开中国黄片| 国产欧美日韩在线精品一二区|