天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 海洋學(xué)論文 >

基于遙感多時(shí)相影像的南海北部灣地區(qū)地物分類與識(shí)別方法研究

發(fā)布時(shí)間:2020-07-17 22:25
【摘要】:隨著遙感技術(shù)的發(fā)展,遙感數(shù)據(jù)的類型越來(lái)越豐富、數(shù)據(jù)量日益劇增,海量的遙感數(shù)據(jù)在同一地區(qū)形成了多時(shí)相遙感影像序列數(shù)據(jù)。遙感影像時(shí)間分辨率的提高,使得遙感數(shù)據(jù)中蘊(yùn)含的時(shí)間維度信息越來(lái)越豐富。遙感影像時(shí)間維度信息的增加拓展了遙感數(shù)據(jù)的應(yīng)用領(lǐng)域,如何利用或借鑒目前成熟的技術(shù)方法,挖掘海量遙感數(shù)據(jù)所蘊(yùn)含的豐富信息(特別是時(shí)間維信息),提高多時(shí)相遙感圖像地物分類識(shí)別精度始終是遙感應(yīng)用領(lǐng)域研究人員無(wú)法回避的難題。論文針對(duì)這一難題,以中國(guó)南海北部灣地區(qū)為研究區(qū),在借鑒多分類器融合算法、隨機(jī)森林算法和指紋識(shí)別技術(shù)等理論的基礎(chǔ)上,重點(diǎn)研究了如何利用多時(shí)相遙感圖像中蘊(yùn)含的豐富信息的方法,從兩種算法構(gòu)建思路(即改善優(yōu)化現(xiàn)有遙感圖像分類算法和借鑒相關(guān)領(lǐng)域技術(shù)構(gòu)建全新遙感圖像分類識(shí)別算法)出發(fā),構(gòu)建了多時(shí)相遙感影像分類與識(shí)別算法。具體來(lái)說(shuō),論文通過(guò)對(duì)多分類器融合算法和隨機(jī)森林算法的分析,首先利用穩(wěn)定權(quán)重加權(quán)投票法對(duì)多分類器融合算法做了相應(yīng)的改進(jìn),并在借鑒隨機(jī)森林算法的基礎(chǔ)上,將改進(jìn)后的多分類器融合算法應(yīng)用于多時(shí)相遙感圖像分類;隨后借鑒指紋識(shí)別技術(shù)提出了基于像元圖像指紋識(shí)別技術(shù)的多時(shí)相遙感圖像分類與識(shí)別算法;最后利用研究區(qū)多時(shí)相Landsat OLI影像數(shù)據(jù)進(jìn)行了算法的驗(yàn)證測(cè)試,算法的分類識(shí)別精度達(dá)到了預(yù)期效果。論文的研究結(jié)論和創(chuàng)新點(diǎn)包括:(1)構(gòu)建了基于穩(wěn)定權(quán)重加權(quán)投票的多分類器融合算法。在借鑒前人關(guān)于多分類器融合算法相關(guān)研究成果的基礎(chǔ)上,對(duì)比分析了基于多種投票模式的多分類器融合分類結(jié)果,提出了穩(wěn)定權(quán)重的概念,改進(jìn)了精度權(quán)重值的不穩(wěn)定性問(wèn)題,并對(duì)穩(wěn)定權(quán)重進(jìn)行了修正,最終構(gòu)建了基于穩(wěn)定權(quán)重加權(quán)投票的多分類器融合算法。該算法不僅改善了分類器的分類性能,顯著提高了遙感圖像分類精度,而且避免了因精度評(píng)價(jià)樣本的抽樣性帶來(lái)的不穩(wěn)定性問(wèn)題。通過(guò)測(cè)試可知:算法分類結(jié)果的總體精度從各子分類器分類結(jié)果的52.76%-58.23%提升至61.54%,提升了3.31%-8.78%。(2)提出了基于穩(wěn)定權(quán)重加權(quán)投票的多分類器迭代融合算法模式。利用迭代算法思想,對(duì)基于穩(wěn)定權(quán)重加權(quán)投票的多分類器融合算法進(jìn)行了改進(jìn),提出了基于穩(wěn)定權(quán)重加權(quán)投票的多分類器迭代融合算法模式,充分挖掘了多分類器融合算法的潛力,進(jìn)一步提升了分類精度。(3)提出了基于穩(wěn)定權(quán)重加權(quán)投票的多訓(xùn)練樣本集多時(shí)相影像多分類器三重融合算法模式。為了挖掘利用多時(shí)相遙感影像所蘊(yùn)含的豐富地物信息(特別是時(shí)間維度信息),論文通過(guò)分析遙感圖像監(jiān)督分類過(guò)程中的三個(gè)主要影響因素,在借鑒隨機(jī)森林算法思想的基礎(chǔ)上,提出了基于穩(wěn)定權(quán)重加權(quán)投票的多訓(xùn)練樣本集多時(shí)相影像多分類器三重融合算法模式。該算法充分考慮了遙感圖像分類過(guò)程中的影響因素,改善了因訓(xùn)練樣本抽樣特性帶來(lái)的不穩(wěn)定性問(wèn)題,改善了不同分類器的性能差異問(wèn)題,同時(shí)也在一定程度改善了單一時(shí)相遙感影像所帶來(lái)的“同物異譜,異物同譜”的影響,通過(guò)算法的三次融合融合分類,極大限度地提升了遙感圖像的分類精度。算法測(cè)試結(jié)果表明:總體精度從最初的42.30%-69.08%提升至83.09%,提升了 14.01%-40.39%,提升幅度顯著。(4)構(gòu)建了基于像元圖像指紋識(shí)別的多時(shí)相遙感圖像分類識(shí)別算法。在借鑒指紋識(shí)別技術(shù)原理的基礎(chǔ)上,論文通過(guò)構(gòu)建遙感多時(shí)相影像的像元圖像的方法,利用Hash算法原理,提出了基于像元圖像指紋識(shí)別的多時(shí)相遙感圖像分類算法和基于像元圖像指紋識(shí)別的多時(shí)相遙感圖像目標(biāo)地物識(shí)別算法。該算法充分利用了多時(shí)相遙感影像豐富的時(shí)間維度信息,有效解決了高維影像數(shù)據(jù)的數(shù)據(jù)冗余所帶來(lái)的算法效率低下問(wèn)題,提高了遙感圖像分類精度的同時(shí),提升了算法運(yùn)算效率。通過(guò)算法最終測(cè)試可知:分類算法測(cè)試結(jié)果的總體精度可到達(dá)80%以上,而從識(shí)別算法的測(cè)試結(jié)果(紅樹(shù)林和桉樹(shù)林)來(lái)看,識(shí)別算法對(duì)紅樹(shù)林和桉樹(shù)林的識(shí)別正確率分別達(dá)到了 79.63%和75.54%。測(cè)試結(jié)果表明算法取得了令人滿意的效果。論文利用多分類器融合思想和迭代算法思想構(gòu)建了基于穩(wěn)定權(quán)重加權(quán)投票的多分類器融合算法及其迭代融合算法,并將其應(yīng)用于遙感多時(shí)相影像;進(jìn)而構(gòu)建了基于穩(wěn)定權(quán)重加權(quán)投票的多訓(xùn)練樣本集多時(shí)相影像多分類器三重融合算法模式,消弱了遙感圖像監(jiān)督分類過(guò)程中的各因素對(duì)分類結(jié)果的不利影響,改善了分類效果,提高了分類精度,但是該算法分類過(guò)程復(fù)雜冗長(zhǎng),算法效率較為低下。而論文最后構(gòu)建的基于像元圖像指紋識(shí)別的多時(shí)相影像分類算法,通過(guò)圖像壓縮技術(shù),在提高算法效率的前提下,挖掘了多時(shí)相影像的時(shí)間維度信息,一定程度上改善了遙感圖像分類效果,提高了分類精度,另外該算法經(jīng)過(guò)改進(jìn),通過(guò)利用統(tǒng)計(jì)分析結(jié)果設(shè)定合理閾值的方式,將分類算法轉(zhuǎn)化為目標(biāo)地物的識(shí)別算法,使得地物類型的識(shí)別更加快速有效;趦煞N算法思路構(gòu)建的分類(識(shí)別)算法或者模式,各有優(yōu)劣。
【學(xué)位授予單位】:南京大學(xué)
【學(xué)位級(jí)別】:博士
【學(xué)位授予年份】:2018
【分類號(hào)】:P715.7
【圖文】:

分類結(jié)果


I^SBl邋trsm邋■■邋.T^M-1邐1邋水咖邐丨域_邋林邐^逡逑圖3-2邋2013306_MiD的分類結(jié)果圖逡逑Figure邋3-2邋The邋classification邋result邋of邋20133

分類結(jié)果


邐'""邐^逡逑圖3-3邋2013306_ML的分類結(jié)果圖逡逑Figure邋3-邋3邋The邋classification邋result邋of邋2013306_ML逡逑2013306邋SAM逡逑_]夂分邋f邐”邋I備…'l邋H邋l邋l邋*fUI邋mi邋冬邋K邐丨1MH邐—邋—邐M^^M^TI|||IIH1?II邐A逡逑■i邐VP?M邋MB邐|邐|邋|簦,,彳和力∮z灣澹祝祝族危掊義賢跡常村澹玻埃保常常埃叮擼櫻粒偷姆擲嘟峁煎義希疲椋紓酰潁邋澹常澹村澹裕瑁邋澹悖歟幔螅螅椋媯椋悖幔簦椋錚鑠澹潁澹螅酰歟翦澹錚駑澹玻埃保常常埃叮擼櫻粒灣義希玻瑰義

本文編號(hào):2760014

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/haiyang/2760014.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶ce21c***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com