天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 測(cè)繪論文 >

基于面向?qū)ο蟮膬呻A段村域無(wú)人機(jī)影像土地利用分類研究

發(fā)布時(shí)間:2020-07-18 11:39
【摘要】:目前,快速的工業(yè)化和城鎮(zhèn)化進(jìn)程伴隨著城鄉(xiāng)人口流動(dòng)和經(jīng)濟(jì)社會(huì)發(fā)展要素的重組與交互作用,對(duì)我國(guó)農(nóng)村地區(qū)土地利用方式產(chǎn)生了顯著影響。因此,快速獲取高精度的土地利用信息,探討其變化驅(qū)動(dòng)機(jī)制,對(duì)于我國(guó)正在加快推進(jìn)的美麗和諧鄉(xiāng)村與農(nóng)村農(nóng)業(yè)現(xiàn)代化建設(shè)具有重要作用。與傳統(tǒng)地面調(diào)查相比,遙感技術(shù)具有宏觀、綜合、動(dòng)態(tài)、快速等特點(diǎn),現(xiàn)已成為獲取土地利用信息最有效的手段之一。其中,對(duì)于微觀性的村域土地利用信息,由于要深入了解其內(nèi)部細(xì)節(jié),則必須要使用高分辨率遙感影像。本文以四川省邛崍市某鎮(zhèn)為研究區(qū)域,以高分辨率無(wú)人機(jī)遙感影像為數(shù)據(jù)源,對(duì)基于面向?qū)ο蟮膬呻A段村域土地利用分類方法進(jìn)行了較深入的研究,具體的研究?jī)?nèi)容與主要成果如下:(1)對(duì)獲取的無(wú)人機(jī)影像及其對(duì)應(yīng)的POS(PositionOrientation System)數(shù)據(jù)格式進(jìn)行預(yù)處理,并應(yīng)用SfM運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)技術(shù)進(jìn)行DOM產(chǎn)品制作。最后,結(jié)合像片野外實(shí)測(cè)控制點(diǎn)對(duì)DOM產(chǎn)品進(jìn)行幾何校正,獲得了較高的平面位置精度。(2)對(duì)研究區(qū)的地理位置、氣候以及地物分布狀況進(jìn)行分析,并探討了無(wú)人機(jī)影像的時(shí)相特征,初步建立了研究區(qū)土地利用分類體系。(3)針對(duì)無(wú)人機(jī)影像光譜信息不足、紋理特征豐富的具體特點(diǎn),提出了一種基于平均J-M距離增量的“擴(kuò)充特征子集法”實(shí)現(xiàn)了最優(yōu)紋理特征以及可見(jiàn)光植被指數(shù)的選取,并經(jīng)試驗(yàn)驗(yàn)證該方法選取的特征信息能夠有效地提高影像分割質(zhì)量。(4)根據(jù)地物特征的復(fù)雜情況,研究了應(yīng)用基于面向?qū)ο蟮囊?guī)則和最鄰近相結(jié)合的兩階段村域尺度土地利用分類方法,實(shí)驗(yàn)顯示最終分類結(jié)果的總體精度為92.16%,Kappa系數(shù)為85.10%,高于全局最優(yōu)分割尺度下的決策樹(shù)、支持向量機(jī)、隨機(jī)森林等分類方法,表明本文研究方法對(duì)于村域尺度的無(wú)人機(jī)影像土地利用分類具有較好的適用性。另外,對(duì)于全局最優(yōu)分割尺度,本次研究運(yùn)用一種結(jié)合空間分析的方法進(jìn)行確定,這種非監(jiān)督的分割質(zhì)量評(píng)價(jià)方法較好地克服了主觀評(píng)價(jià)的不穩(wěn)定性,可為確定無(wú)人機(jī)影像全局最優(yōu)分割尺度提供有益參考。
【學(xué)位授予單位】:西南交通大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2018
【分類號(hào)】:P237
【圖文】:

示意圖,地理位置,示意圖,小規(guī)模經(jīng)營(yíng)


塊化分布嚴(yán)重,耕作多為小規(guī)模經(jīng)營(yíng)方式,作物種類多樣化;部分土地長(zhǎng)期得不到有效利用,造成一定程度的閑置;聚居受自然地理環(huán)境約束,加上我國(guó)長(zhǎng)期重城輕鄉(xiāng)對(duì)農(nóng)村發(fā)展缺乏統(tǒng)籌規(guī)劃,居民用地分布散亂。圖2-1為研究區(qū)的地理位置示意圖。圖2-1 研究區(qū)地理位置示意圖

模型圖,三維點(diǎn)云,模型,影像


每張像片對(duì)應(yīng)曝光時(shí)刻的相機(jī)位置、構(gòu)建一個(gè)稀疏的三維點(diǎn)云模型以及獲取相機(jī)內(nèi)部校準(zhǔn)參數(shù)(焦距、主點(diǎn)位置和三個(gè)徑向和兩個(gè)切向畸變系數(shù)),并對(duì)可能存在的影像畸變差進(jìn)行校正,圖2-2為生成的三維點(diǎn)云模型;圖2-2 三維點(diǎn)云模型(4)創(chuàng)建密集點(diǎn)云及格網(wǎng)模型。與對(duì)齊影像階段不同,密集點(diǎn)云是基于影像像元值建立,然后基于點(diǎn)云生成格網(wǎng)模型,此時(shí)可以對(duì)模型不需要的面以及影像重疊不夠引起的航空漏洞等現(xiàn)象做一定人工編輯;(5)為格網(wǎng)模型創(chuàng)建紋理,并將制圖模式設(shè)置為正射影像;(6)生成并輸出DOM數(shù)字產(chǎn)品,像元大小設(shè)置為0.2m,投影模式為WGS-84坐標(biāo)系;圖2-3(a)是制作的DOM影像。2.2.3 DOM 精度評(píng)定由于影像曝光時(shí)刻的POS數(shù)據(jù)采用WGS-84坐標(biāo)系,和影像野外控制點(diǎn)的坐標(biāo)系不一致,又二者轉(zhuǎn)換參數(shù)未知,故在DOM制作過(guò)程中沒(méi)有使用影像野外控制點(diǎn)數(shù)據(jù)。在這種情況下

距離增量,紋理特征,類別,可分性


表示樣本不具有可分性;J-M距離位于1.0-1.9之間,表示樣本具有一定的可分性,但存在較大重疊度;J-M距離位于1.9-2.0之間,表示樣本可分性較好(馬娜 等,2010)。圖2-4 不同紋理特征作用下地物類別間的平均J-M距離增量

【參考文獻(xiàn)】

相關(guān)期刊論文 前10條

1 馮文卿;眭海剛;涂繼輝;孫開(kāi)敏;黃偉明;;高分辨率遙感影像的隨機(jī)森林變化檢測(cè)方法[J];測(cè)繪學(xué)報(bào);2017年11期

2 胡健波;張健;;無(wú)人機(jī)遙感在生態(tài)學(xué)中的應(yīng)用進(jìn)展[J];生態(tài)學(xué)報(bào);2018年01期

3 徐秀云;陳向;劉寶梅;;微型無(wú)人機(jī)助力土地整治項(xiàng)目監(jiān)管[J];測(cè)繪通報(bào);2017年03期

4 薛武;張永生;趙玲;于英;王濤;李磊;;增量式SFM與POS輔助光束法平差精度比較[J];測(cè)繪學(xué)報(bào);2017年02期

5 曹明偉;李書(shū)杰;賈偉;劉曉平;;面向大規(guī)模SFM的快速魯棒特征跟蹤算法[J];儀器儀表學(xué)報(bào);2017年01期

6 趙文強(qiáng);林舟;;SfM精細(xì)表面測(cè)量:分辨率和精度的評(píng)估及誤差分析[J];地理與地理信息科學(xué);2016年06期

7 韓文霆;郭聰聰;張立元;楊江濤;雷雨;王紫軍;;基于無(wú)人機(jī)遙感的灌區(qū)土地利用與覆被分類方法[J];農(nóng)業(yè)機(jī)械學(xué)報(bào);2016年11期

8 廖小罕;周成虎;蘇奮振;盧海英;岳煥印;緱吉平;;無(wú)人機(jī)遙感眾創(chuàng)時(shí)代[J];地球信息科學(xué)學(xué)報(bào);2016年11期

9 黎治坤;鄭史芳;劉銳;黃小川;;幾種無(wú)人機(jī)正射影像處理軟件的比較[J];測(cè)繪通報(bào);2016年06期

10 喬陸印;劉彥隨;;新時(shí)期中國(guó)農(nóng)村土地綜合整治邏輯體系框架[J];人文地理;2016年03期

相關(guān)博士學(xué)位論文 前2條

1 孫家波;基于知識(shí)的高分辨率遙感影像耕地自動(dòng)提取技術(shù)研究[D];中國(guó)農(nóng)業(yè)大學(xué);2014年

2 黃慧萍;面向?qū)ο笥跋穹治鲋械某叨葐?wèn)題研究[D];中國(guó)科學(xué)院研究生院(遙感應(yīng)用研究所);2003年

相關(guān)碩士學(xué)位論文 前1條

1 劉麗雅;基于國(guó)產(chǎn)GF-1的高寒山區(qū)土地利用/覆蓋分類研究[D];浙江大學(xué);2016年



本文編號(hào):2760842

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/dizhicehuilunwen/2760842.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶67290***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com