面向空地協(xié)同應急的地表可通行性分析方法
發(fā)布時間:2021-07-12 07:03
在野外災害應急與救援過程中,受災害或復雜地表環(huán)境的影響,快速搜索一條到達目的地的可通行性路徑是一項具有挑戰(zhàn)性的任務。近些年隨著空地協(xié)同技術的不斷發(fā)展,利用無人機為地面車載系統(tǒng)提供其周邊環(huán)境的數(shù)據(jù)并搜索可通行路徑成為空地協(xié)同技術研發(fā)的一個熱點。本文利用機器學習方法,結合基于無人機獲取的野外可見光影像自動生成的數(shù)字表面模型(DSM)對該無人機可見光影像進行了詳細分類,得到了較傳統(tǒng)方法更好的分類結果;然后基于一般性規(guī)律,建立了地表可通行性判斷條件與通行速度計算公式;再通過引入分類結果以及分類的不確定性因子,對A*算法進行了改進。基于改進的A*算法實現(xiàn)了實驗區(qū)可通行性路徑的快速搜索以及路徑的可靠性評價,實驗表明本文方法可得到更合理的結果。
【文章來源】:石河子大學學報(自然科學版). 2019,37(01)北大核心
【文章頁數(shù)】:9 頁
【部分圖文】:
實驗區(qū)(新疆阿勒泰市克蘭河流域)無人機航拍影像與數(shù)字表面模型
以及數(shù)字表面模型(DSM)(圖1)。由于空地協(xié)同系統(tǒng)的應用環(huán)境通常比較復雜,比如人眼不易判別地物及周邊條件的環(huán)境,因此我們所選取的實驗時間和區(qū)域均具有一定的挑戰(zhàn)性,如圖1無人機所獲取的區(qū)域,不同種類的地物,即使人眼判別也有一定難度。針對該區(qū)域地表覆蓋情況,我們將地物分為九類,類別如表1所示,常規(guī)的遙感影像分類算法很難對這類環(huán)境的可見光影像進行良好分類。在本項研究中我們使用訓練好的卷積神經(jīng)網(wǎng)絡對該可見光影像進行分類,得到的結果如圖2所示,分類的整體精度為97.9630%,其Kappa系數(shù)為0.9765;圖3展示了該區(qū)域內(nèi)像元分類正確性的分布圖。圖1實驗區(qū)(新疆阿勒泰市克蘭河流域)無人機航拍影像與數(shù)字表面模型Fig.1AerialimagecapturedusingUAVandcorrespondingDSMintheexperimentalarea(KelanRiverBasin,AltayXinjiang)圖2克蘭河流域遙感影像分類結果圖Fig.2ClassificationresultmapforremotesensingimageoftheKelanRiverBasin圖3實驗區(qū)域像元分類正確性分布圖(灰度越小,表明正確率越高)Fig.3Distributionofclassificationcorrectnessofthepixelsinexperimentalarea(Thesmallerthegraylevel,thehigherthecorrectrate)李修賢,等:面向空地協(xié)同應急的地表可通行性分析方法15
影像處理軟件進行全自動拼接處理,得到航拍區(qū)域的拼接影像以及數(shù)字表面模型(DSM)(圖1)。由于空地協(xié)同系統(tǒng)的應用環(huán)境通常比較復雜,比如人眼不易判別地物及周邊條件的環(huán)境,因此我們所選取的實驗時間和區(qū)域均具有一定的挑戰(zhàn)性,如圖1無人機所獲取的區(qū)域,不同種類的地物,即使人眼判別也有一定難度。針對該區(qū)域地表覆蓋情況,我們將地物分為九類,類別如表1所示,常規(guī)的遙感影像分類算法很難對這類環(huán)境的可見光影像進行良好分類。在本項研究中我們使用訓練好的卷積神經(jīng)網(wǎng)絡對該可見光影像進行分類,得到的結果如圖2所示,分類的整體精度為97.9630%,其Kappa系數(shù)為0.9765;圖3展示了該區(qū)域內(nèi)像元分類正確性的分布圖。圖1實驗區(qū)(新疆阿勒泰市克蘭河流域)無人機航拍影像與數(shù)字表面模型Fig.1AerialimagecapturedusingUAVandcorrespondingDSMintheexperimentalarea(KelanRiverBasin,AltayXinjiang)圖2克蘭河流域遙感影像分類結果圖Fig.2ClassificationresultmapforremotesensingimageoftheKelanRiverBasin圖3實驗區(qū)域像元分類正確性分布圖(灰度越小,表明正確率越高)Fig.3Distributionofclassificationcorrectnessofthepixelsinexperimentalarea(Thesmallerthegraylevel,thehigherthecorrectrate)李修賢,等:面向空地協(xié)同應急的地表可通行性分析方法15
【參考文獻】:
期刊論文
[1]基于深度學習的高分辨率遙感影像分類研究[J]. 劉大偉,韓玲,韓曉勇. 光學學報. 2016(04)
[2]基于DBN模型的遙感圖像分類[J]. 呂啟,竇勇,牛新,徐佳慶,夏飛. 計算機研究與發(fā)展. 2014(09)
本文編號:3279452
【文章來源】:石河子大學學報(自然科學版). 2019,37(01)北大核心
【文章頁數(shù)】:9 頁
【部分圖文】:
實驗區(qū)(新疆阿勒泰市克蘭河流域)無人機航拍影像與數(shù)字表面模型
以及數(shù)字表面模型(DSM)(圖1)。由于空地協(xié)同系統(tǒng)的應用環(huán)境通常比較復雜,比如人眼不易判別地物及周邊條件的環(huán)境,因此我們所選取的實驗時間和區(qū)域均具有一定的挑戰(zhàn)性,如圖1無人機所獲取的區(qū)域,不同種類的地物,即使人眼判別也有一定難度。針對該區(qū)域地表覆蓋情況,我們將地物分為九類,類別如表1所示,常規(guī)的遙感影像分類算法很難對這類環(huán)境的可見光影像進行良好分類。在本項研究中我們使用訓練好的卷積神經(jīng)網(wǎng)絡對該可見光影像進行分類,得到的結果如圖2所示,分類的整體精度為97.9630%,其Kappa系數(shù)為0.9765;圖3展示了該區(qū)域內(nèi)像元分類正確性的分布圖。圖1實驗區(qū)(新疆阿勒泰市克蘭河流域)無人機航拍影像與數(shù)字表面模型Fig.1AerialimagecapturedusingUAVandcorrespondingDSMintheexperimentalarea(KelanRiverBasin,AltayXinjiang)圖2克蘭河流域遙感影像分類結果圖Fig.2ClassificationresultmapforremotesensingimageoftheKelanRiverBasin圖3實驗區(qū)域像元分類正確性分布圖(灰度越小,表明正確率越高)Fig.3Distributionofclassificationcorrectnessofthepixelsinexperimentalarea(Thesmallerthegraylevel,thehigherthecorrectrate)李修賢,等:面向空地協(xié)同應急的地表可通行性分析方法15
影像處理軟件進行全自動拼接處理,得到航拍區(qū)域的拼接影像以及數(shù)字表面模型(DSM)(圖1)。由于空地協(xié)同系統(tǒng)的應用環(huán)境通常比較復雜,比如人眼不易判別地物及周邊條件的環(huán)境,因此我們所選取的實驗時間和區(qū)域均具有一定的挑戰(zhàn)性,如圖1無人機所獲取的區(qū)域,不同種類的地物,即使人眼判別也有一定難度。針對該區(qū)域地表覆蓋情況,我們將地物分為九類,類別如表1所示,常規(guī)的遙感影像分類算法很難對這類環(huán)境的可見光影像進行良好分類。在本項研究中我們使用訓練好的卷積神經(jīng)網(wǎng)絡對該可見光影像進行分類,得到的結果如圖2所示,分類的整體精度為97.9630%,其Kappa系數(shù)為0.9765;圖3展示了該區(qū)域內(nèi)像元分類正確性的分布圖。圖1實驗區(qū)(新疆阿勒泰市克蘭河流域)無人機航拍影像與數(shù)字表面模型Fig.1AerialimagecapturedusingUAVandcorrespondingDSMintheexperimentalarea(KelanRiverBasin,AltayXinjiang)圖2克蘭河流域遙感影像分類結果圖Fig.2ClassificationresultmapforremotesensingimageoftheKelanRiverBasin圖3實驗區(qū)域像元分類正確性分布圖(灰度越小,表明正確率越高)Fig.3Distributionofclassificationcorrectnessofthepixelsinexperimentalarea(Thesmallerthegraylevel,thehigherthecorrectrate)李修賢,等:面向空地協(xié)同應急的地表可通行性分析方法15
【參考文獻】:
期刊論文
[1]基于深度學習的高分辨率遙感影像分類研究[J]. 劉大偉,韓玲,韓曉勇. 光學學報. 2016(04)
[2]基于DBN模型的遙感圖像分類[J]. 呂啟,竇勇,牛新,徐佳慶,夏飛. 計算機研究與發(fā)展. 2014(09)
本文編號:3279452
本文鏈接:http://sikaile.net/kejilunwen/sousuoyinqinglunwen/3279452.html
最近更新
教材專著