基于DGCNN語(yǔ)義分割的傾斜攝影測(cè)量三維點(diǎn)云建筑物分類
發(fā)布時(shí)間:2021-06-24 19:45
傾斜攝影測(cè)量通過(guò)影像密集匹配生成的高精度彩色點(diǎn)云是實(shí)現(xiàn)建筑物語(yǔ)義信息提取的關(guān)鍵數(shù)據(jù)。但因點(diǎn)云數(shù)據(jù)的不規(guī)則性,無(wú)論是應(yīng)用傳統(tǒng)算法還是卷積神經(jīng)網(wǎng)絡(luò)都無(wú)法對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行較好的處理。提出采用動(dòng)態(tài)圖深度卷積網(wǎng)絡(luò)直接處理3D原始點(diǎn)云數(shù)據(jù)的方法,將點(diǎn)云分為建筑物和非建筑物2類。試驗(yàn)結(jié)果表明,該方法可以自適應(yīng)地學(xué)習(xí)點(diǎn)云中的各項(xiàng)特征信息,學(xué)習(xí)每個(gè)點(diǎn)的獨(dú)立空間信息和色彩信息,同時(shí)還能提取點(diǎn)云的局部和全局特征,分類精度高達(dá)98.49%,大大提高了分類精度和效率。
【文章來(lái)源】:測(cè)繪標(biāo)準(zhǔn)化. 2020,36(03)
【文章頁(yè)數(shù)】:6 頁(yè)
【部分圖文】:
生成的數(shù)據(jù)集中部分點(diǎn)云數(shù)據(jù)俯視圖(真彩色顯示)
表2是PointNet和DGCNN在網(wǎng)絡(luò)規(guī)模、訓(xùn)練耗時(shí)等方面的對(duì)比結(jié)果,由于Edgeconv的內(nèi)部結(jié)構(gòu)比MLP更復(fù)雜,導(dǎo)致DGCNN的網(wǎng)絡(luò)深度比PointNet更深,因此PointNet的學(xué)習(xí)參數(shù)要比DGCNN少,這也使得DGCNN比PointNet耗費(fèi)的時(shí)間更多。3 結(jié) 語(yǔ)
EdgeConv結(jié)構(gòu)
【參考文獻(xiàn)】:
期刊論文
[1]基于隨機(jī)森林的傾斜影像匹配點(diǎn)云分類研究[J]. 趙利霞,王宏濤,郭增長(zhǎng),管建軍. 測(cè)繪工程. 2018(12)
[2]面向?qū)ο蟮膬A斜攝影測(cè)量點(diǎn)云分類方法[J]. 何雪,鄒崢嶸,張?jiān)粕?杜守基,鄭特. 國(guó)土資源遙感. 2018(02)
[3]基于圖割算法的攝影測(cè)量點(diǎn)云面向?qū)ο蠓诸惙椒╗J]. 鄭特,鄒崢嶸,張?jiān)粕?杜守基,何雪. 測(cè)繪工程. 2018(03)
本文編號(hào):3247719
【文章來(lái)源】:測(cè)繪標(biāo)準(zhǔn)化. 2020,36(03)
【文章頁(yè)數(shù)】:6 頁(yè)
【部分圖文】:
生成的數(shù)據(jù)集中部分點(diǎn)云數(shù)據(jù)俯視圖(真彩色顯示)
表2是PointNet和DGCNN在網(wǎng)絡(luò)規(guī)模、訓(xùn)練耗時(shí)等方面的對(duì)比結(jié)果,由于Edgeconv的內(nèi)部結(jié)構(gòu)比MLP更復(fù)雜,導(dǎo)致DGCNN的網(wǎng)絡(luò)深度比PointNet更深,因此PointNet的學(xué)習(xí)參數(shù)要比DGCNN少,這也使得DGCNN比PointNet耗費(fèi)的時(shí)間更多。3 結(jié) 語(yǔ)
EdgeConv結(jié)構(gòu)
【參考文獻(xiàn)】:
期刊論文
[1]基于隨機(jī)森林的傾斜影像匹配點(diǎn)云分類研究[J]. 趙利霞,王宏濤,郭增長(zhǎng),管建軍. 測(cè)繪工程. 2018(12)
[2]面向?qū)ο蟮膬A斜攝影測(cè)量點(diǎn)云分類方法[J]. 何雪,鄒崢嶸,張?jiān)粕?杜守基,鄭特. 國(guó)土資源遙感. 2018(02)
[3]基于圖割算法的攝影測(cè)量點(diǎn)云面向?qū)ο蠓诸惙椒╗J]. 鄭特,鄒崢嶸,張?jiān)粕?杜守基,何雪. 測(cè)繪工程. 2018(03)
本文編號(hào):3247719
本文鏈接:http://sikaile.net/kejilunwen/dizhicehuilunwen/3247719.html
最近更新
教材專著