天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于深度學(xué)習(xí)的傾斜攝影測(cè)量點(diǎn)云建筑物語(yǔ)義與實(shí)例聯(lián)合分割

發(fā)布時(shí)間:2024-02-23 08:05
  傾斜攝影測(cè)量點(diǎn)云作為一種新興數(shù)據(jù),因其具有豐富的地物表面信息和低成本、高精度、高效率等優(yōu)勢(shì)獲得廣泛關(guān)注,并在建筑物提取和建筑物單體化等方面表現(xiàn)出廣大的應(yīng)用前景。同二維圖像相比,密集匹配點(diǎn)云的難點(diǎn)就在于地物分類(lèi)時(shí)不僅要對(duì)地物的頂面進(jìn)行分類(lèi),還要將地物的立面點(diǎn)集也劃分到相應(yīng)的類(lèi)別中。但是,通過(guò)多視影像密集匹配生成的點(diǎn)云在分類(lèi)任務(wù)中會(huì)受復(fù)雜多變的地形與地表起伏等因素的影響。傾斜攝影測(cè)量在獲取多視影像時(shí),會(huì)因?yàn)榈匚镒陨硇螤詈偷匚镩g互相的遮擋等原因,無(wú)法獲取到完整的地物相片。這使得地物分布較為密集的區(qū)域在生成傾斜攝影測(cè)量點(diǎn)云時(shí)會(huì)生成許多光譜信息錯(cuò)誤,或者空間信息錯(cuò)誤的點(diǎn)。這類(lèi)點(diǎn)在傳統(tǒng)分類(lèi)算法中形成干擾因子,從而導(dǎo)致傳統(tǒng)的三維點(diǎn)云分類(lèi)算法表現(xiàn)效果不好。近年來(lái),由于深度學(xué)習(xí)中的人工神經(jīng)網(wǎng)絡(luò)擁有優(yōu)越的非線(xiàn)性表達(dá)能力而被廣泛應(yīng)用到多個(gè)研究領(lǐng)域中。研究者們?cè)趦A斜攝影測(cè)量點(diǎn)云中引入深度學(xué)習(xí)的方法,從而將三維點(diǎn)云數(shù)據(jù)中的地物分類(lèi)稱(chēng)為語(yǔ)義分割。而三維點(diǎn)云中的建筑物單體化又與深度學(xué)習(xí)中的實(shí)例分割在概念上十分相似。因此,本文嘗試使用深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)傾斜攝影測(cè)量點(diǎn)云進(jìn)行語(yǔ)義分割和實(shí)例分割,并在訓(xùn)練過(guò)程中對(duì)網(wǎng)絡(luò)模型的...

【文章頁(yè)數(shù)】:61 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

圖2.1線(xiàn)性變換示意圖

圖2.1線(xiàn)性變換示意圖

?橐換?BatchNormalization)幾個(gè)基本單元構(gòu)成。2.1.1基本線(xiàn)性變換函數(shù)“張量”(Tensor)一詞是WoldemarVoigt于1899年提出,用于描述矢量、標(biāo)量和其他多維數(shù)組之間的線(xiàn)性關(guān)系的多線(xiàn)性函數(shù)。在物理學(xué)和傳統(tǒng)數(shù)學(xué)中把張量看作是一個(gè)多維數(shù)組,當(dāng)變換坐標(biāo)....


圖2.2二維卷積計(jì)算示意圖

圖2.2二維卷積計(jì)算示意圖

2卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)9iiiyfwxb=+(2.1)其中=1,2,3,一般將多個(gè)神經(jīng)元及其權(quán)重組成的結(jié)構(gòu)稱(chēng)為隱藏層,當(dāng)隱藏層中的多個(gè)神經(jīng)元為線(xiàn)性函數(shù)時(shí)稱(chēng)為線(xiàn)性變換,即卷積神經(jīng)網(wǎng)絡(luò)(CNN)中的全連接層。而多層感知器(MLP)就是由多個(gè)“隱藏層+激活函數(shù)(+批歸一化)”模塊所搭建的一....


圖2.3池化層示意圖

圖2.3池化層示意圖

西安科技大學(xué)非全日制工程碩士論文10征圖的個(gè)數(shù)。利用卷積進(jìn)行訓(xùn)練,得到卷積核的權(quán)重就是其本質(zhì)目標(biāo),但在第一次計(jì)算時(shí),權(quán)重是不能為空的,所以在訓(xùn)練之初往往需要給予網(wǎng)絡(luò)一個(gè)初始化的權(quán)重。2.1.3池化層池化層通常位于卷積層之后,主要功能是簡(jiǎn)化卷積層輸出的信息、降低特征圖的維度和減少后....


圖2.4常見(jiàn)激活函數(shù)示意圖

圖2.4常見(jiàn)激活函數(shù)示意圖

2卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)11圖2.4常見(jiàn)激活函數(shù)示意圖其中=∑ω+。sigmoid、tanh和ReLU的函數(shù)圖像如圖2.4所示。研究表明,與ReLU相比,sigmoid和tanh具有收斂速度慢和梯度消失等缺點(diǎn),而ReLU函數(shù)能有效解決復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)梯度消失問(wèn)題[47]。因此,本文所構(gòu)建的....



本文編號(hào):3907312

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/benkebiyelunwen/3907312.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)32161***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com