基于深度學(xué)習(xí)的多視圖三維目標(biāo)分類方法研究
發(fā)布時間:2020-05-22 23:45
【摘要】:三維目標(biāo)分類是計(jì)算機(jī)視覺領(lǐng)域中一個重要的研究課題,良好的分類性能可以為后續(xù)的高級處理提供支持。傳統(tǒng)分類方法通過人工提取數(shù)據(jù)特征,不足之處是人工設(shè)定費(fèi)時費(fèi)力且依賴主觀經(jīng)驗(yàn),而深度學(xué)習(xí)模型能夠自動學(xué)習(xí)數(shù)據(jù)的深層特征,減少了人工分類的主觀性,準(zhǔn)確率相對較高。多視圖表示是三維模型的重要表示之一,符合人眼對目標(biāo)的視覺感知,可以作為深度學(xué)習(xí)模型的輸入數(shù)據(jù)。本文針對基于深度學(xué)習(xí)的多視圖三維目標(biāo)分類問題,研究了三維模型的多視圖表示及選擇方法,并采用深度學(xué)習(xí)模型對三維目標(biāo)進(jìn)行分類,旨在提高準(zhǔn)確率的同時進(jìn)一步提高計(jì)算速度。本文的主要工作如下:(1)針對多視點(diǎn)視圖數(shù)據(jù)缺少視圖間的關(guān)聯(lián)信息問題,本文提出了三維模型的多視點(diǎn)與全景視圖表示方法。本文首先構(gòu)建了三維模型的多視點(diǎn)視圖數(shù)據(jù),在此基礎(chǔ)上進(jìn)一步構(gòu)建了全景視圖數(shù)據(jù),增加了視圖間的關(guān)聯(lián)信息,并把兩者結(jié)合起來,形成完整的多視圖數(shù)據(jù)集,以獲得模型的完整信息,解決多視點(diǎn)視圖的信息缺失問題,實(shí)驗(yàn)表明該模型表示方法的有效性。(2)針對多視圖數(shù)據(jù)樣本較多且存在大量冗余模糊特征的問題,本文基于構(gòu)建的多視圖數(shù)據(jù)集提出了多視圖顯著性分析與選擇算法。本文首先通過梯度計(jì)算來分析多視圖的顯著性,根據(jù)梯度對視圖進(jìn)行排序,在此基礎(chǔ)上選擇特征顯著的視圖,解決計(jì)算效率不高的問題,在公共數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明多視圖分析與選擇算法的有效性。(3)針對多視圖中的單個視圖特征信息較少、特征描述不充分的問題,本文在多視圖數(shù)據(jù)構(gòu)建、分析和選擇的基礎(chǔ)上提出了基于聚合特征描述的多視圖分類模型。本文首先對多視圖進(jìn)行池化,把多個視圖的特征信息聚合起來,生成代表該三維模型的聚合描述子,在此基礎(chǔ)上基于VGG-M模型實(shí)現(xiàn)對多視圖的分類,在公共數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明基于聚合特征描述的分類模型具有較好的分類效果。
【圖文】:
分別介紹了傳統(tǒng)分類方法和深度學(xué)習(xí)方法中的多視圖表示。逡逑2.1.1常見的三維模型表示逡逑數(shù)據(jù)庫中的三維模型通常保存為多邊形網(wǎng)格,如圖2-1所示為ModelNet數(shù)據(jù)逡逑集中的三角形網(wǎng)格。逡逑\l逡逑圖2-1邋ModelNet中的三角形網(wǎng)格[15]逡逑Figure邋2-1邋Triangle邋mesh邋in邋ModelNet1151逡逑9逡逑
在實(shí)際應(yīng)用中,研宄者通常會根據(jù)實(shí)驗(yàn)要求將三維模型轉(zhuǎn)換成不同的表現(xiàn)形逡逑式,以完成各種各樣的任務(wù)。常見的輸入表示有體素表示、點(diǎn)云表示和視圖表示。逡逑三維模型的不同表示如圖2-2所示,,從左到右依次是30*30*30的體素網(wǎng)格、含有逡逑2048個點(diǎn)的點(diǎn)云集合以及渲染視圖。逡逑(a)體素邐(b)點(diǎn)云邐(c)視圖逡逑圖2-2三維模型的不同表示[15]逡逑Figure邋2-2邋Different邋representations邋of邋3D邋models[15]逡逑與圖像中的像素概念類似,體素(Voxel)可以理解為二維像素在三維空間的逡逑推廣。體素化能夠?qū)θS模型進(jìn)行簡化,得到均勻的網(wǎng)格。輸入三角面片,輸出逡逑體素化網(wǎng)格。在基于體素的表示中,代表性工作是Wu等人提出的3DShapeNets,逡逑作者將三維模型體素化,將其表示為體素網(wǎng)格上二元變量的概率分布,然后輸入逡逑到深度信念網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。在ModelNetlO數(shù)據(jù)集上,平均分類準(zhǔn)確率為83.54%;逡逑在ModelNet40數(shù)據(jù)集上,平均分類準(zhǔn)確率為77.32%。后來,研究者利用體素網(wǎng)格逡逑的稀疏性提出很多方法來提高計(jì)算速度。逡逑在逆向工程中,通過測量設(shè)備得到的三維目標(biāo)表面點(diǎn)的數(shù)據(jù)集合稱為點(diǎn)云逡逑(PointCloud)。在基于點(diǎn)云的表示中
【學(xué)位授予單位】:北京交通大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:TP391.41;TP18
本文編號:2676794
【圖文】:
分別介紹了傳統(tǒng)分類方法和深度學(xué)習(xí)方法中的多視圖表示。逡逑2.1.1常見的三維模型表示逡逑數(shù)據(jù)庫中的三維模型通常保存為多邊形網(wǎng)格,如圖2-1所示為ModelNet數(shù)據(jù)逡逑集中的三角形網(wǎng)格。逡逑\l逡逑圖2-1邋ModelNet中的三角形網(wǎng)格[15]逡逑Figure邋2-1邋Triangle邋mesh邋in邋ModelNet1151逡逑9逡逑
在實(shí)際應(yīng)用中,研宄者通常會根據(jù)實(shí)驗(yàn)要求將三維模型轉(zhuǎn)換成不同的表現(xiàn)形逡逑式,以完成各種各樣的任務(wù)。常見的輸入表示有體素表示、點(diǎn)云表示和視圖表示。逡逑三維模型的不同表示如圖2-2所示,,從左到右依次是30*30*30的體素網(wǎng)格、含有逡逑2048個點(diǎn)的點(diǎn)云集合以及渲染視圖。逡逑(a)體素邐(b)點(diǎn)云邐(c)視圖逡逑圖2-2三維模型的不同表示[15]逡逑Figure邋2-2邋Different邋representations邋of邋3D邋models[15]逡逑與圖像中的像素概念類似,體素(Voxel)可以理解為二維像素在三維空間的逡逑推廣。體素化能夠?qū)θS模型進(jìn)行簡化,得到均勻的網(wǎng)格。輸入三角面片,輸出逡逑體素化網(wǎng)格。在基于體素的表示中,代表性工作是Wu等人提出的3DShapeNets,逡逑作者將三維模型體素化,將其表示為體素網(wǎng)格上二元變量的概率分布,然后輸入逡逑到深度信念網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。在ModelNetlO數(shù)據(jù)集上,平均分類準(zhǔn)確率為83.54%;逡逑在ModelNet40數(shù)據(jù)集上,平均分類準(zhǔn)確率為77.32%。后來,研究者利用體素網(wǎng)格逡逑的稀疏性提出很多方法來提高計(jì)算速度。逡逑在逆向工程中,通過測量設(shè)備得到的三維目標(biāo)表面點(diǎn)的數(shù)據(jù)集合稱為點(diǎn)云逡逑(PointCloud)。在基于點(diǎn)云的表示中
【學(xué)位授予單位】:北京交通大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:TP391.41;TP18
【參考文獻(xiàn)】
相關(guān)碩士學(xué)位論文 前1條
1 侯宇昆;基于深度學(xué)習(xí)和視圖的三維CAD模型分類技術(shù)研究[D];北方民族大學(xué);2017年
本文編號:2676794
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2676794.html
最近更新
教材專著