基于合成樣本的弱紋理物體6D位姿估計
發(fā)布時間:2022-02-23 01:08
6D位姿估計在智能機(jī)器人,無人駕駛以及增強(qiáng)現(xiàn)實等多種應(yīng)用場景中有重要的研究意義。6D位姿估計是指獲取待測物體在相機(jī)坐標(biāo)系下的三維笛卡爾坐標(biāo)以及三維旋轉(zhuǎn)向量信息。在基于RGB-D數(shù)據(jù)的方法中6D位姿估計已經(jīng)取得了很大的進(jìn)步,然而這種方法因為計算量過大以及RGB-D的傳感器的限制,只能在限定的環(huán)境中部署。針對表面缺少足夠紋理信息的弱紋理物體,在基于目前單目RGB的方法和未有待測物體的真實樣本標(biāo)簽的情況下進(jìn)行6D位姿估計仍是非常具有挑戰(zhàn)性的。本文主要研究工作如下:針對無真實樣本問題,本文在弱紋理物體的合成樣本生成方面指出了目前基于經(jīng)緯度網(wǎng)格的采樣方式存在的缺陷,提出把用于測量球面上不規(guī)則圖形面積的斐波那契網(wǎng)格的采樣方式作為一種新的合成樣本采樣方式。本文從理論說明了基于經(jīng)緯度網(wǎng)格的采樣方式與基于斐波那契網(wǎng)格兩種采樣方式的區(qū)別。在分別采樣1000樣本和10000樣本的對比實驗中,經(jīng)緯度網(wǎng)格采樣方式平均ADD指標(biāo)為23.18%以及54.768%;斐波那契網(wǎng)格采樣方式平均ADD指標(biāo)為29.48%以及55.35%。證明了基于斐波那契網(wǎng)格的采樣方式密鋪采樣空間效果更好而且所需的采樣樣本更少。為了解決無真...
【文章來源】:電子科技大學(xué)四川省211工程院校985工程院校教育部直屬院校
【文章頁數(shù)】:75 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
abstract
第一章 緒論
1.1 研究工作的背景與意義
1.2 6D位姿估計的國內(nèi)外研究歷史與現(xiàn)狀
1.3 本文的主要貢獻(xiàn)與創(chuàng)新
1.4 本論文的結(jié)構(gòu)安排
第二章 6D位姿估計相關(guān)理論基礎(chǔ)
2.1 物體三維空間的剛體運動
2.2 攝像機(jī)模型與圖像生成
2.3 2D到3D點對運動的方法
2.4 本章小結(jié)
第三章 基于CAD模型的弱紋理物體合成樣本生成
3.1 引言
3.2 常見的數(shù)據(jù)生成方法
3.3 合成樣本采樣方式
3.3.1 基于經(jīng)緯度網(wǎng)格的采樣方式
3.3.2 基于斐波那契網(wǎng)格的采樣方式
3.4 OpenGL渲染過程及合成樣本生成
3.5 實驗與分析
3.5.1 實驗網(wǎng)絡(luò)模型
3.5.2 測評數(shù)據(jù)集及評價指標(biāo)
3.5.3 測試結(jié)果與評價
3.6 本章小結(jié)
第四章 基于自編碼的解耦式6D位姿估計網(wǎng)絡(luò)
4.1 引言
4.2 輔助視點信息的自編碼器子網(wǎng)絡(luò)
4.2.1 自編碼器
4.2.2 輔助視點信息
4.2.3 網(wǎng)絡(luò)框架
4.3 解耦式6D位姿估計網(wǎng)絡(luò)
4.3.1 解耦網(wǎng)絡(luò)框架
4.3.2 旋轉(zhuǎn)解耦模塊
4.3.3 平移解耦模塊
4.4 實驗與分析
4.4.1 評價指標(biāo)
4.4.2 訓(xùn)練策略
4.4.3 自編碼器對比實驗
4.4.4 測試結(jié)果與評價
4.5 本章小結(jié)
第五章 基于光流特權(quán)信息的弱紋理物體位姿優(yōu)化網(wǎng)絡(luò)
5.1 引言
5.2 位姿優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)
5.2.1 光流信息與位姿估計
5.2.2 基于CAD模型的損失函數(shù)
5.2.3 網(wǎng)絡(luò)框架
5.3 實驗與分析
5.3.1 訓(xùn)練策略
5.3.2 光流信息測試結(jié)果
5.3.3 測試結(jié)果與評價
5.4 本章小結(jié)
第六章 全文總結(jié)與展望
6.1 全文總結(jié)
6.2 后續(xù)工作展望
致謝
參考文獻(xiàn)
攻讀碩士學(xué)位期間取得的成果
【參考文獻(xiàn)】:
期刊論文
[1]AR輔助裝配中基體及零件位姿組合估計方法[J]. 劉然,范秀敏,尹旭悅,王冀凱,楊旭. 機(jī)械設(shè)計與研究. 2018(06)
碩士論文
[1]基于模態(tài)轉(zhuǎn)換的典型無人駕駛場景下三維目標(biāo)識別算法研究[D]. 陳璦玥.哈爾濱工業(yè)大學(xué) 2019
[2]復(fù)雜場景中的3D目標(biāo)表達(dá)與檢測[D]. 康甲.電子科技大學(xué) 2019
本文編號:3640560
【文章來源】:電子科技大學(xué)四川省211工程院校985工程院校教育部直屬院校
【文章頁數(shù)】:75 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
abstract
第一章 緒論
1.1 研究工作的背景與意義
1.2 6D位姿估計的國內(nèi)外研究歷史與現(xiàn)狀
1.3 本文的主要貢獻(xiàn)與創(chuàng)新
1.4 本論文的結(jié)構(gòu)安排
第二章 6D位姿估計相關(guān)理論基礎(chǔ)
2.1 物體三維空間的剛體運動
2.2 攝像機(jī)模型與圖像生成
2.3 2D到3D點對運動的方法
2.4 本章小結(jié)
第三章 基于CAD模型的弱紋理物體合成樣本生成
3.1 引言
3.2 常見的數(shù)據(jù)生成方法
3.3 合成樣本采樣方式
3.3.1 基于經(jīng)緯度網(wǎng)格的采樣方式
3.3.2 基于斐波那契網(wǎng)格的采樣方式
3.4 OpenGL渲染過程及合成樣本生成
3.5 實驗與分析
3.5.1 實驗網(wǎng)絡(luò)模型
3.5.2 測評數(shù)據(jù)集及評價指標(biāo)
3.5.3 測試結(jié)果與評價
3.6 本章小結(jié)
第四章 基于自編碼的解耦式6D位姿估計網(wǎng)絡(luò)
4.1 引言
4.2 輔助視點信息的自編碼器子網(wǎng)絡(luò)
4.2.1 自編碼器
4.2.2 輔助視點信息
4.2.3 網(wǎng)絡(luò)框架
4.3 解耦式6D位姿估計網(wǎng)絡(luò)
4.3.1 解耦網(wǎng)絡(luò)框架
4.3.2 旋轉(zhuǎn)解耦模塊
4.3.3 平移解耦模塊
4.4 實驗與分析
4.4.1 評價指標(biāo)
4.4.2 訓(xùn)練策略
4.4.3 自編碼器對比實驗
4.4.4 測試結(jié)果與評價
4.5 本章小結(jié)
第五章 基于光流特權(quán)信息的弱紋理物體位姿優(yōu)化網(wǎng)絡(luò)
5.1 引言
5.2 位姿優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)
5.2.1 光流信息與位姿估計
5.2.2 基于CAD模型的損失函數(shù)
5.2.3 網(wǎng)絡(luò)框架
5.3 實驗與分析
5.3.1 訓(xùn)練策略
5.3.2 光流信息測試結(jié)果
5.3.3 測試結(jié)果與評價
5.4 本章小結(jié)
第六章 全文總結(jié)與展望
6.1 全文總結(jié)
6.2 后續(xù)工作展望
致謝
參考文獻(xiàn)
攻讀碩士學(xué)位期間取得的成果
【參考文獻(xiàn)】:
期刊論文
[1]AR輔助裝配中基體及零件位姿組合估計方法[J]. 劉然,范秀敏,尹旭悅,王冀凱,楊旭. 機(jī)械設(shè)計與研究. 2018(06)
碩士論文
[1]基于模態(tài)轉(zhuǎn)換的典型無人駕駛場景下三維目標(biāo)識別算法研究[D]. 陳璦玥.哈爾濱工業(yè)大學(xué) 2019
[2]復(fù)雜場景中的3D目標(biāo)表達(dá)與檢測[D]. 康甲.電子科技大學(xué) 2019
本文編號:3640560
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3640560.html
最近更新
教材專著