基于RGB-D信息的三維對(duì)象識(shí)別與姿態(tài)估計(jì)
發(fā)布時(shí)間:2024-02-15 11:59
計(jì)算機(jī)視覺領(lǐng)域中,對(duì)場(chǎng)景中物體的識(shí)別及其姿態(tài)估計(jì),具有重要作用和極大的應(yīng)用前景。該技術(shù)被廣泛應(yīng)用于機(jī)械臂抓取、自動(dòng)導(dǎo)航和智能監(jiān)控等科技與工業(yè)領(lǐng)域。但是,光照變化、遮擋等復(fù)雜環(huán)境條件,將極大影響對(duì)象識(shí)別和姿態(tài)估計(jì)的精度;此外,在實(shí)際應(yīng)用中算法還需要保障高準(zhǔn)確性和實(shí)時(shí)性,亟待深入研究。相較于普通RGB成像設(shè)備,RGB-D傳感設(shè)備能提供豐富的三維信息,研究基于RGB-D的相關(guān)算法,可望在弱紋理與低光照的條件下實(shí)現(xiàn)較好的三維對(duì)象識(shí)別與姿態(tài)估計(jì)效果。經(jīng)典的三維對(duì)象識(shí)別算法通過三維描述子匹配實(shí)現(xiàn)對(duì)象識(shí)別。但是三維描述子僅能用于單個(gè)目標(biāo)的識(shí)別,無法做到對(duì)復(fù)雜結(jié)構(gòu)三維對(duì)象進(jìn)行整體描述;谏窠(jīng)網(wǎng)絡(luò)的方法也是對(duì)象識(shí)別與姿態(tài)估計(jì)的一個(gè)研究熱點(diǎn)。此類工作都針對(duì)已知對(duì)象,需要大量的目標(biāo)數(shù)據(jù)進(jìn)行訓(xùn)練,無法實(shí)現(xiàn)未知對(duì)象的姿態(tài)估計(jì)。除此之外,它們還需要復(fù)雜的后期優(yōu)化步驟優(yōu)化最終結(jié)果,很難滿足一些高實(shí)時(shí)性的應(yīng)用需求。針對(duì)上述問題,本文著重對(duì)復(fù)雜結(jié)構(gòu)三維對(duì)象識(shí)別與實(shí)時(shí)未知目標(biāo)姿態(tài)估計(jì)進(jìn)行研究,具體工作如下:1.提出一種基于空間相關(guān)性的三維結(jié)構(gòu)描述子,用于對(duì)復(fù)雜結(jié)構(gòu)三維對(duì)象進(jìn)行識(shí)別。對(duì)三維場(chǎng)景進(jìn)行實(shí)時(shí)稠密SLAM重建,并...
【文章頁數(shù)】:72 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
符號(hào)說明
第一章 緒論
1.1 研究背景與研究意義
1.1.1 研究背景
1.1.2 技術(shù)存在的難點(diǎn)
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 傳統(tǒng)的三維對(duì)象識(shí)別與姿態(tài)估計(jì)方法
1.2.2 基于神經(jīng)網(wǎng)絡(luò)的三維對(duì)象識(shí)別與姿態(tài)估計(jì)
1.3 論文的主要研究內(nèi)容
1.4 論文的組織結(jié)構(gòu)
第二章 相關(guān)算法分析
2.1 引言
2.2 基于傳統(tǒng)描述子的對(duì)象識(shí)別與姿態(tài)估計(jì)方法
2.2.1 PFH描述子
2.2.2 FPFH描述子
2.2.3 VFH描述子
2.2.4 算法分析
2.3 基于深度學(xué)習(xí)的對(duì)象識(shí)別與姿態(tài)估計(jì)方法
2.3.1 神經(jīng)網(wǎng)絡(luò)
2.3.2 PoseCNN算法
2.3.3 Pointnet算法
2.3.4 算法分析
2.4 本章小結(jié)
第三章 基于RGB-D信息的三維對(duì)象識(shí)別
3.1 引言
3.2 三維重建
3.2.1 相機(jī)位姿估計(jì)
3.2.2 點(diǎn)云融合
3.3 三維場(chǎng)景分割
3.3.1 深度圖分割
3.3.2 連通區(qū)域標(biāo)記與邊界點(diǎn)賦值
3.3.3 Label一致性
3.3.4 部件融合
3.4 基于三維結(jié)構(gòu)描述子的三維對(duì)象識(shí)別
3.4.1 標(biāo)準(zhǔn)三維結(jié)構(gòu)描述子提取
3.4.2 使用三維結(jié)構(gòu)描述子識(shí)別目標(biāo)
3.5 實(shí)驗(yàn)設(shè)計(jì)
3.6 本章小結(jié)
第四章 基于RGB-D信息的三維對(duì)象姿態(tài)估計(jì)
4.1 引言
4.2 未知目標(biāo)跨視場(chǎng)姿態(tài)估計(jì)
4.2.1 初始相對(duì)姿態(tài)測(cè)量
4.2.2 最優(yōu)相機(jī)選取
4.2.3 特征提取
4.2.4 光束平差法
4.2.5 相機(jī)切換與姿態(tài)轉(zhuǎn)化
4.3 實(shí)驗(yàn)設(shè)計(jì)
4.3.1 光照條件測(cè)試
4.3.2 紋理?xiàng)l件測(cè)試
4.3.3 仿真實(shí)驗(yàn)
4.3.4 HEXAPOD高精度云臺(tái)實(shí)驗(yàn)
4.4 本章小結(jié)
第五章 總結(jié)與展望
5.1 本文工作總結(jié)
5.2 未來的研究方向及展望
參考文獻(xiàn)
致謝
作者簡介
1 作者簡歷
2 攻讀碩士學(xué)位期間發(fā)表的學(xué)術(shù)論文
3 發(fā)明專利
學(xué)位論文數(shù)據(jù)集
本文編號(hào):3899708
【文章頁數(shù)】:72 頁
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
符號(hào)說明
第一章 緒論
1.1 研究背景與研究意義
1.1.1 研究背景
1.1.2 技術(shù)存在的難點(diǎn)
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 傳統(tǒng)的三維對(duì)象識(shí)別與姿態(tài)估計(jì)方法
1.2.2 基于神經(jīng)網(wǎng)絡(luò)的三維對(duì)象識(shí)別與姿態(tài)估計(jì)
1.3 論文的主要研究內(nèi)容
1.4 論文的組織結(jié)構(gòu)
第二章 相關(guān)算法分析
2.1 引言
2.2 基于傳統(tǒng)描述子的對(duì)象識(shí)別與姿態(tài)估計(jì)方法
2.2.1 PFH描述子
2.2.2 FPFH描述子
2.2.3 VFH描述子
2.2.4 算法分析
2.3 基于深度學(xué)習(xí)的對(duì)象識(shí)別與姿態(tài)估計(jì)方法
2.3.1 神經(jīng)網(wǎng)絡(luò)
2.3.2 PoseCNN算法
2.3.3 Pointnet算法
2.3.4 算法分析
2.4 本章小結(jié)
第三章 基于RGB-D信息的三維對(duì)象識(shí)別
3.1 引言
3.2 三維重建
3.2.1 相機(jī)位姿估計(jì)
3.2.2 點(diǎn)云融合
3.3 三維場(chǎng)景分割
3.3.1 深度圖分割
3.3.2 連通區(qū)域標(biāo)記與邊界點(diǎn)賦值
3.3.3 Label一致性
3.3.4 部件融合
3.4 基于三維結(jié)構(gòu)描述子的三維對(duì)象識(shí)別
3.4.1 標(biāo)準(zhǔn)三維結(jié)構(gòu)描述子提取
3.4.2 使用三維結(jié)構(gòu)描述子識(shí)別目標(biāo)
3.5 實(shí)驗(yàn)設(shè)計(jì)
3.6 本章小結(jié)
第四章 基于RGB-D信息的三維對(duì)象姿態(tài)估計(jì)
4.1 引言
4.2 未知目標(biāo)跨視場(chǎng)姿態(tài)估計(jì)
4.2.1 初始相對(duì)姿態(tài)測(cè)量
4.2.2 最優(yōu)相機(jī)選取
4.2.3 特征提取
4.2.4 光束平差法
4.2.5 相機(jī)切換與姿態(tài)轉(zhuǎn)化
4.3 實(shí)驗(yàn)設(shè)計(jì)
4.3.1 光照條件測(cè)試
4.3.2 紋理?xiàng)l件測(cè)試
4.3.3 仿真實(shí)驗(yàn)
4.3.4 HEXAPOD高精度云臺(tái)實(shí)驗(yàn)
4.4 本章小結(jié)
第五章 總結(jié)與展望
5.1 本文工作總結(jié)
5.2 未來的研究方向及展望
參考文獻(xiàn)
致謝
作者簡介
1 作者簡歷
2 攻讀碩士學(xué)位期間發(fā)表的學(xué)術(shù)論文
3 發(fā)明專利
學(xué)位論文數(shù)據(jù)集
本文編號(hào):3899708
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3899708.html
最近更新
教材專著