目標(biāo)物品識別與空間定位方法研究
發(fā)布時間:2023-02-26 04:31
隨著科技的不斷發(fā)展,機(jī)器人在多個領(lǐng)域中都有了應(yīng)用,例如:醫(yī)療領(lǐng)域、工業(yè)領(lǐng)域、教育領(lǐng)域等。尤其在工業(yè)領(lǐng)域中,工業(yè)機(jī)器人對工業(yè)零件進(jìn)行抓取,然后完成在流水線上的工件加工、零件裝備等流程。在機(jī)器人工作流程中,機(jī)器人抓取技術(shù)的成熟程度至關(guān)重要。機(jī)器人的自主抓取大多數(shù)是基于視覺技術(shù)來控制,但是在復(fù)雜環(huán)境下,識別定位的效果大大下降,從而降低抓取的效率。所以,提供目標(biāo)物體精確的坐標(biāo)是現(xiàn)在急需解決的問題。在本文中,基于優(yōu)化Mask R-CNN算法從RGB圖片中識別出目標(biāo)物體并得到其掩膜分割出目標(biāo)區(qū)域。然后結(jié)合Kinect v2傳感器將二維坐標(biāo)轉(zhuǎn)化到三維空間坐標(biāo),完成對物體的定位任務(wù)。本文具體工作如下:(1)目標(biāo)物體識別算法實(shí)驗比較。首先介紹了在物體識別領(lǐng)域中四種較為常用的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測算法,YOLO、SSD、Faster R-CNN和Mask R-CNN。為了提高識別能力和定位的精度,經(jīng)過實(shí)驗選擇識別精度最高的Mask RCNN。(2)優(yōu)化Mask R-CNN網(wǎng)絡(luò)進(jìn)行物體識別與分割。首先使用Kinect v2傳感器彩色相機(jī)采集數(shù)據(jù),并對數(shù)據(jù)集進(jìn)行預(yù)處理。接著在Mask R-CNN算法基礎(chǔ)上進(jìn)行了...
【文章頁數(shù)】:68 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題背景及研究的目的和意義
1.2 國內(nèi)外研究現(xiàn)狀與分析
1.2.1 物體識別方法研究現(xiàn)狀
1.2.2 物體定位方法研究現(xiàn)狀
1.3 本文研究內(nèi)容
1.4 論文章節(jié)安排
第2章 目標(biāo)檢測算法
2.1 one-stage目標(biāo)檢測算法
2.1.1 YOLO
2.1.2 SSD
2.2 two-stage目標(biāo)檢測算法
2.2.1 Faster R-CNN網(wǎng)絡(luò)
2.2.2 Mask R-CNN
2.3 算法比較實(shí)驗
2.4 本章小結(jié)
第3章 基于優(yōu)化Mask R-CNN算法的目標(biāo)識別
3.1 數(shù)據(jù)集
3.1.1 自采數(shù)據(jù)集
3.1.2 自采數(shù)據(jù)集預(yù)處理
3.1.3 公開數(shù)據(jù)集
3.2 Mask R-CNN網(wǎng)絡(luò)的優(yōu)化
3.2.1 模型預(yù)處理——cbn層
3.2.2 Loss損失函數(shù)優(yōu)化——加入邊緣信息
3.2.3 雙向特征融合
3.3 實(shí)驗結(jié)果與分析
3.3.1 優(yōu)化的Mask R-CNN網(wǎng)絡(luò)結(jié)構(gòu)
3.3.2 網(wǎng)絡(luò)評估標(biāo)準(zhǔn)
3.3.3 實(shí)驗環(huán)境及實(shí)驗參數(shù)選擇
3.3.4 主干網(wǎng)絡(luò)選擇
3.3.5 加入邊緣損失函數(shù)對比實(shí)驗
3.3.6 加入雙向特征融合對比實(shí)驗
3.3.7 優(yōu)化的Mask R-CNN對比實(shí)驗
3.4 本章小結(jié)
第4章 基于Kinect v2 的物體空間定位
4.1 Kinect v2 標(biāo)定與空間定位
4.1.1 坐標(biāo)系之間轉(zhuǎn)換
4.1.2 相機(jī)標(biāo)定
4.2 深度數(shù)據(jù)預(yù)處理
4.2.1 3D點(diǎn)云數(shù)據(jù)轉(zhuǎn)化
4.2.2 結(jié)合多幀中值濾波和雙邊濾波
4.3 實(shí)驗與分析
4.3.1 相機(jī)標(biāo)定
4.3.2 三維坐標(biāo)計算實(shí)驗
4.4 本章小結(jié)
第5章 實(shí)驗平臺搭建與驗證
5.1 系統(tǒng)環(huán)境和設(shè)備
5.2 實(shí)驗平臺設(shè)計
5.2.1 圖像采集模塊
5.2.2 圖像預(yù)處理模塊
5.2.3 目標(biāo)識別與分割模塊
5.2.4 空間定位模塊
5.3 實(shí)驗與分析
5.4 本章小節(jié)
結(jié)論
參考文獻(xiàn)
致謝
本文編號:3749823
【文章頁數(shù)】:68 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題背景及研究的目的和意義
1.2 國內(nèi)外研究現(xiàn)狀與分析
1.2.1 物體識別方法研究現(xiàn)狀
1.2.2 物體定位方法研究現(xiàn)狀
1.3 本文研究內(nèi)容
1.4 論文章節(jié)安排
第2章 目標(biāo)檢測算法
2.1 one-stage目標(biāo)檢測算法
2.1.1 YOLO
2.1.2 SSD
2.2 two-stage目標(biāo)檢測算法
2.2.1 Faster R-CNN網(wǎng)絡(luò)
2.2.2 Mask R-CNN
2.3 算法比較實(shí)驗
2.4 本章小結(jié)
第3章 基于優(yōu)化Mask R-CNN算法的目標(biāo)識別
3.1 數(shù)據(jù)集
3.1.1 自采數(shù)據(jù)集
3.1.2 自采數(shù)據(jù)集預(yù)處理
3.1.3 公開數(shù)據(jù)集
3.2 Mask R-CNN網(wǎng)絡(luò)的優(yōu)化
3.2.1 模型預(yù)處理——cbn層
3.2.2 Loss損失函數(shù)優(yōu)化——加入邊緣信息
3.2.3 雙向特征融合
3.3 實(shí)驗結(jié)果與分析
3.3.1 優(yōu)化的Mask R-CNN網(wǎng)絡(luò)結(jié)構(gòu)
3.3.2 網(wǎng)絡(luò)評估標(biāo)準(zhǔn)
3.3.3 實(shí)驗環(huán)境及實(shí)驗參數(shù)選擇
3.3.4 主干網(wǎng)絡(luò)選擇
3.3.5 加入邊緣損失函數(shù)對比實(shí)驗
3.3.6 加入雙向特征融合對比實(shí)驗
3.3.7 優(yōu)化的Mask R-CNN對比實(shí)驗
3.4 本章小結(jié)
第4章 基于Kinect v2 的物體空間定位
4.1 Kinect v2 標(biāo)定與空間定位
4.1.1 坐標(biāo)系之間轉(zhuǎn)換
4.1.2 相機(jī)標(biāo)定
4.2 深度數(shù)據(jù)預(yù)處理
4.2.1 3D點(diǎn)云數(shù)據(jù)轉(zhuǎn)化
4.2.2 結(jié)合多幀中值濾波和雙邊濾波
4.3 實(shí)驗與分析
4.3.1 相機(jī)標(biāo)定
4.3.2 三維坐標(biāo)計算實(shí)驗
4.4 本章小結(jié)
第5章 實(shí)驗平臺搭建與驗證
5.1 系統(tǒng)環(huán)境和設(shè)備
5.2 實(shí)驗平臺設(shè)計
5.2.1 圖像采集模塊
5.2.2 圖像預(yù)處理模塊
5.2.3 目標(biāo)識別與分割模塊
5.2.4 空間定位模塊
5.3 實(shí)驗與分析
5.4 本章小節(jié)
結(jié)論
參考文獻(xiàn)
致謝
本文編號:3749823
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3749823.html
最近更新
教材專著