基于深度相機(jī)的物體識別與定位研究
發(fā)布時間:2022-04-28 22:19
物體識別與定位技術(shù)是機(jī)器人智能化的核心技術(shù)之一,也是如自動駕駛等智能控制技術(shù)的基礎(chǔ),如何讓識別更加準(zhǔn)確、測量更加精準(zhǔn)始終是相關(guān)領(lǐng)域的研究熱點,F(xiàn)有方法在測量速度、精度等因素上尚需進(jìn)一步完善,其成功將提高警用機(jī)器人在疫情、暴恐、搶險等重大公共事件中的智能化程度,是釋放警力,避免傷亡的有效方法。故本文對此方向進(jìn)行探索,提出了自己的物體識別和定位思路,并進(jìn)行了相關(guān)的實驗驗證,全文主要工作如下:首先,對RGB-D相機(jī)成像模型做出介紹。對RGB-D相機(jī)獲取的深度信息進(jìn)行濾波的不同方法進(jìn)行比較,在分析其優(yōu)缺點的基礎(chǔ)上驗證一種混合濾波的方法,在深度信息的濾波實驗中取得了較好的效果。其次,研究介紹了卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程和基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)及工作原理。對卷積神經(jīng)網(wǎng)絡(luò)模型中比較有代表性的網(wǎng)絡(luò)分別就其實現(xiàn)的核心原理、技術(shù)創(chuàng)新做了分析比較。制作了相關(guān)數(shù)據(jù)集,選擇Mask R-CNN網(wǎng)絡(luò)進(jìn)行了物體識別的實驗,對深度相機(jī)進(jìn)行預(yù)處理后,完成了本文提出的物體空間定位算法的實驗。最后,在Turtlebot2移動機(jī)器人平臺上配備了機(jī)械臂、微軟的Kinect V2相機(jī)和英特爾的SR300相機(jī),兩種型號的RGB-D深度相機(jī)根據(jù)各...
【文章頁數(shù)】:85 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
引言
1 緒論
1.1 研究背景及意義
1.2 基于機(jī)器視覺的物體識別定位發(fā)展現(xiàn)狀
1.3 基于機(jī)器視覺的移動機(jī)器人發(fā)展現(xiàn)狀
1.4 論文的主要工作和結(jié)構(gòu)安排
2 RGB-D深度相機(jī)模型及深度信息的濾波
2.1 RGB-D相機(jī)模型
2.1.1 針孔相機(jī)模型
2.1.2 深度相機(jī)彩色頭和深度頭融合原理介紹
2.1.3 畸變模型
2.1.4 深度相機(jī)選型簡介
2.2 深度圖像的濾波
2.2.1 深度圖像噪聲分析
2.2.2 基于深度信息的高斯濾波
2.2.3 基于深度信息的中值濾波
2.2.4 基于深度信息的雙邊濾波
2.2.5 基于深度信息的混合濾波
2.3 本章小結(jié)
3 基于深度相機(jī)和神經(jīng)網(wǎng)絡(luò)的物體識別與定位
3.1 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)及訓(xùn)練流程
3.1.1 卷積層
3.1.2 池化層
3.1.3 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練流程
3.1.4 卷積神經(jīng)網(wǎng)絡(luò)R-CNN至 Mask R-CNN的發(fā)展
3.2 Mask R-CNN模型訓(xùn)練與識別實驗
3.2.1 模型訓(xùn)練
3.2.2識別實驗
3.3物體空間定位實驗
3.3.1深度相機(jī)標(biāo)定實驗
3.3.2彩色信息和深度信息的融合實驗
3.3.3 物體空間定位流程
3.3.4 物體空間定位實驗結(jié)果
3.4 本章小結(jié)
4 物體識別與定位在機(jī)器人移動及抓取中的應(yīng)用
4.1 ROS系統(tǒng)
4.2 Turtle Bot機(jī)器人介紹
4.3 機(jī)械臂
4.3.1 機(jī)械臂介紹
4.3.2機(jī)械臂模型及手眼標(biāo)定實驗
4.4移動定位和機(jī)械臂抓取定位實驗
4.4.1移動定位實驗
4.4.2機(jī)械臂抓取定位實驗
4.5 本章小結(jié)
5 總結(jié)與展望
5.1 總結(jié)
5.2 展望
結(jié)論
參考文獻(xiàn)
在學(xué)研究成果
致謝
【參考文獻(xiàn)】:
期刊論文
[1]國外機(jī)器人技術(shù)最新發(fā)展概述[J]. 張偉,刁戰(zhàn)穎. 中國安防. 2019(10)
[2]基于ROS與三維點云圖像的室內(nèi)物體精準(zhǔn)定位[J]. 于洋,樸燕,倪焱,佀同嶺. 液晶與顯示. 2019(06)
[3]AI機(jī)器人賦能安防——優(yōu)必選發(fā)布智能巡檢機(jī)器人ATRIS拓寬智能邊界[J]. 羅超. 中國公共安全. 2018(11)
[4]反恐機(jī)器人研究綜述[J]. 李婷婷,李強(qiáng),劉書蕓,駱聰聰. 中國安全防范技術(shù)與應(yīng)用. 2018(03)
[5]警用機(jī)器人發(fā)展現(xiàn)狀及趨勢[J]. 余兵,李劍. 警察技術(shù). 2018(03)
[6]基于Kinect傳感器的機(jī)械手自主抓取技術(shù)研究[J]. 鐘澤宇,周海婷,古煒豪,鄒修國. 儀表技術(shù)與傳感器. 2016(07)
[7]國外典型核化偵察機(jī)器人探析[J]. 邵晟宇,曹樹亞,楊柳. 機(jī)器人技術(shù)與應(yīng)用. 2015(01)
[8]履帶式移動機(jī)器人研究現(xiàn)狀[J]. 吉洋,霍光青. 林業(yè)機(jī)械與木工設(shè)備. 2012(10)
[9]結(jié)構(gòu)光編碼方法綜述[J]. 陳彥軍,左旺孟,王寬全,吳秋峰. 小型微型計算機(jī)系統(tǒng). 2010(09)
碩士論文
[1]室內(nèi)環(huán)境下移動機(jī)械臂的目標(biāo)抓取技術(shù)[D]. 段榮杰.中北大學(xué) 2019
[2]基于RGB-D相機(jī)的工業(yè)機(jī)器人定位抓取技術(shù)與系統(tǒng)集成研究[D]. 戴健春.重慶郵電大學(xué) 2018
[3]基于Kinect的案件現(xiàn)場三維重建方法研究[D]. 劉廣迪.中國人民公安大學(xué) 2017
[4]基于單目視覺的移動機(jī)器人目標(biāo)識別與定位[D]. 劉洪偉.山東大學(xué) 2011
[5]基于單目視覺的定位系統(tǒng)研究[D]. 張治國.華中科技大學(xué) 2009
本文編號:3649647
【文章頁數(shù)】:85 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
引言
1 緒論
1.1 研究背景及意義
1.2 基于機(jī)器視覺的物體識別定位發(fā)展現(xiàn)狀
1.3 基于機(jī)器視覺的移動機(jī)器人發(fā)展現(xiàn)狀
1.4 論文的主要工作和結(jié)構(gòu)安排
2 RGB-D深度相機(jī)模型及深度信息的濾波
2.1 RGB-D相機(jī)模型
2.1.1 針孔相機(jī)模型
2.1.2 深度相機(jī)彩色頭和深度頭融合原理介紹
2.1.3 畸變模型
2.1.4 深度相機(jī)選型簡介
2.2 深度圖像的濾波
2.2.1 深度圖像噪聲分析
2.2.2 基于深度信息的高斯濾波
2.2.3 基于深度信息的中值濾波
2.2.4 基于深度信息的雙邊濾波
2.2.5 基于深度信息的混合濾波
2.3 本章小結(jié)
3 基于深度相機(jī)和神經(jīng)網(wǎng)絡(luò)的物體識別與定位
3.1 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)及訓(xùn)練流程
3.1.1 卷積層
3.1.2 池化層
3.1.3 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練流程
3.1.4 卷積神經(jīng)網(wǎng)絡(luò)R-CNN至 Mask R-CNN的發(fā)展
3.2 Mask R-CNN模型訓(xùn)練與識別實驗
3.2.1 模型訓(xùn)練
3.2.2識別實驗
3.3物體空間定位實驗
3.3.1深度相機(jī)標(biāo)定實驗
3.3.2彩色信息和深度信息的融合實驗
3.3.3 物體空間定位流程
3.3.4 物體空間定位實驗結(jié)果
3.4 本章小結(jié)
4 物體識別與定位在機(jī)器人移動及抓取中的應(yīng)用
4.1 ROS系統(tǒng)
4.2 Turtle Bot機(jī)器人介紹
4.3 機(jī)械臂
4.3.1 機(jī)械臂介紹
4.3.2機(jī)械臂模型及手眼標(biāo)定實驗
4.4移動定位和機(jī)械臂抓取定位實驗
4.4.1移動定位實驗
4.4.2機(jī)械臂抓取定位實驗
4.5 本章小結(jié)
5 總結(jié)與展望
5.1 總結(jié)
5.2 展望
結(jié)論
參考文獻(xiàn)
在學(xué)研究成果
致謝
【參考文獻(xiàn)】:
期刊論文
[1]國外機(jī)器人技術(shù)最新發(fā)展概述[J]. 張偉,刁戰(zhàn)穎. 中國安防. 2019(10)
[2]基于ROS與三維點云圖像的室內(nèi)物體精準(zhǔn)定位[J]. 于洋,樸燕,倪焱,佀同嶺. 液晶與顯示. 2019(06)
[3]AI機(jī)器人賦能安防——優(yōu)必選發(fā)布智能巡檢機(jī)器人ATRIS拓寬智能邊界[J]. 羅超. 中國公共安全. 2018(11)
[4]反恐機(jī)器人研究綜述[J]. 李婷婷,李強(qiáng),劉書蕓,駱聰聰. 中國安全防范技術(shù)與應(yīng)用. 2018(03)
[5]警用機(jī)器人發(fā)展現(xiàn)狀及趨勢[J]. 余兵,李劍. 警察技術(shù). 2018(03)
[6]基于Kinect傳感器的機(jī)械手自主抓取技術(shù)研究[J]. 鐘澤宇,周海婷,古煒豪,鄒修國. 儀表技術(shù)與傳感器. 2016(07)
[7]國外典型核化偵察機(jī)器人探析[J]. 邵晟宇,曹樹亞,楊柳. 機(jī)器人技術(shù)與應(yīng)用. 2015(01)
[8]履帶式移動機(jī)器人研究現(xiàn)狀[J]. 吉洋,霍光青. 林業(yè)機(jī)械與木工設(shè)備. 2012(10)
[9]結(jié)構(gòu)光編碼方法綜述[J]. 陳彥軍,左旺孟,王寬全,吳秋峰. 小型微型計算機(jī)系統(tǒng). 2010(09)
碩士論文
[1]室內(nèi)環(huán)境下移動機(jī)械臂的目標(biāo)抓取技術(shù)[D]. 段榮杰.中北大學(xué) 2019
[2]基于RGB-D相機(jī)的工業(yè)機(jī)器人定位抓取技術(shù)與系統(tǒng)集成研究[D]. 戴健春.重慶郵電大學(xué) 2018
[3]基于Kinect的案件現(xiàn)場三維重建方法研究[D]. 劉廣迪.中國人民公安大學(xué) 2017
[4]基于單目視覺的移動機(jī)器人目標(biāo)識別與定位[D]. 劉洪偉.山東大學(xué) 2011
[5]基于單目視覺的定位系統(tǒng)研究[D]. 張治國.華中科技大學(xué) 2009
本文編號:3649647
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3649647.html
最近更新
教材專著