基于RGB-D數(shù)據(jù)的場景認(rèn)知與人機(jī)協(xié)作
發(fā)布時間:2022-08-02 12:01
近年來,隨著中國制造業(yè)的飛速發(fā)展,工業(yè)機(jī)械臂的應(yīng)用也越來越廣泛。因此,如何通過提升機(jī)械臂的智能化水平來實現(xiàn)人機(jī)協(xié)作是該領(lǐng)域的研究熱點(diǎn)。解決人機(jī)共享環(huán)境的有效感知和場景理解問題是實現(xiàn)具有與人協(xié)同工作能力的新一代工業(yè)機(jī)械臂系統(tǒng)的核心。為此,本文研究了基于場景的實時認(rèn)知實現(xiàn)人和機(jī)械臂協(xié)作裝配復(fù)雜工件的問題,并以孔明鎖為實例進(jìn)行了實驗驗證。本文提出了基于RGB圖像的目標(biāo)物體檢測方法和基于深度圖像的目標(biāo)物體檢測方法,這兩種檢測方法都能夠?qū)崿F(xiàn)對場景中目標(biāo)物體的檢測。通過對比實驗,發(fā)現(xiàn)基于深度圖像的目標(biāo)檢測方法獲得物體位置信息具有更高精度,且不受觀察角度影響。因此,在對場景進(jìn)行目標(biāo)檢測時,使用基于深度圖像的方法對目標(biāo)物體與背景進(jìn)行分離,進(jìn)而得到目標(biāo)物體的RGB-D圖像。通過本文所提的改進(jìn)ICP點(diǎn)云匹配算法,求得目標(biāo)物體在感知系統(tǒng)坐標(biāo)系下的準(zhǔn)確位姿。為了確定目標(biāo)物體在機(jī)械臂坐標(biāo)系下的位姿,對感知系統(tǒng)與機(jī)械臂進(jìn)行聯(lián)合標(biāo)定,獲得兩個三維坐標(biāo)系之間的轉(zhuǎn)換關(guān)系,通過位姿變換將目標(biāo)物體投影到機(jī)械臂坐標(biāo)系下,作為機(jī)械臂運(yùn)動的目標(biāo)點(diǎn)位。依據(jù)本文提出的機(jī)械臂運(yùn)動控制方法對機(jī)械臂進(jìn)行運(yùn)動路徑規(guī)劃,得到機(jī)械臂的運(yùn)動軌跡。...
【文章頁數(shù)】:66 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
1 緒論
1.1 研究背景與意義
1.2 研究現(xiàn)狀與發(fā)展趨勢
1.3 本文的主要工作
2 場景認(rèn)知與人機(jī)協(xié)作實驗系統(tǒng)搭建
2.1 感知系統(tǒng)
2.2 UR機(jī)械臂
2.2.1 UR機(jī)械臂本體
2.2.2 UR機(jī)械臂示教器與控制箱
2.2.3 機(jī)械臂夾爪
2.3 實驗平臺構(gòu)建
2.4 實驗平臺軟件系統(tǒng)
2.4.1 ROS操作系統(tǒng)
2.4.2 OpenCV計算機(jī)視覺庫
2.4.3 PCL點(diǎn)云處理庫
3 基于RGB-D數(shù)據(jù)的場景認(rèn)知
3.1 場景中目標(biāo)物體檢測
3.1.1 基于RGB圖像的目標(biāo)物體檢測
3.1.2 基于深度圖像的目標(biāo)物體檢測
3.1.3 兩種方法的比較
3.2 基于場景的彩色圖像與深度圖像融合
3.2.1 彩色攝像頭與深度傳感器坐標(biāo)聯(lián)合標(biāo)定
3.2.2 彩色圖像和深度圖像融合
3.3 場景中物體的位姿估計
3.3.1 感知系統(tǒng)坐標(biāo)系下物體的坐標(biāo)計算
3.3.2 基于ICP點(diǎn)云匹配的物體位姿估計
3.4 實驗結(jié)果及分析
3.4.1 目標(biāo)物體檢測結(jié)果及分析
3.4.2 物體位姿估計結(jié)果及分析
4 基于實時場景認(rèn)知的人機(jī)協(xié)作
4.1 場景中目標(biāo)物體位姿的實時獲取
4.1.1 感知系統(tǒng)與UR機(jī)械臂的聯(lián)合標(biāo)定
4.1.2 物體在機(jī)械臂坐標(biāo)系下的位姿獲取
4.2 機(jī)械臂運(yùn)動控制
4.2.1 UR機(jī)械臂安全工作區(qū)間的限定
4.2.2 基于關(guān)節(jié)空間規(guī)劃的機(jī)械臂運(yùn)動控制
4.2.3 基于笛卡爾空間規(guī)劃的機(jī)械臂運(yùn)動控制
4.2.4 兩種運(yùn)動控制相結(jié)合
4.3 實驗結(jié)果及分析
5 總結(jié)與展望
5.1 本文總結(jié)
5.2 本文展望
參考文獻(xiàn)
攻讀碩士學(xué)位期間發(fā)表學(xué)術(shù)論文情況
課題資助情況
致謝
本文編號:3668485
【文章頁數(shù)】:66 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
1 緒論
1.1 研究背景與意義
1.2 研究現(xiàn)狀與發(fā)展趨勢
1.3 本文的主要工作
2 場景認(rèn)知與人機(jī)協(xié)作實驗系統(tǒng)搭建
2.1 感知系統(tǒng)
2.2 UR機(jī)械臂
2.2.1 UR機(jī)械臂本體
2.2.2 UR機(jī)械臂示教器與控制箱
2.2.3 機(jī)械臂夾爪
2.3 實驗平臺構(gòu)建
2.4 實驗平臺軟件系統(tǒng)
2.4.1 ROS操作系統(tǒng)
2.4.2 OpenCV計算機(jī)視覺庫
2.4.3 PCL點(diǎn)云處理庫
3 基于RGB-D數(shù)據(jù)的場景認(rèn)知
3.1 場景中目標(biāo)物體檢測
3.1.1 基于RGB圖像的目標(biāo)物體檢測
3.1.2 基于深度圖像的目標(biāo)物體檢測
3.1.3 兩種方法的比較
3.2 基于場景的彩色圖像與深度圖像融合
3.2.1 彩色攝像頭與深度傳感器坐標(biāo)聯(lián)合標(biāo)定
3.2.2 彩色圖像和深度圖像融合
3.3 場景中物體的位姿估計
3.3.1 感知系統(tǒng)坐標(biāo)系下物體的坐標(biāo)計算
3.3.2 基于ICP點(diǎn)云匹配的物體位姿估計
3.4 實驗結(jié)果及分析
3.4.1 目標(biāo)物體檢測結(jié)果及分析
3.4.2 物體位姿估計結(jié)果及分析
4 基于實時場景認(rèn)知的人機(jī)協(xié)作
4.1 場景中目標(biāo)物體位姿的實時獲取
4.1.1 感知系統(tǒng)與UR機(jī)械臂的聯(lián)合標(biāo)定
4.1.2 物體在機(jī)械臂坐標(biāo)系下的位姿獲取
4.2 機(jī)械臂運(yùn)動控制
4.2.1 UR機(jī)械臂安全工作區(qū)間的限定
4.2.2 基于關(guān)節(jié)空間規(guī)劃的機(jī)械臂運(yùn)動控制
4.2.3 基于笛卡爾空間規(guī)劃的機(jī)械臂運(yùn)動控制
4.2.4 兩種運(yùn)動控制相結(jié)合
4.3 實驗結(jié)果及分析
5 總結(jié)與展望
5.1 本文總結(jié)
5.2 本文展望
參考文獻(xiàn)
攻讀碩士學(xué)位期間發(fā)表學(xué)術(shù)論文情況
課題資助情況
致謝
本文編號:3668485
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3668485.html
最近更新
教材專著