面向機(jī)械臂自主操作的目標(biāo)位姿感知和抓取技能學(xué)習(xí)研究
發(fā)布時間:2021-12-17 08:25
利用機(jī)械臂智能、高效地執(zhí)行操作任務(wù)已經(jīng)成為機(jī)器人研究領(lǐng)域的熱點(diǎn),但因?yàn)閼?yīng)用場景復(fù)雜多變,機(jī)器人需要采用更加智能化的控制方式才能在各種非結(jié)構(gòu)環(huán)境下自主地完成操作任務(wù)。針對自主操作的諸多難點(diǎn),本文基于智能學(xué)習(xí)方式提供多種解決方案;谏疃葘W(xué)習(xí)從視覺中提取環(huán)境表征信息,準(zhǔn)確感知目標(biāo)位姿狀態(tài)后利用視覺伺服控制完成操作。此外,基于深度強(qiáng)化學(xué)習(xí)讓機(jī)器人與環(huán)境自動交互學(xué)習(xí)最優(yōu)控制策略,并針對稀疏獎勵等問題提出了優(yōu)化,本文從下述幾個方向進(jìn)行研究:首先,研究了Kinova七自由度冗余機(jī)械臂正逆運(yùn)動學(xué)求解及優(yōu)化問題;針對目標(biāo)識別和位姿估計任務(wù),利用Label Fusion制作了用于監(jiān)督深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練的數(shù)據(jù)集;編寫機(jī)械臂和操作物模型,通過Mujoco搭建了用于訓(xùn)練機(jī)器人智能體自主學(xué)習(xí)操作技能的物理仿真環(huán)境。其次,針對復(fù)雜未知環(huán)境下的自主操作任務(wù),提出一種基于深度學(xué)習(xí)網(wǎng)絡(luò)的特征融合算法,先利用RGB-D相機(jī)輸出的彩色圖像識別出興趣目標(biāo)并從背景中分割出來,然后根據(jù)識別分割結(jié)果實(shí)現(xiàn)RGB和Depth特征的逐像素融合,全局特征為之后的位姿預(yù)測模塊提供更豐富且準(zhǔn)確的細(xì)節(jié)信息,輸出位姿進(jìn)一步通過點(diǎn)云配準(zhǔn)實(shí)現(xiàn)參數(shù)微調(diào),...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:78 頁
【學(xué)位級別】:碩士
【圖文】:
IBVS控制結(jié)構(gòu)
PBVS控制結(jié)構(gòu)
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文3分解算法來估計操作物體的精確位姿[10]。為了解決PBVS過程中目標(biāo)逃離視線范圍導(dǎo)致任務(wù)失敗的問題,Parkdh等人[11]根據(jù)目標(biāo)的實(shí)時位姿計算出相機(jī)的運(yùn)動值,保證目標(biāo)一直在視野場中。Chesi等人[12]將PBVS控制和末端的軌跡規(guī)劃相結(jié)合,GeL等人[13]通過卡爾曼濾波估計識別目標(biāo)的位置和速度,一定程度上解決了因?yàn)檎趽鯇?dǎo)致的關(guān)節(jié)運(yùn)動受限、機(jī)械臂避障等問題。PBVS因?yàn)槠浣Y(jié)構(gòu)簡單和使用性能好而被大多數(shù)實(shí)時控制系統(tǒng)所采用。圖1-3基于PBVS的機(jī)械臂抓取操作任務(wù)1.3.2目標(biāo)識別和位姿估計的研究現(xiàn)狀機(jī)器人想要在非結(jié)構(gòu)環(huán)境下完成自主操作任務(wù),需要先獲取目標(biāo)的形狀類別、位置姿態(tài)等信息,目標(biāo)識別和位姿估計的準(zhǔn)確度和速度直接決定了視覺伺服任務(wù)的成敗和質(zhì)量,被廣泛應(yīng)用于機(jī)器人操作、避障等任務(wù),是研究視覺伺服操作的前提。物體識別算法涉及兩方面的視覺任務(wù):目標(biāo)識別和位姿估計。目標(biāo)識別算法決定了任務(wù)的成敗,大致可以分為兩類,傳統(tǒng)方法是基于模板匹配識別,常用灰度信息采用平方差匹配和相關(guān)匹配等統(tǒng)計方法,Lowe等[14][15][16]將大量目標(biāo)圖像以及合成圖像作為數(shù)據(jù)集來重建目標(biāo)物體的三維模型,然后通過特征匹配算法識別目標(biāo)物體。該類方法需要提供模板,易受噪聲干擾,使用場景受限。另外一類是基于分類模型的識別,先精確分割出目標(biāo),再提取相應(yīng)的特征,然后利用分類器模型即可識別出物體,常用分類器模型有貝葉斯分類器、SVM、決策樹、CNN等[17][18][19]。圖1-4FasterR-CNN目標(biāo)識別算法2005年,Navneet等人[20]通過提取HOG特征并用SVM分類器檢測人類,得到了非常不錯的效果。2014年,Ross首次將CNN引入到目標(biāo)識別任務(wù)中[21],大幅
本文編號:3539747
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:78 頁
【學(xué)位級別】:碩士
【圖文】:
IBVS控制結(jié)構(gòu)
PBVS控制結(jié)構(gòu)
哈爾濱工業(yè)大學(xué)工學(xué)碩士學(xué)位論文3分解算法來估計操作物體的精確位姿[10]。為了解決PBVS過程中目標(biāo)逃離視線范圍導(dǎo)致任務(wù)失敗的問題,Parkdh等人[11]根據(jù)目標(biāo)的實(shí)時位姿計算出相機(jī)的運(yùn)動值,保證目標(biāo)一直在視野場中。Chesi等人[12]將PBVS控制和末端的軌跡規(guī)劃相結(jié)合,GeL等人[13]通過卡爾曼濾波估計識別目標(biāo)的位置和速度,一定程度上解決了因?yàn)檎趽鯇?dǎo)致的關(guān)節(jié)運(yùn)動受限、機(jī)械臂避障等問題。PBVS因?yàn)槠浣Y(jié)構(gòu)簡單和使用性能好而被大多數(shù)實(shí)時控制系統(tǒng)所采用。圖1-3基于PBVS的機(jī)械臂抓取操作任務(wù)1.3.2目標(biāo)識別和位姿估計的研究現(xiàn)狀機(jī)器人想要在非結(jié)構(gòu)環(huán)境下完成自主操作任務(wù),需要先獲取目標(biāo)的形狀類別、位置姿態(tài)等信息,目標(biāo)識別和位姿估計的準(zhǔn)確度和速度直接決定了視覺伺服任務(wù)的成敗和質(zhì)量,被廣泛應(yīng)用于機(jī)器人操作、避障等任務(wù),是研究視覺伺服操作的前提。物體識別算法涉及兩方面的視覺任務(wù):目標(biāo)識別和位姿估計。目標(biāo)識別算法決定了任務(wù)的成敗,大致可以分為兩類,傳統(tǒng)方法是基于模板匹配識別,常用灰度信息采用平方差匹配和相關(guān)匹配等統(tǒng)計方法,Lowe等[14][15][16]將大量目標(biāo)圖像以及合成圖像作為數(shù)據(jù)集來重建目標(biāo)物體的三維模型,然后通過特征匹配算法識別目標(biāo)物體。該類方法需要提供模板,易受噪聲干擾,使用場景受限。另外一類是基于分類模型的識別,先精確分割出目標(biāo),再提取相應(yīng)的特征,然后利用分類器模型即可識別出物體,常用分類器模型有貝葉斯分類器、SVM、決策樹、CNN等[17][18][19]。圖1-4FasterR-CNN目標(biāo)識別算法2005年,Navneet等人[20]通過提取HOG特征并用SVM分類器檢測人類,得到了非常不錯的效果。2014年,Ross首次將CNN引入到目標(biāo)識別任務(wù)中[21],大幅
本文編號:3539747
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3539747.html
最近更新
教材專著