面向工業(yè)裝配演示編程的零件識別與位姿估計
發(fā)布時間:2017-09-09 05:20
本文關鍵詞:面向工業(yè)裝配演示編程的零件識別與位姿估計
【摘要】:目前工業(yè)機器人以其巨大的優(yōu)勢得到了廣泛應用,但隨著現(xiàn)代制造業(yè)的發(fā)展,對機器人的智能性和靈活性提出了更高需求。演示編程技術(shù)可以讓機器人通過“觀察”人的演示而完成相應的裝配任務,從而大大簡化工業(yè)機器人的開發(fā)過程,因此工業(yè)機器人的演示編程逐漸成為研究的熱點。本文針對工業(yè)機器人演示編程過程中的零件識別和位姿估計問題展開研究。工業(yè)裝配中由于零件之間具有嚴格的裝配關系約束,對零件位姿估計提出了較高的精度要求。此外由于工業(yè)零件表面紋理不豐富,為零件的識別帶來了挑戰(zhàn)。本文的研究成果如下。1.針對不同顏色和紋理的零件,本文在利用BP神經(jīng)網(wǎng)絡完成零件的顏色判別后,提出了融合灰度共生矩陣和Tamura粗糙度描述的紋理特征,然后采用非線性SVM實現(xiàn)了不同放置狀態(tài)(正放、反放、側(cè)放)的零件識別。在紋理特征提取前,本文對每個零件的姿態(tài)做了歸一化,因此本文的基于紋理特征的識別結(jié)果不受零件旋轉(zhuǎn)的影響。實驗結(jié)果表明本文的顏色判別與紋理識別算法取得了較高的識別正確率。2.針對多類物體識別,本文提出了一種基于組合特征和隨機森林(Random Forest)的多類物體識別算法。該組合特征包括顏色直方圖、旋轉(zhuǎn)不變LBP、圓形率和長寬比、歸一化的Zernike矩描述,并且該組合特征具有旋轉(zhuǎn)和平移不變性。然后訓練隨機森林作為分類器模型。在20種物體上的實驗結(jié)果表明本文的識別正確率達99.33%。通過與其它組合特征和分類算法的對比,證明了本文算法的優(yōu)勢和有效性。3.針對不同的裝配任務,本文設計了兩種不同的位姿估計算法:一是結(jié)合物體識別的先驗信息,利用單目視覺和最小面積矩形(MAR)算法完成了零件的位姿估計。二是針對復雜裝配情形,采用了雙目立體視覺和概率霍夫變換算法完成了零件的位姿估計。本文的零件位姿估計算法實現(xiàn)在線估計的同時,保證了裝配中精度的要求。
【關鍵詞】:演示編程 識別 位姿估計 SVM 隨機森林
【學位授予單位】:浙江大學
【學位級別】:碩士
【學位授予年份】:2016
【分類號】:TP391.41;TP242
【目錄】:
- 致謝5-6
- 摘要6-7
- Abstract7-11
- 第一章 緒論11-19
- 1.1 研究背景及意義11
- 1.2 研究發(fā)展綜述11-17
- 1.2.1 物體識別算法國內(nèi)外研究現(xiàn)狀11-15
- 1.2.2 物體位姿估計國內(nèi)外研究現(xiàn)狀15-17
- 1.3 本文研究內(nèi)容17-18
- 1.4 本文結(jié)構(gòu)18-19
- 第二章 融合顏色和紋理信息的積木識別19-39
- 2.1 背景與概述19-20
- 2.2 結(jié)合顏色描述和神經(jīng)網(wǎng)絡的積木顏色分類20-23
- 2.2.1 顏色空間選擇20-21
- 2.2.2 BP神經(jīng)網(wǎng)絡學習算法與改進21-23
- 2.3 積木紋理特征提取與姿態(tài)歸一化23-27
- 2.3.1 基于灰度共生矩陣的紋理描述24-25
- 2.3.2 融入Tamura粗糙度的紋理描述與姿態(tài)歸一化25-27
- 2.4 基于非線性SVM的積木放置狀態(tài)識別27-30
- 2.4.1 非線性SVM與軟間隔最大化27-30
- 2.5 實驗結(jié)果與分析30-37
- 2.6 本章小結(jié)37-39
- 第三章 基于組合特征和隨機森林(Random Forest)的多類零件識別39-65
- 3.1 背景與概述39-40
- 3.2 算法框架40-41
- 3.3 圖像分割41-42
- 3.4 組合特征表示42-50
- 3.4.1 歸一化顏色直方圖定義43
- 3.4.2 旋轉(zhuǎn)不變局部二值模式43-45
- 3.4.3 圓形率與長寬比定義45-47
- 3.4.4 歸一化Zernike矩計算47-50
- 3.5 核主成分分析(Kernel PCA)50-53
- 3.6 Random Forest算法53-57
- 3.6.1 決策樹原理53-55
- 3.6.2 Random Forest分類過程55-56
- 3.6.3 利用袋外數(shù)據(jù)(Out-of-Bag)估計特征重要性56-57
- 3.7 實驗結(jié)果與分析57-64
- 3.8 本章小結(jié)64-65
- 第四章 零件位姿估計65-91
- 4.1 背景與概述65-67
- 4.2 基于單目視覺的零件位姿估計67-72
- 4.2.1 相機成像模型67-69
- 4.2.2 相機畸變模型69-70
- 4.2.3 基于相機非線性成像模型的零件定位70-72
- 4.3 基于最小面積矩形(MAR)的零件位姿估計72-75
- 4.3.1 Grapham掃描法計算凸包72-74
- 4.3.2 MAR算法估計零件位姿74-75
- 4.4 基于雙目立體視覺的零件位姿估計75-82
- 4.4.1 雙目立體視覺原理76-78
- 4.4.2 體匹配與零件定位78-81
- 4.4.3 基于概率Hough變換的零件位姿估計81-82
- 4.5 實驗結(jié)果與分析82-89
- 4.6 本章小結(jié)89-91
- 第五章 總結(jié)與展望91-95
- 5.1 總結(jié)91-92
- 5.2 展望92-95
- 參考文獻95-103
- 作者簡歷103-105
- 攻讀學位期間取得的研究成果105
【參考文獻】
中國期刊全文數(shù)據(jù)庫 前3條
1 余翔宇,孫洪,余志雄;改進的二維點集凸包快速求取方法[J];武漢理工大學學報;2005年10期
2 黃桂平,李廣云,王保豐,葉聲華;單目視覺測量技術(shù)研究[J];計量學報;2004年04期
3 王杰臣;2維空間數(shù)據(jù)最小凸包生成算法優(yōu)化[J];測繪學報;2002年01期
,本文編號:818522
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/818522.html
最近更新
教材專著