面向工業(yè)機器人裝配的單目視覺定位方法
發(fā)布時間:2021-12-10 05:53
相機與工業(yè)機器人的結(jié)合使得工業(yè)機器人能夠更直觀地獲取環(huán)境信息,視覺傳感器的進步和圖像處理技術(shù)的發(fā)展極大地擴大了工業(yè)機器人的應(yīng)用場景。目前,工業(yè)機器人主要依靠示教方式完成裝配作業(yè)和軌跡規(guī)劃,這種方式嚴(yán)格限定了目標(biāo)工件的位姿,通常應(yīng)用在大批量工業(yè)化生產(chǎn)模式中。隨著物聯(lián)網(wǎng)的發(fā)展,小批量定制化的柔性生產(chǎn)線將成為未來工廠的發(fā)展趨勢,無額外傳感器的工業(yè)機器人將難以勝任。本文以單目相機和工業(yè)機器人作為研究對象,在相機與工業(yè)機器人坐標(biāo)轉(zhuǎn)換、工件角點識別以及相機位姿估計等領(lǐng)域進行了探索,并演示了單目視覺定位方法在機器人裝配實驗中的應(yīng)用,目標(biāo)工件無需人工合作點,驗證了單目視覺定位的可行性。首先,建立了工業(yè)機器人運動學(xué)模型和相機模型。采用齊次變換矩陣和D-H參數(shù)法建立了SR10C工業(yè)機器人的運動學(xué)模型,推導(dǎo)出機器人的正運動學(xué)方程。接著建立相機的中心透視投影模型,詳細(xì)分析了相機標(biāo)定原理和畸變原理,采用張正友標(biāo)定法對相機的內(nèi)參數(shù)進行了標(biāo)定,得到相機的內(nèi)參數(shù)矩陣。利用上述建立的機器人模型和相機模型,建立了手眼標(biāo)定的模型,采用手眼標(biāo)定算法計算了機器人與相機模型之間的變換矩陣,并研究了手眼標(biāo)定狀態(tài)數(shù)與標(biāo)定誤差之間的關(guān)...
【文章來源】:大連理工大學(xué)遼寧省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:83 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
1 緒論
1.1 課題研究背景及意義
1.2 基于視覺定位的機器人裝配研究現(xiàn)狀
1.2.1 視覺定位與機器人裝配的研究現(xiàn)狀
1.2.2 相機位姿估計的研究現(xiàn)狀
1.3 本文的主要研究內(nèi)容
2 SR10C工業(yè)機器人運動學(xué)模型與RealSense相機模型
2.1 SR10C工業(yè)機器人運動學(xué)分析
2.1.1 工業(yè)機器人運動學(xué)模型
2.1.2 工業(yè)機器人運動學(xué)正解
2.2 RealSense相機模型構(gòu)建與參數(shù)標(biāo)定
2.2.1 透視投影模型
2.2.2 相機畸變模型
2.2.3 相機參數(shù)標(biāo)定方法
2.3 手眼標(biāo)定
2.3.1 手眼系統(tǒng)的數(shù)學(xué)模型
2.3.2 手眼標(biāo)定實驗
2.4 本章小結(jié)
3 基于輪廓特征的典型工件角點識別
3.1 典型工件
3.2 基于輪廓特征的典型工件角點識別
3.2.1 濾波與邊緣檢測
3.2.2 直線擬合與篩選
3.2.3 工件角點篩選
3.3 實驗結(jié)果與分析
3.3.1 角點識別實驗
3.3.2 角點識別誤差分析
3.4 本章小結(jié)
4 基于SoftOI算法的相機位姿估計
4.1 SoftOI算法
4.1.1 空間共線性誤差
4.1.2 距離矩陣與匹配矩陣
4.1.3 匹配評價函數(shù)
4.1.4 改進的正交迭代算法
4.2 實驗結(jié)果與分析
4.2.1 數(shù)據(jù)仿真實驗
4.2.2 真實圖像實驗
4.3 本章小結(jié)
5 工業(yè)機器人定位實驗
5.1 實驗平臺及系統(tǒng)組成
5.2 機器人基于典型工件的定位演示
5.3 工業(yè)機器人定位實驗分析
5.4 單目相機定位在機器人裝配中的應(yīng)用
5.5 本章小結(jié)
結(jié)論
參考文獻
攻讀碩士學(xué)位期間發(fā)表學(xué)術(shù)論文情況
致謝
【參考文獻】:
期刊論文
[1]工業(yè)機器人單目視覺對準(zhǔn)技術(shù)研究[J]. 雷金周,曾令斌,葉南. 光學(xué)精密工程. 2018(03)
[2]工業(yè)機器人技術(shù)的發(fā)展與應(yīng)用綜述[J]. 王浩. 中國新技術(shù)新產(chǎn)品. 2018(03)
[3]一種基于機器人的航天器大型部件自主裝配方法[J]. 孟少華,胡瑞欽,張立建,董愨. 機器人. 2018(01)
[4]機器人的發(fā)展現(xiàn)狀及應(yīng)用前景[J]. 周海,葉兵. 裝備制造技術(shù). 2017(09)
[5]基于點對應(yīng)的相機姿態(tài)估計算法性能評價[J]. 劉進博,郭鵬宇,李鑫,張小虎. 光學(xué)學(xué)報. 2016(05)
[6]基于六維力傳感器的工業(yè)機器人末端負(fù)載受力感知研究[J]. 張立建,胡瑞欽,易旺民. 自動化學(xué)報. 2017(03)
[7]機器視覺與應(yīng)用[J]. 郭靜,羅華,張濤. 電子科技. 2014(07)
[8]基于質(zhì)點系運動原理的像機位姿估計算法[J]. 陳鵬,胡廣大,閆桂榮. 光學(xué)學(xué)報. 2014(01)
[9]機器人技術(shù)研究進展[J]. 譚民,王碩. 自動化學(xué)報. 2013(07)
[10]基于機器視覺的微小型零件測量與裝配控制[J]. 王曉東,宋洪俠,劉超,羅怡. 哈爾濱工程大學(xué)學(xué)報. 2011(09)
博士論文
[1]基于單目視覺的像機位姿估計技術(shù)[D]. 陳鵬.北京科技大學(xué) 2015
碩士論文
[1]基于軸孔定位的OM2組件柔順裝配的力學(xué)分析[D]. 瞿慧敏.哈爾濱工業(yè)大學(xué) 2017
[2]搬運裝配機器人視覺引導(dǎo)智能作業(yè)系統(tǒng)與應(yīng)用軟件開發(fā)[D]. 盧張俊.東南大學(xué) 2017
[3]裝配機器人視覺系統(tǒng)應(yīng)用與軟件開發(fā)[D]. 傅華強.東南大學(xué) 2016
[4]飛機部件軸孔柔順裝配系統(tǒng)設(shè)計研究[D]. 李裕超.浙江大學(xué) 2016
[5]基于視覺機器人的直插元件的自動裝配技術(shù)研究[D]. 鄒修功.電子科技大學(xué) 2016
[6]機器視覺在工業(yè)機器人抓取技術(shù)中的應(yīng)用[D]. 朱良.中國科學(xué)院研究生院(沈陽計算技術(shù)研究所) 2016
[7]基于視覺/力傳感器的機器人柔順裝配技術(shù)研究[D]. 李海龍.燕山大學(xué) 2014
[8]基于單目視覺的機器人定位技術(shù)研究[D]. 梁利嘉.燕山大學(xué) 2014
[9]仿人智能機械手孔軸裝配無標(biāo)定視覺伺服研究[D]. 邱靜.重慶大學(xué) 2014
[10]基于單目視覺的定位系統(tǒng)研究[D]. 張治國.華中科技大學(xué) 2009
本文編號:3532028
【文章來源】:大連理工大學(xué)遼寧省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:83 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
1 緒論
1.1 課題研究背景及意義
1.2 基于視覺定位的機器人裝配研究現(xiàn)狀
1.2.1 視覺定位與機器人裝配的研究現(xiàn)狀
1.2.2 相機位姿估計的研究現(xiàn)狀
1.3 本文的主要研究內(nèi)容
2 SR10C工業(yè)機器人運動學(xué)模型與RealSense相機模型
2.1 SR10C工業(yè)機器人運動學(xué)分析
2.1.1 工業(yè)機器人運動學(xué)模型
2.1.2 工業(yè)機器人運動學(xué)正解
2.2 RealSense相機模型構(gòu)建與參數(shù)標(biāo)定
2.2.1 透視投影模型
2.2.2 相機畸變模型
2.2.3 相機參數(shù)標(biāo)定方法
2.3 手眼標(biāo)定
2.3.1 手眼系統(tǒng)的數(shù)學(xué)模型
2.3.2 手眼標(biāo)定實驗
2.4 本章小結(jié)
3 基于輪廓特征的典型工件角點識別
3.1 典型工件
3.2 基于輪廓特征的典型工件角點識別
3.2.1 濾波與邊緣檢測
3.2.2 直線擬合與篩選
3.2.3 工件角點篩選
3.3 實驗結(jié)果與分析
3.3.1 角點識別實驗
3.3.2 角點識別誤差分析
3.4 本章小結(jié)
4 基于SoftOI算法的相機位姿估計
4.1 SoftOI算法
4.1.1 空間共線性誤差
4.1.2 距離矩陣與匹配矩陣
4.1.3 匹配評價函數(shù)
4.1.4 改進的正交迭代算法
4.2 實驗結(jié)果與分析
4.2.1 數(shù)據(jù)仿真實驗
4.2.2 真實圖像實驗
4.3 本章小結(jié)
5 工業(yè)機器人定位實驗
5.1 實驗平臺及系統(tǒng)組成
5.2 機器人基于典型工件的定位演示
5.3 工業(yè)機器人定位實驗分析
5.4 單目相機定位在機器人裝配中的應(yīng)用
5.5 本章小結(jié)
結(jié)論
參考文獻
攻讀碩士學(xué)位期間發(fā)表學(xué)術(shù)論文情況
致謝
【參考文獻】:
期刊論文
[1]工業(yè)機器人單目視覺對準(zhǔn)技術(shù)研究[J]. 雷金周,曾令斌,葉南. 光學(xué)精密工程. 2018(03)
[2]工業(yè)機器人技術(shù)的發(fā)展與應(yīng)用綜述[J]. 王浩. 中國新技術(shù)新產(chǎn)品. 2018(03)
[3]一種基于機器人的航天器大型部件自主裝配方法[J]. 孟少華,胡瑞欽,張立建,董愨. 機器人. 2018(01)
[4]機器人的發(fā)展現(xiàn)狀及應(yīng)用前景[J]. 周海,葉兵. 裝備制造技術(shù). 2017(09)
[5]基于點對應(yīng)的相機姿態(tài)估計算法性能評價[J]. 劉進博,郭鵬宇,李鑫,張小虎. 光學(xué)學(xué)報. 2016(05)
[6]基于六維力傳感器的工業(yè)機器人末端負(fù)載受力感知研究[J]. 張立建,胡瑞欽,易旺民. 自動化學(xué)報. 2017(03)
[7]機器視覺與應(yīng)用[J]. 郭靜,羅華,張濤. 電子科技. 2014(07)
[8]基于質(zhì)點系運動原理的像機位姿估計算法[J]. 陳鵬,胡廣大,閆桂榮. 光學(xué)學(xué)報. 2014(01)
[9]機器人技術(shù)研究進展[J]. 譚民,王碩. 自動化學(xué)報. 2013(07)
[10]基于機器視覺的微小型零件測量與裝配控制[J]. 王曉東,宋洪俠,劉超,羅怡. 哈爾濱工程大學(xué)學(xué)報. 2011(09)
博士論文
[1]基于單目視覺的像機位姿估計技術(shù)[D]. 陳鵬.北京科技大學(xué) 2015
碩士論文
[1]基于軸孔定位的OM2組件柔順裝配的力學(xué)分析[D]. 瞿慧敏.哈爾濱工業(yè)大學(xué) 2017
[2]搬運裝配機器人視覺引導(dǎo)智能作業(yè)系統(tǒng)與應(yīng)用軟件開發(fā)[D]. 盧張俊.東南大學(xué) 2017
[3]裝配機器人視覺系統(tǒng)應(yīng)用與軟件開發(fā)[D]. 傅華強.東南大學(xué) 2016
[4]飛機部件軸孔柔順裝配系統(tǒng)設(shè)計研究[D]. 李裕超.浙江大學(xué) 2016
[5]基于視覺機器人的直插元件的自動裝配技術(shù)研究[D]. 鄒修功.電子科技大學(xué) 2016
[6]機器視覺在工業(yè)機器人抓取技術(shù)中的應(yīng)用[D]. 朱良.中國科學(xué)院研究生院(沈陽計算技術(shù)研究所) 2016
[7]基于視覺/力傳感器的機器人柔順裝配技術(shù)研究[D]. 李海龍.燕山大學(xué) 2014
[8]基于單目視覺的機器人定位技術(shù)研究[D]. 梁利嘉.燕山大學(xué) 2014
[9]仿人智能機械手孔軸裝配無標(biāo)定視覺伺服研究[D]. 邱靜.重慶大學(xué) 2014
[10]基于單目視覺的定位系統(tǒng)研究[D]. 張治國.華中科技大學(xué) 2009
本文編號:3532028
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3532028.html
最近更新
教材專著