基于雙目視覺的機(jī)器人識別定位及軌跡規(guī)劃研究
發(fā)布時(shí)間:2021-11-23 11:00
當(dāng)前在5G通信技術(shù)、人工智能和機(jī)器人領(lǐng)域高速發(fā)展的大趨勢下,機(jī)器人柔性制造、智能視覺分揀、AI交互等應(yīng)用的需求量日益劇增,各科研機(jī)構(gòu)也為此提供了具體的解決方案。機(jī)器人工作的核心技術(shù)是定位、識別和軌跡解算。從市場潛力和發(fā)展趨勢來看,未來基于視覺的機(jī)器人工作算法趨向更高的執(zhí)行效率和更準(zhǔn)的識別精度。本課題以串聯(lián)機(jī)器人抓取具體物體為例,研究基于雙目視覺的物體定位識別技術(shù)以及末端執(zhí)行器軌跡規(guī)劃等關(guān)鍵技術(shù)。首先概述了機(jī)器人的抓取工作涉及關(guān)鍵技術(shù)的國內(nèi)外研究現(xiàn)狀,推導(dǎo)了MICO2機(jī)器人的D-H參數(shù)和正逆運(yùn)動學(xué),解算了末端執(zhí)行器的工作空間,考慮了實(shí)驗(yàn)環(huán)境的微振動情況復(fù)原了相機(jī)的低頻振動圖像,引出軌跡規(guī)劃的意義。其次介紹了雙目立體視覺的成像及矯正原理,完成了相機(jī)標(biāo)定并且求解內(nèi)外參數(shù),以此為基礎(chǔ)通過矩陣變換確定機(jī)器人手眼標(biāo)定關(guān)系。左右相機(jī)分別以兩種標(biāo)定算法校準(zhǔn)標(biāo)定誤差,確保標(biāo)定結(jié)果的可靠性。通過立體匹配算法生成視差圖,根據(jù)空間對應(yīng)點(diǎn)的矩陣關(guān)系獲取深度圖。接著論述了基于PCL點(diǎn)云庫的RGB-D三維重建技術(shù)以及點(diǎn)云聚類分割提取技術(shù)。針對聚類分割技術(shù)優(yōu)化了體素量化算法,保證以較少的迭代次數(shù)收斂至最優(yōu)的聚類區(qū)域。...
【文章來源】:青島科技大學(xué)山東省
【文章頁數(shù)】:121 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-1串聯(lián)機(jī)器人各領(lǐng)域的應(yīng)用
青島科技大學(xué)研究生學(xué)位論文5學(xué)SeokminHonga等人使用雙目相機(jī)合成體素并生成3D點(diǎn)云數(shù)據(jù)重建了桌面上的各種物體[8]。西南交通大學(xué)的JunXiong等人基于雙目相機(jī)重建了熔化極氣體保護(hù)電弧(GasMetalArc,GMA)增材制造(AdditiveManufacturing,AM)的熔池幾何形狀[9]。阿根廷國立圖庫曼大學(xué)的AlvaroCampero1等人使用雙目相機(jī)和HDMI顯示器實(shí)時(shí)進(jìn)行三維顯微神經(jīng)外科手術(shù),在保證高效率手術(shù)的同時(shí)也降低了硬件成本[10]。(a)SLAM智能車搭載雙目(b)AR/VR設(shè)備搭載雙目(c)AGV物流車搭載雙目(d)工業(yè)機(jī)器人搭載雙目圖1-2雙目相機(jī)的實(shí)際應(yīng)用Fig.1-2Practicalapplicationofstereocamera在實(shí)驗(yàn)室環(huán)境光照滿足320-500(lx)的前提下,本課題采用雙目相機(jī)被動式三維重建進(jìn)行實(shí)驗(yàn)。1.2.2標(biāo)定誤差研究現(xiàn)狀雙目相機(jī)采用固定視點(diǎn)的布局方式,受標(biāo)定結(jié)果的影響,機(jī)器人末端執(zhí)行器可能會偏離抓取位置。機(jī)器人抓取之前,要驗(yàn)證相機(jī)對于機(jī)器人基座的相對位置,必要時(shí)也要構(gòu)造自抗撓控制器。法國薩瓦勃朗峰大學(xué)的DidierCoquin使用NAO機(jī)器人基于多相機(jī)融合技術(shù),結(jié)合深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)在RGB圖像上提取SURF特征進(jìn)行三維對象識別,保證了末端執(zhí)行器的重復(fù)定位精度[11]。TaoJiang等人使用搭載雙目相機(jī)的機(jī)器人抓取分散鉚釘,并進(jìn)行自插工作,雖然通過提取鉚釘輪廓確定了抓取位姿,但是抓取的軌跡由人工示教確定,手眼標(biāo)定的誤差會
青島科技大學(xué)研究生學(xué)位論文9BeomyeolYu等人考慮到無人直升機(jī)建模誤差和不確定性,將ADRC應(yīng)用至無人直升機(jī)干擾的魯棒控制技術(shù),對比仿真了PID算法控制,結(jié)果表明所提出的控制器能夠成功地補(bǔ)償干擾并具備出色的性能[36]。R.Madonski等人自定義ADRC結(jié)構(gòu),解決了補(bǔ)償諧波不確定性的問題[37]。本課題將設(shè)計(jì)ADRC自抗撓控制器,反饋約束機(jī)器人實(shí)時(shí)跟蹤抓取軌跡工作,保證機(jī)器人實(shí)際抓取軌跡與規(guī)劃的軌跡一致。1.3課題研究內(nèi)容及架構(gòu)本課題著重研究了機(jī)器人在抓取物體的工作中涉及的視覺及軌跡規(guī)劃方面的關(guān)鍵技術(shù),通過具體的抓取實(shí)驗(yàn),驗(yàn)證算法的有效性,在保證抓取精度基礎(chǔ)上,對重點(diǎn)算法進(jìn)行數(shù)據(jù)結(jié)構(gòu)方面的優(yōu)化。本課題架構(gòu)如圖1-3所示,第一章為課題總緒論,全面概述了關(guān)鍵技術(shù)的國內(nèi)外研究現(xiàn)狀,規(guī)劃了布局并引出創(chuàng)新點(diǎn)。第二章推導(dǎo)了MICO2機(jī)器人的運(yùn)動學(xué)和動力學(xué)方程,為后續(xù)的標(biāo)定算法提供了數(shù)據(jù)基礎(chǔ),使用加速度傳感器測量了實(shí)驗(yàn)室振動情況,引出軌跡規(guī)劃的必要性。第三章、第四章、第五章分別就雙目視覺識別、物體分割定位、抓取軌跡規(guī)劃三個(gè)大方向討論本課題的關(guān)鍵技術(shù),優(yōu)化了主要算法。第六章將本課題涉及的所有算法整合至QT&C++以機(jī)器人抓取易拉罐和網(wǎng)球?yàn)槔?yàn)證本課題算法的可行性。課題組致力于提高物體的實(shí)時(shí)識別定位的可靠性、可行性以及末端執(zhí)行器抓取軌跡的精準(zhǔn)性。圖1-3本課題的總體架構(gòu)Fig.1-3Theoverallstructureofthisproject第一章緒論,闡述了現(xiàn)階段機(jī)器人結(jié)合視覺的國內(nèi)外研究現(xiàn)狀,引出了本課
【參考文獻(xiàn)】:
期刊論文
[1]智能駕駛中點(diǎn)云目標(biāo)快速檢測與跟蹤[J]. 葉語同,李必軍,付黎明. 武漢大學(xué)學(xué)報(bào)(信息科學(xué)版). 2019(01)
[2]逐步求精的多視角點(diǎn)云配準(zhǔn)方法[J]. 徐思雨,祝繼華,田智強(qiáng),李垚辰,龐善民. 自動化學(xué)報(bào). 2019(08)
[3]三維形貌測量機(jī)器人的軌跡規(guī)劃技術(shù)[J]. 劉麗,馬國慶,高藝,范師杰. 中國激光. 2019(02)
[4]植株點(diǎn)云超體聚類分割方法[J]. 劉慧,劉加林,沈躍,潘成凱. 農(nóng)業(yè)機(jī)械學(xué)報(bào). 2018(12)
[5]基于自適應(yīng)鄰域匹配的點(diǎn)云配準(zhǔn)方法[J]. 張順利,徐艷芝,周明全,耿國華,張雨禾. 計(jì)算機(jī)學(xué)報(bào). 2019(09)
[6]復(fù)雜環(huán)境下視覺SLAM閉環(huán)檢測方法綜述[J]. 劉強(qiáng),段富海,桑勇,趙健龍. 機(jī)器人. 2019(01)
[7]全位置焊接機(jī)器人逆運(yùn)動學(xué)數(shù)值求解及軌跡規(guī)劃方法[J]. 郭吉昌,朱志明,王鑫,馬國銳. 清華大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(03)
[8]一種基于Bezier曲線的移動機(jī)器人軌跡規(guī)劃新方法[J]. 孫雷,張麗爽,周璐,張雪波. 系統(tǒng)仿真學(xué)報(bào). 2018(03)
[9]改進(jìn)B樣條曲線應(yīng)用于6R機(jī)器人軌跡優(yōu)化[J]. 董甲甲,王太勇,董靖川,張永賓,陶浩. 中國機(jī)械工程. 2018(02)
[10]基于改進(jìn)鯊魚優(yōu)化算法的自抗擾控制參數(shù)整定[J]. 魏立新,趙默林,范銳,周紅星. 控制與決策. 2019(04)
博士論文
[1]空間機(jī)械臂軌跡跟蹤、測試及柔性力控制研究[D]. 喬冠宇.中國科學(xué)院大學(xué)(中國科學(xué)院長春光學(xué)精密機(jī)械與物理研究所) 2018
[2]基于雙目視覺的空間非合作目標(biāo)姿態(tài)測量技術(shù)研究[D]. 顏坤.中國科學(xué)院大學(xué)(中國科學(xué)院光電技術(shù)研究所) 2018
[3]基于深度學(xué)習(xí)和雙目視覺的工業(yè)機(jī)器人抓取方法研究[D]. 唐洪.華南理工大學(xué) 2018
碩士論文
[1]基于Faster R-CNN目標(biāo)檢測的機(jī)器人抓取系統(tǒng)研究[D]. 張亞輝.中國科學(xué)院大學(xué)(中國科學(xué)院深圳先進(jìn)技術(shù)研究院) 2019
[2]基于視覺和力反饋的機(jī)器人打磨作業(yè)系統(tǒng)研究[D]. 王敏.浙江大學(xué) 2019
[3]遙操作機(jī)器人的力覺再現(xiàn)技術(shù)研究[D]. 徐亮.西南科技大學(xué) 2018
[4]基于雙目立體視覺的空間深度信息恢復(fù)方法研究[D]. 黃源欣.哈爾濱工業(yè)大學(xué) 2018
[5]雙目視覺中的半全局立體匹配算法研究[D]. 石立.南京大學(xué) 2018
[6]多視角三維重建中高精度標(biāo)定方法的研究與應(yīng)用[D]. 王毅恒.北京交通大學(xué) 2018
[7]AGV視覺定位系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 于亦奇.浙江大學(xué) 2018
[8]基于立體視覺的移動機(jī)器人避障技術(shù)研究[D]. 張?zhí)煲?南京航空航天大學(xué) 2018
[9]基于激光雷達(dá)點(diǎn)云的車輛檢測方法研究[D]. 孫江冬.天津工業(yè)大學(xué) 2018
[10]基于雙目視覺的籠養(yǎng)蛋雞飲水采食行為感知方法研究[D]. 肖林芳.浙江大學(xué) 2018
本文編號:3513741
【文章來源】:青島科技大學(xué)山東省
【文章頁數(shù)】:121 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-1串聯(lián)機(jī)器人各領(lǐng)域的應(yīng)用
青島科技大學(xué)研究生學(xué)位論文5學(xué)SeokminHonga等人使用雙目相機(jī)合成體素并生成3D點(diǎn)云數(shù)據(jù)重建了桌面上的各種物體[8]。西南交通大學(xué)的JunXiong等人基于雙目相機(jī)重建了熔化極氣體保護(hù)電弧(GasMetalArc,GMA)增材制造(AdditiveManufacturing,AM)的熔池幾何形狀[9]。阿根廷國立圖庫曼大學(xué)的AlvaroCampero1等人使用雙目相機(jī)和HDMI顯示器實(shí)時(shí)進(jìn)行三維顯微神經(jīng)外科手術(shù),在保證高效率手術(shù)的同時(shí)也降低了硬件成本[10]。(a)SLAM智能車搭載雙目(b)AR/VR設(shè)備搭載雙目(c)AGV物流車搭載雙目(d)工業(yè)機(jī)器人搭載雙目圖1-2雙目相機(jī)的實(shí)際應(yīng)用Fig.1-2Practicalapplicationofstereocamera在實(shí)驗(yàn)室環(huán)境光照滿足320-500(lx)的前提下,本課題采用雙目相機(jī)被動式三維重建進(jìn)行實(shí)驗(yàn)。1.2.2標(biāo)定誤差研究現(xiàn)狀雙目相機(jī)采用固定視點(diǎn)的布局方式,受標(biāo)定結(jié)果的影響,機(jī)器人末端執(zhí)行器可能會偏離抓取位置。機(jī)器人抓取之前,要驗(yàn)證相機(jī)對于機(jī)器人基座的相對位置,必要時(shí)也要構(gòu)造自抗撓控制器。法國薩瓦勃朗峰大學(xué)的DidierCoquin使用NAO機(jī)器人基于多相機(jī)融合技術(shù),結(jié)合深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)在RGB圖像上提取SURF特征進(jìn)行三維對象識別,保證了末端執(zhí)行器的重復(fù)定位精度[11]。TaoJiang等人使用搭載雙目相機(jī)的機(jī)器人抓取分散鉚釘,并進(jìn)行自插工作,雖然通過提取鉚釘輪廓確定了抓取位姿,但是抓取的軌跡由人工示教確定,手眼標(biāo)定的誤差會
青島科技大學(xué)研究生學(xué)位論文9BeomyeolYu等人考慮到無人直升機(jī)建模誤差和不確定性,將ADRC應(yīng)用至無人直升機(jī)干擾的魯棒控制技術(shù),對比仿真了PID算法控制,結(jié)果表明所提出的控制器能夠成功地補(bǔ)償干擾并具備出色的性能[36]。R.Madonski等人自定義ADRC結(jié)構(gòu),解決了補(bǔ)償諧波不確定性的問題[37]。本課題將設(shè)計(jì)ADRC自抗撓控制器,反饋約束機(jī)器人實(shí)時(shí)跟蹤抓取軌跡工作,保證機(jī)器人實(shí)際抓取軌跡與規(guī)劃的軌跡一致。1.3課題研究內(nèi)容及架構(gòu)本課題著重研究了機(jī)器人在抓取物體的工作中涉及的視覺及軌跡規(guī)劃方面的關(guān)鍵技術(shù),通過具體的抓取實(shí)驗(yàn),驗(yàn)證算法的有效性,在保證抓取精度基礎(chǔ)上,對重點(diǎn)算法進(jìn)行數(shù)據(jù)結(jié)構(gòu)方面的優(yōu)化。本課題架構(gòu)如圖1-3所示,第一章為課題總緒論,全面概述了關(guān)鍵技術(shù)的國內(nèi)外研究現(xiàn)狀,規(guī)劃了布局并引出創(chuàng)新點(diǎn)。第二章推導(dǎo)了MICO2機(jī)器人的運(yùn)動學(xué)和動力學(xué)方程,為后續(xù)的標(biāo)定算法提供了數(shù)據(jù)基礎(chǔ),使用加速度傳感器測量了實(shí)驗(yàn)室振動情況,引出軌跡規(guī)劃的必要性。第三章、第四章、第五章分別就雙目視覺識別、物體分割定位、抓取軌跡規(guī)劃三個(gè)大方向討論本課題的關(guān)鍵技術(shù),優(yōu)化了主要算法。第六章將本課題涉及的所有算法整合至QT&C++以機(jī)器人抓取易拉罐和網(wǎng)球?yàn)槔?yàn)證本課題算法的可行性。課題組致力于提高物體的實(shí)時(shí)識別定位的可靠性、可行性以及末端執(zhí)行器抓取軌跡的精準(zhǔn)性。圖1-3本課題的總體架構(gòu)Fig.1-3Theoverallstructureofthisproject第一章緒論,闡述了現(xiàn)階段機(jī)器人結(jié)合視覺的國內(nèi)外研究現(xiàn)狀,引出了本課
【參考文獻(xiàn)】:
期刊論文
[1]智能駕駛中點(diǎn)云目標(biāo)快速檢測與跟蹤[J]. 葉語同,李必軍,付黎明. 武漢大學(xué)學(xué)報(bào)(信息科學(xué)版). 2019(01)
[2]逐步求精的多視角點(diǎn)云配準(zhǔn)方法[J]. 徐思雨,祝繼華,田智強(qiáng),李垚辰,龐善民. 自動化學(xué)報(bào). 2019(08)
[3]三維形貌測量機(jī)器人的軌跡規(guī)劃技術(shù)[J]. 劉麗,馬國慶,高藝,范師杰. 中國激光. 2019(02)
[4]植株點(diǎn)云超體聚類分割方法[J]. 劉慧,劉加林,沈躍,潘成凱. 農(nóng)業(yè)機(jī)械學(xué)報(bào). 2018(12)
[5]基于自適應(yīng)鄰域匹配的點(diǎn)云配準(zhǔn)方法[J]. 張順利,徐艷芝,周明全,耿國華,張雨禾. 計(jì)算機(jī)學(xué)報(bào). 2019(09)
[6]復(fù)雜環(huán)境下視覺SLAM閉環(huán)檢測方法綜述[J]. 劉強(qiáng),段富海,桑勇,趙健龍. 機(jī)器人. 2019(01)
[7]全位置焊接機(jī)器人逆運(yùn)動學(xué)數(shù)值求解及軌跡規(guī)劃方法[J]. 郭吉昌,朱志明,王鑫,馬國銳. 清華大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(03)
[8]一種基于Bezier曲線的移動機(jī)器人軌跡規(guī)劃新方法[J]. 孫雷,張麗爽,周璐,張雪波. 系統(tǒng)仿真學(xué)報(bào). 2018(03)
[9]改進(jìn)B樣條曲線應(yīng)用于6R機(jī)器人軌跡優(yōu)化[J]. 董甲甲,王太勇,董靖川,張永賓,陶浩. 中國機(jī)械工程. 2018(02)
[10]基于改進(jìn)鯊魚優(yōu)化算法的自抗擾控制參數(shù)整定[J]. 魏立新,趙默林,范銳,周紅星. 控制與決策. 2019(04)
博士論文
[1]空間機(jī)械臂軌跡跟蹤、測試及柔性力控制研究[D]. 喬冠宇.中國科學(xué)院大學(xué)(中國科學(xué)院長春光學(xué)精密機(jī)械與物理研究所) 2018
[2]基于雙目視覺的空間非合作目標(biāo)姿態(tài)測量技術(shù)研究[D]. 顏坤.中國科學(xué)院大學(xué)(中國科學(xué)院光電技術(shù)研究所) 2018
[3]基于深度學(xué)習(xí)和雙目視覺的工業(yè)機(jī)器人抓取方法研究[D]. 唐洪.華南理工大學(xué) 2018
碩士論文
[1]基于Faster R-CNN目標(biāo)檢測的機(jī)器人抓取系統(tǒng)研究[D]. 張亞輝.中國科學(xué)院大學(xué)(中國科學(xué)院深圳先進(jìn)技術(shù)研究院) 2019
[2]基于視覺和力反饋的機(jī)器人打磨作業(yè)系統(tǒng)研究[D]. 王敏.浙江大學(xué) 2019
[3]遙操作機(jī)器人的力覺再現(xiàn)技術(shù)研究[D]. 徐亮.西南科技大學(xué) 2018
[4]基于雙目立體視覺的空間深度信息恢復(fù)方法研究[D]. 黃源欣.哈爾濱工業(yè)大學(xué) 2018
[5]雙目視覺中的半全局立體匹配算法研究[D]. 石立.南京大學(xué) 2018
[6]多視角三維重建中高精度標(biāo)定方法的研究與應(yīng)用[D]. 王毅恒.北京交通大學(xué) 2018
[7]AGV視覺定位系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 于亦奇.浙江大學(xué) 2018
[8]基于立體視覺的移動機(jī)器人避障技術(shù)研究[D]. 張?zhí)煲?南京航空航天大學(xué) 2018
[9]基于激光雷達(dá)點(diǎn)云的車輛檢測方法研究[D]. 孫江冬.天津工業(yè)大學(xué) 2018
[10]基于雙目視覺的籠養(yǎng)蛋雞飲水采食行為感知方法研究[D]. 肖林芳.浙江大學(xué) 2018
本文編號:3513741
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3513741.html
最近更新
教材專著