天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于視覺的自主裝配系統(tǒng)軸孔位姿測量研究

發(fā)布時間:2020-03-20 12:49
【摘要】:隨著科學(xué)技術(shù)的不斷發(fā)展,傳統(tǒng)制造業(yè)已經(jīng)無法滿足用戶個性定制化的需求。面對傳統(tǒng)制造業(yè)轉(zhuǎn)型升級,智能制造引起了人們的關(guān)注。搭載視覺的裝配機器人使得智能裝配成為可能,但是目前智能裝配領(lǐng)域的研究滿足不了智能裝配業(yè)的要求。為了進(jìn)一步提高裝配機器人作業(yè)定位精度及智能化水平,以典型的軸孔裝配為研究對象,本文重點研究基于ETH(Eye-to-Hand)視覺系統(tǒng)標(biāo)定與機器人抓取位姿確定、基于云臺雙目視覺系統(tǒng)對受部分遮擋物體的位姿測量和基于EIH(Eye-in-Hand)視覺系統(tǒng)孔位姿測量,具體工作如下:1.基于ETH視覺系統(tǒng)標(biāo)定與機器人抓取位姿確定。首先,基于ETH視覺系統(tǒng)標(biāo)定原理,采用張氏標(biāo)定法和Tsai—Lenz算法分別完成相機標(biāo)定和手眼標(biāo)定;其次,對工件軸進(jìn)行中值濾波、閾值化、亞像素輪廓提取及雙母線提取等圖像處理,通過雙母線四個端點像素坐標(biāo)確定工件軸基于圖像的位姿;最后,利用坐標(biāo)變換及手眼標(biāo)定結(jié)果實現(xiàn)工件軸圖像位姿到機器人基坐標(biāo)系的轉(zhuǎn)換。實驗結(jié)果表明,手眼標(biāo)定的平移部分最大誤差是0.669mm,旋轉(zhuǎn)部分最大誤差是0.418°。2.基于云臺雙目視覺系統(tǒng)對受部分遮擋物體的位姿測量。所提方法如下:首先,將物體模板左、右圖像分別與受部分遮擋物體右、左圖像進(jìn)行匹配建立兩個仿射模型;其次,根據(jù)對應(yīng)的模型分別利用模板關(guān)鍵點的像素坐標(biāo)去估計受遮擋物體圖像與之對應(yīng)的像素點坐標(biāo);基于雙目立體視覺重建原理,求解出受遮擋物體上的一些共面關(guān)鍵點的空間坐標(biāo);最后,利用所求空間坐標(biāo)確定其位姿。實驗結(jié)果表明,所提方法可行有效。3.基于EIH視覺系統(tǒng)孔位姿測量。首先,基于EIH視覺系統(tǒng)標(biāo)定原理進(jìn)行相機標(biāo)定和手眼標(biāo)定;其次,通過Hough變換提取手眼相機采集的平行方位兩孔圖像的孔心,并針對孔邊緣點匹配不精問題,提出先經(jīng)SURF+RANSAC匹配估計基礎(chǔ)矩陣,之后用基礎(chǔ)矩陣進(jìn)行極線約束匹配孔邊緣點的方法;建立平視雙目視覺模型,依據(jù)視差原理求解孔心及孔邊緣點的三維坐標(biāo),根據(jù)求解的三維坐標(biāo)利用空間向量法求解孔的姿態(tài);最后,利用EIH手眼標(biāo)定結(jié)果,實現(xiàn)了目標(biāo)孔位姿到機器人基坐標(biāo)系的轉(zhuǎn)換。實驗結(jié)果表明,手眼標(biāo)定最大平移誤差是0.792mm,最大旋轉(zhuǎn)誤差是0.221¤,機器人對孔位置定位最大偏差是2.44mm。4.雙目視覺測量精度驗證實驗。將棋盤格標(biāo)定板固定在機器人末端,控制機器人某一關(guān)節(jié)轉(zhuǎn)動獲得多處標(biāo)定板之間的實際相對轉(zhuǎn)角,利用雙目立體視覺測量棋盤格尺寸及標(biāo)定板法向量的夾角與實際值進(jìn)行比較。實驗結(jié)果表明,雙目視覺測量精度較高。
【圖文】:

手眼協(xié)調(diào),幾何法,視覺,現(xiàn)狀


器人實現(xiàn)下一階段智能裝配提供重要的技術(shù)基礎(chǔ)。究現(xiàn)狀抓取系統(tǒng)研究現(xiàn)狀等一些發(fā)達(dá)國家在機器人視覺對物體的抓取方面有著較為熟。例如 FANUC、ABB、安川等機器人家族在機器人視世界前沿[16]。視覺抓取可分為幾何法與數(shù)據(jù)引導(dǎo)法兩類。取位姿數(shù)據(jù)集,,經(jīng)大量訓(xùn)練得到的抓取模型去預(yù)測各種屬于數(shù)據(jù)引導(dǎo)法。幾何法一般偏重使用相機觀測物體的形機器人抓取位姿做出合理規(guī)劃。2016 年,Sergey Levine是數(shù)據(jù)引導(dǎo)法。文中提出了一種基于深度學(xué)習(xí)的手眼協(xié)調(diào)取系統(tǒng)見圖 1-1 所示。研究者通過收集超過 800000 次當(dāng)前練一個很大的卷積神經(jīng)網(wǎng)絡(luò),再使用該網(wǎng)絡(luò)觀察抓手與手眼協(xié)調(diào),最后利用該網(wǎng)絡(luò)實時伺服抓取器實現(xiàn)抓取。實抓取新物體,并通過不斷的伺服反饋糾正誤差。

雙目


3人夾爪根據(jù)估計出的物體位姿去拾取任意擺放位姿的物體。最后利用六自由度機器人進(jìn)行實驗驗證,結(jié)果表明該方法有效。圖1-2是文中搭建的雙目ETH抓取系統(tǒng)。目前,國內(nèi)在機器人視覺抓取方面的研究主要集中在幾何法上,大部分忽略物體的深度信息,研究的是基于物體的平面定位,比如工廠生產(chǎn)流水線作業(yè)的單目 ETH 視覺抓取系統(tǒng)對箱體的抓取,見圖 1-3 所示。2011 年,王修巖等人[19]基于單目視覺采用模糊識別算法對工件進(jìn)行識別,利用二階慣性矩的軸向確定方法對待抓取工件進(jìn)行定位。其研究的只是基于圖像的工件定位,為智能抓取提供了理論信息,但并未實現(xiàn)機器人抓取操作。2014 年
【學(xué)位授予單位】:西安理工大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:TP391.41;TP242

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 肖權(quán);樂緒鑫;任巖;王瑞清;謝廣明;;基于軌跡生成法的機器魚位姿控制研究[J];機械設(shè)計;2013年08期

2 王雪松;郝名林;程玉虎;李明;;基于差分進(jìn)化的并聯(lián)機器人位姿正解[J];中國礦業(yè)大學(xué)學(xué)報;2008年05期

3 劉寶華;曹海龍;周偉科;;汽車電動座椅出廠位姿調(diào)整方法研究[J];工程設(shè)計學(xué)報;2018年05期

4 王一;趙進(jìn)進(jìn);金爽;張ng濤;;基于錐孔靶標(biāo)的機器人末端位姿間接測量方法[J];中國測試;2017年03期

5 梁書立;馮渭春;;空間機械手末端位姿修正模型構(gòu)建方法[J];工業(yè)儀表與自動化裝置;2017年03期

6 嚴(yán)國全;張學(xué)鋒;余利;李博;葉蔭球;;乒乓球機器人球拍位姿的確定[J];工業(yè)控制計算機;2013年04期

7 沙晶晶;陳志平;施滸立;呂興榮;;基于懸絲機構(gòu)的目標(biāo)飛行物位姿解算分析與實現(xiàn)[J];機械科學(xué)與技術(shù);2007年06期

8 尚洋;孫曉亮;張躍強;李由;于起峰;;三維目標(biāo)位姿跟蹤與模型修正[J];測繪學(xué)報;2018年06期

9 陳欠根;高尚康;趙喻明;沈東羽;;挖掘機器人負(fù)載工況下的力與位姿控制[J];合肥工業(yè)大學(xué)學(xué)報(自然科學(xué)版);2016年11期

10 汪啟躍;王中宇;;基于單目視覺的航天器位姿測量[J];應(yīng)用光學(xué);2017年02期

相關(guān)會議論文 前10條

1 沙晶晶;陳志平;施滸立;呂興榮;;基于懸絲機構(gòu)的目標(biāo)飛行物位姿解算分析與實現(xiàn)[A];2005年機械電子學(xué)學(xué)術(shù)會議論文集[C];2005年

2 劉玉;陳鳳;王盈;黃建明;魏祥泉;;基于激光雷達(dá)的航天器相對位姿測量技術(shù)研究[A];國防光電子論壇第二屆激光雷達(dá)成像探測技術(shù)及應(yīng)用研討會論文集[C];2015年

3 吳勇;郝礦榮;丁永生;張淑平;;基于視覺位姿的機器人測速系統(tǒng)[A];第三屆中國智能計算大會論文集[C];2009年

4 田原;;基于機器視覺的空間位姿檢測系統(tǒng)性能改進(jìn)的研究[A];第22屆全國煤礦自動化與信息化學(xué)術(shù)會議暨第4屆中國煤礦信息化與自動化高層論壇論文集[C];2012年

5 郝穎明;朱楓;;視覺位姿測量中的點狀目標(biāo)中心自適應(yīng)定位方法[A];中國儀器儀表學(xué)會第九屆青年學(xué)術(shù)會議論文集[C];2007年

6 葉榛;項安波;陶品;朱紹文;;基于PSD的動態(tài)位姿檢測技術(shù)[A];1998年中國智能自動化學(xué)術(shù)會議論文集(下冊)[C];1998年

7 劉璽;方勇純;張雪波;;基于單應(yīng)矩陣的位姿估計方法及應(yīng)用[A];第二十七屆中國控制會議論文集[C];2008年

8 鮑官軍;張立彬;楊慶華;計時鳴;;氣動柔性球關(guān)節(jié)的位姿測量系統(tǒng)研究[A];第二屆全國信息獲取與處理學(xué)術(shù)會議論文集[C];2004年

9 王逍;師鵬;溫昶煊;趙育善;;非合作目標(biāo)近距離?康淖赃m應(yīng)位姿聯(lián)合控制[A];第36屆中國控制會議論文集(C)[C];2017年

10 熊凱;魏春嶺;;基于自適應(yīng)極大后驗估計的航天器相對位姿確定[A];第36屆中國控制會議論文集(D)[C];2017年

相關(guān)重要報紙文章 前2條

1 本報記者 鹿慰;“機器人”進(jìn)駐掘進(jìn)面[N];中國煤炭報;2013年

2 趙瓊;不同藥物喝水有別[N];醫(yī)藥養(yǎng)生保健報;2004年

相關(guān)博士學(xué)位論文 前10條

1 彭鍵清;空間翻滾目標(biāo)的位姿測量及其雙臂捕獲機器人的軌跡規(guī)劃[D];哈爾濱工業(yè)大學(xué);2018年

2 尚軻;高軌非合作慢旋失穩(wěn)空間目標(biāo)位姿測量方法研究[D];華中科技大學(xué);2018年

3 趙麗科;單目視覺的剛體運動目標(biāo)位姿測量方法研究[D];武漢大學(xué);2018年

4 張霖;液壓支架自主跟機關(guān)鍵技術(shù)研究[D];中國礦業(yè)大學(xué);2017年

5 趙金濤;顯微CT系統(tǒng)標(biāo)定關(guān)鍵技術(shù)的研究[D];天津大學(xué);2017年

6 朱笑叢;氣動肌肉并聯(lián)關(guān)節(jié)高精度位姿控制研究[D];浙江大學(xué);2007年

7 陶云飛;掘進(jìn)機位姿激光自動測量方法及系統(tǒng)研究[D];中國礦業(yè)大學(xué)(北京);2017年

8 楊博文;大型裝備裝配位姿視覺檢測的關(guān)鍵技術(shù)研究[D];南京航空航天大學(xué);2013年

9 夏軍營;空間目標(biāo)的單目視覺位姿測量方法研究[D];國防科學(xué)技術(shù)大學(xué);2012年

10 趙振慶;大視距非合作目標(biāo)視覺位姿測量系統(tǒng)關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2016年

相關(guān)碩士學(xué)位論文 前10條

1 吉梁;面向工業(yè)裝配演示編程的零件位姿推理與抓取規(guī)劃[D];浙江大學(xué);2019年

2 宋琦;基于擾動基座條件下水下機械手末端位姿控制研究[D];浙江大學(xué);2019年

3 李振;基于視覺的自主裝配系統(tǒng)軸孔位姿測量研究[D];西安理工大學(xué);2019年

4 高佳;基于單目視覺無人機降落位姿檢測估計算法的研究[D];廣西師范大學(xué);2018年

5 羅旭;基于激光輪廓掃描的艙段法蘭相對位姿測量方法研究[D];哈爾濱工業(yè)大學(xué);2018年

6 馬云超;火星車低重力模擬中單目視覺位姿測量技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2018年

7 胡連軍;基于機器人手眼視覺的目標(biāo)位姿測量方法研究[D];華北理工大學(xué);2018年

8 呂剛;六自由度工業(yè)機器人鉆孔位姿研究[D];哈爾濱理工大學(xué);2018年

9 鄭紅杰;基于視覺的手術(shù)機器人腹腔鏡位姿自動調(diào)節(jié)方法研究[D];哈爾濱工程大學(xué);2018年

10 侯誼;室內(nèi)場景的語義地圖建立[D];哈爾濱工業(yè)大學(xué);2018年



本文編號:2591802

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2591802.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶216d1***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com