天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

基于立體視覺引導的靈巧手抓取姿態(tài)研究

發(fā)布時間:2021-01-21 09:45
  具有多自由度、多感知功能及良好的抓取操作功能的多指靈巧手受到了廣泛的關(guān)注。由于靈巧手抓取模式的多樣性和非結(jié)構(gòu)化環(huán)境的復雜性,導致對目標物體的抓取規(guī)劃變得非常復雜,而靈巧手的抓取很大程度上是基于目標物體外部形狀,因此建立一個針對基于目標形體分析的抓取系統(tǒng)具有十分重要的意義。針對以上問題,以靈巧手抓取姿態(tài)為研究目標,圍繞靈巧手對環(huán)境的視覺感知和抓取姿態(tài)的確定兩大問題,提出一種基于立體視覺引導的目標物體形體簡化的自主抓取方法。主要完成了以下三個方面的研究工作:(1)點云預(yù)處理與目標模型形體分析。基于統(tǒng)計分析的方法去除離群點噪聲,基于PCA算法估計點云法向量。將不規(guī)則的復雜物體簡化為一些基本形體的組合,利用基于凹凸性分割將被抓取物體3D數(shù)據(jù)點分割為各個區(qū)塊,依據(jù)最優(yōu)擬合算法將各部分擬合為球體、圓柱體或長方體中的一種。(2)基于特征描述和ICP算法的物體位姿估計模型。提取待抓取物體的點云特征點和特征描述子,并建立特征模板集,使用SAC-IA算法將待識別物體的點云分別和模板點云進行初始配準,再利用基于K-d樹的ICP算法進行細配準,最終的配準的平均重合度達到94.1%,得到了待抓取物體的精確6D位... 

【文章來源】:武漢科技大學湖北省

【文章頁數(shù)】:70 頁

【學位級別】:碩士

【部分圖文】:

基于立體視覺引導的靈巧手抓取姿態(tài)研究


利用RealSenseD435相機的點云獲取

統(tǒng)計分析,噪聲,場景


武漢科技大學碩士學位論文13單點iP的距離均值為id11ijiPpkjddk==(2-2)重復以上步驟,遍歷場景點云中所有的點,計算所有點的K鄰域內(nèi)的距離均值0d,然后計算全局距離均值為:11iNiDdN==(2-3)最后得到距離閥值為:H=D+(2-4)式中:為距離閥值常熟,由具體實驗估計。統(tǒng)計分析法即設(shè)定一個距離閥值H,當一個點的K鄰域的距離均值idH時,則該點是外點,即要剔除的噪聲點云;若idH時為內(nèi)點,應(yīng)該保留。利用統(tǒng)計分析的噪聲濾除算法,獲得如圖2.4所示的效果。利用相機隨機采集一張場景圖,然后利用統(tǒng)計去噪法濾除噪聲,其中,a)為原始含噪聲的隨機場景點云圖,b)為噪聲去除后的場景點云圖。從圖中可以看出,這種算法能很好地濾除點云中的噪聲。a)原始含噪聲的場景點云圖b)統(tǒng)計法去噪后場景點云圖圖2.4統(tǒng)計分析法濾波

模型圖,模型,物體,三維重建


武漢科技大學碩士學位論文152.5基于PCA算法的法向量估計2.3基于泊松盤采樣的物體點云模型的構(gòu)建三維重建是基于立體視覺實現(xiàn)位姿估計的重要步驟,也是機器人實現(xiàn)自動抓取的重要步驟,三維重建是位姿估計中模板的主要來源。所以物體三維重建的質(zhì)量直接影響物體位姿的估計的好壞。由于很多物體本身不具備豐富的紋理,并且具有易反光的特點,所以一般使用專業(yè)的三維掃描儀實現(xiàn)三維重建,這些設(shè)備具有很高的精度,但是確定在于價格昂貴,同時需要專業(yè)人員才能操作,這就難以大面積應(yīng)用[48]。因此本文采用更加快速便捷的方法,基于CAD模型轉(zhuǎn)換實現(xiàn)目標點云的采集。這種方法可分為兩步:建模和采樣。2.3.1建立三維CAD模型為了增加算法的適應(yīng)性,同時考慮靈巧手負載較低的特性,本文采用自制復雜結(jié)構(gòu)的物體,其實物分別如圖2.6中a)、b)和c)所示。采用Solidworks實現(xiàn)物體的逆向重建,如圖2.6中d)、e)和f)所示,分別為利用三維軟件建立的三維虛擬模型,此圖為添加渲染顏色后的效果圖。a)物體1實物圖b)物體2實物圖c)物體3實物圖d)物體1三維圖e)物體2三維圖f)物體3三維圖圖2.6三維模型實物建立與3D建模

【參考文獻】:
期刊論文
[1]基于多重幾何約束的未知物體抓取位姿估計[J]. 蘇杰,張云洲,房立金,李奇,王帥.  機器人. 2020(02)
[2]機器人航天員精細操作方法及在軌驗證[J]. 李志奇,劉伊威,于程隆,金明河,倪風雷,劉宏.  載人航天. 2019(05)
[3]基于非結(jié)構(gòu)基本組成分析的自主抓取方法[J]. 劉漢偉,曹雛清,王永娟.  機器人. 2019(05)
[4]RTM框架下基于點線特征的視覺SLAM算法[J]. 賈松敏,丁明超,張國梁.  機器人. 2019(03)
[5]基于區(qū)域聚類分割的點云特征線提取[J]. 王曉輝,吳祿慎,陳華偉,胡赟,石雅瑩.  光學學報. 2018(11)
[6]力封閉虛擬手抓持規(guī)則研究[J]. 鄒俞,晁建剛,林萬洪.  載人航天. 2018(05)
[7]基于觸覺反饋和表面肌電信號的隨機時延夾持器遙操作方法[J]. 章華濤,吳常鋮,熊鵬文,宋愛國.  機器人. 2018(04)
[8]SCARA機器人運動學和視覺抓取研究[J]. 鄭華,陳軍,金鴻章.  組合機床與自動化加工技術(shù). 2017(06)
[9]腱驅(qū)動空間五指靈巧手控制系統(tǒng)研究[J]. 韓冬,聶宏,陳金寶,顏文彧,王小濤.  機器人. 2016(02)
[10]靈巧機械手多指協(xié)調(diào)控制技術(shù)[J]. 陳金寶,韓冬,王小濤,聶宏.  機械工程學報. 2014(05)

碩士論文
[1]基于神經(jīng)網(wǎng)絡(luò)和高斯過程的機械手抓取策略與仿真研究[D]. 杜峰.武漢科技大學 2018
[2]基于Kinect的手勢識別與多指手交互研究[D]. 李貝.武漢科技大學 2018



本文編號:2990930

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2990930.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶fb107***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com