天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

機器人演示編程的示教動作識別與定位方法研究

發(fā)布時間:2021-01-31 22:02
  隨著工業(yè)機器人在工業(yè)生產(chǎn)中的大量應(yīng)用,其工作方向已從基本的機械加工和簡單協(xié)助技術(shù)人員,演變成了基于人機交互作用完成不同環(huán)境下的復(fù)雜任務(wù),機器人編程技術(shù)已成研究熱點。論文以機器人演示編程為研究對象,針對傳統(tǒng)演示方式編程部署時間長、人機交互能力差和使用門檻高等問題,以軌跡示教任務(wù)為例,研究基于手勢識別軌跡生成方法改進及應(yīng)用,結(jié)合工業(yè)機器人和視覺傳感器,實現(xiàn)機器人與操作人員的自然交互、快速示教目的。在手勢識別方面,首先分別針對演示編程技術(shù)與基于手勢識別的人機交互技術(shù)進行了國內(nèi)外研究調(diào)研,結(jié)合機器人的實際應(yīng)用場景進行設(shè)備選擇,建立整體組織框架;其次提出了基于膚色分割與CNN結(jié)合的手勢識別方法,通過利用膚色模型提取手勢相關(guān)信息,將手勢圖片輸入RGB與YCbC混合膚色空間去除非膚色區(qū)域,再將分割得到圖像進行腐蝕處理、擴張?zhí)幚砗透咚篂V波以平滑噪音,以突出輪廓和邊緣,最后進行二值化得到手勢圖像;利用Keras自建CNN模型進行特征提取并得到手勢識別模型;在Marcel數(shù)據(jù)集上進行驗證實驗,并且針對開源手勢樣本,較少的情況,自行采集圖像構(gòu)建手勢樣本庫進行訓(xùn)練與測試,通過實驗驗證該方法的可靠性,可用于進行... 

【文章來源】:西安建筑科技大學(xué)陜西省

【文章頁數(shù)】:73 頁

【學(xué)位級別】:碩士

【部分圖文】:

機器人演示編程的示教動作識別與定位方法研究


演示編程系統(tǒng)的意義

積木,仿真實驗,動作識別


穡?岢黿?丈?狽酵糩17]、LBP特征[18],圓形率和長寬比、歸一化Zernike矩相結(jié)合的特征描述方法,完成目標零件識別[19];其次當(dāng)零件放置位置與工作臺表面不存在重疊時,對識別完成后的目標零件進行特征信息提取,基于如表面高度等先驗信息,采用單目視覺算法完成零件定位后運用最小面積矩形(MetalArtifactReduction,MAR)完成目標零件位姿估計[20];對于存在裝配關(guān)系的零件,利用歸一化的相關(guān)性度量(Zero-meanNormalizedCross-Correlation,ZNCC)[21],結(jié)合匹配點的相對位置信息完成目標零件位姿獲取[22]。圖1.2樂高積木組裝仿真實驗[23]在裝配演示編程中的動作識別方面,譽洪生針對原壓縮跟蹤中目標尺寸和學(xué)習(xí)率均固定的問題提出了一種改進的壓縮跟蹤算法。首先通過對目標圖像采集不同尺度圖像以生成圖像金字塔,其次基于帶通道標記的隨機稀疏測量矩陣提取Haar特征[24],進而完成變尺寸的物體跟蹤;結(jié)合目標物體顏色信息,利用計算跟蹤結(jié)果與跟蹤目標的直方圖巴氏距離,對目標物體遮擋情況進行分析[25]。為進一步實現(xiàn)實現(xiàn)連續(xù)裝配動作分割與識別,使用基于分層模型的多特征融合裝配動作識別方法,利用Multi-classSVM分類器實現(xiàn)了裝配動作識別[26],將多特征融合的動作特征描述作為識別依據(jù),利用滑動窗口法實現(xiàn)裝配動作分割,并基于迭代動態(tài)規(guī)劃的方法最大化裝配動作識別置信度總和,同時化化分割點位置和動作數(shù)目[27]。

示意圖,手電筒,示意圖


西安建筑科技大學(xué)碩士論文4在裝配演示編程中的機械臂運動控制方面,王浩等人通過對任務(wù)執(zhí)行過程中機械臂末端的力傳感器數(shù)據(jù)進行收集,并利用SVM對任務(wù)執(zhí)行結(jié)果進行預(yù)測。且為保證裝配的成功率與過程的安全性,將實驗過程中的數(shù)據(jù)運用高斯過程進行建模,并對控制進行貝葉斯優(yōu)化,在解決噪聲干擾、建模誤差的同時,更好地平衡了搜索空間與搜索效率[28]。圖1.3手電筒的演示編程示意圖國外對機器人演示編程的研究十分注重,并且已經(jīng)取得了不錯的進展,在機器人演示編程的關(guān)鍵技術(shù)難題上都有所突破。許多高校和研究機構(gòu)都在機器人演示編程技術(shù)領(lǐng)域開展了深入的研究,如荷蘭的戴爾福特大學(xué),意大利的摩德納-雷焦·艾米里亞大學(xué),英國的埃塞克斯大學(xué)等。來自加拿大麥克馬斯特大學(xué)JineshPatel等人面向具體工業(yè)場景下的零件分揀,針對提高該場景下機器人的容錯能力設(shè)計了示教系統(tǒng)[29]。該系統(tǒng)硬件平臺由一臺深度相機(Kinect),一臺六自由度機械臂(CRSRobotics)和一個固定在機械臂末端的電磁吸爪組成[30]。機器人的工作平臺采用泡沫板以容忍機器人在垂直方向上的定位誤差。這套演示編程系統(tǒng)的主要功能是通過人手先指向工作臺上的不同形狀的工件(螺釘、墊圈、螺母),然后再指向要將其分撿的盒子,通過視覺處理使機器人能夠自動進行零件的分揀工作。他們的主要工作集中在視覺處理方面的手勢識別(HandGestureRecognition,HGR)和零件識別的軟件算法上[31]。JineshPatel將實現(xiàn)零件分揀的算法任務(wù)分為兩個主要模塊,分別是示教模塊和分揀模塊,每個

【參考文獻】:
期刊論文
[1]基于OpenCV的智能語音識別分揀機器人[J]. 池佳豪,方詩鏹,黃昭,劉雪柔,胡安正.  電子制作. 2019(19)
[2]中國機器人產(chǎn)業(yè)發(fā)展報告(2019年)發(fā)布[J].   智能機器人. 2019(04)
[3]工業(yè)機器人助力制造業(yè)轉(zhuǎn)型升級[J]. 白文亭.  電氣時代. 2018(09)
[4]基于BP神經(jīng)網(wǎng)絡(luò)的自然感彩色融合算法[J]. 何炳陽,張智詮,李強,謝志宏.  紅外技術(shù). 2018(05)
[5]倉儲領(lǐng)域機器人的技術(shù)發(fā)展與應(yīng)用[J]. 張穎川,任芳.  物流技術(shù)與應(yīng)用. 2017(09)
[6]結(jié)合膚色模型和卷積神經(jīng)網(wǎng)絡(luò)的手勢識別方法[J]. 王龍,劉輝,王彬,李鵬舉.  計算機工程與應(yīng)用. 2017(06)
[7]基于OpenCL的Viola-Jones人臉檢測算法性能優(yōu)化研究[J]. 賈海鵬,張云泉,袁良,李士剛.  計算機學(xué)報. 2016(09)
[8]基于Haar特性的LBP紋理特征[J]. 周書仁,殷建平.  軟件學(xué)報. 2013(08)
[9]基于HOG和Haar特征的行人追蹤算法研究[J]. 陸星家,陳志榮,尹天鶴,楊帆.  計算機科學(xué). 2013(S1)
[10]基于視覺權(quán)值的分塊顏色直方圖圖像檢索算法[J]. 王向陽,楊紅穎,鄭宏亮,吳俊峰.  自動化學(xué)報. 2010(10)

碩士論文
[1]面向工業(yè)裝配演示編程的機械臂運動控制[D]. 王浩.浙江大學(xué) 2018
[2]面向無人駕駛的高精細語義點云建圖方法研究[D]. 曹明瑋.上海交通大學(xué) 2018
[3]五金打磨機器人離線編程技術(shù)研究及應(yīng)用[D]. 劉顯明.華中科技大學(xué) 2017
[4]面向工業(yè)裝配演示編程的動作識別[D]. 譽洪生.浙江大學(xué) 2017
[5]內(nèi)容與形式相統(tǒng)一的智能交互空間[D]. 蘇功宴.上海交通大學(xué) 2007



本文編號:3011653

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3011653.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶7610f***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com