天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于Kinect的仿人機(jī)器人伺服抓取物體研究

發(fā)布時(shí)間:2019-04-29 16:03
【摘要】:隨著科技革命的到來(lái),機(jī)器人技術(shù)已成為了世界各國(guó)綜合國(guó)力較量最核心的科學(xué)技術(shù)之一。其中,機(jī)器人抓取技術(shù)是機(jī)器人最基本的功能,也是最重要的功能之一。不同于工業(yè)機(jī)器人,仿人機(jī)器人的自主抓取主要受環(huán)境和用于協(xié)同作用的傳感器影響,同時(shí)環(huán)境的多樣性、隨機(jī)性等,對(duì)仿人機(jī)器人的感知系統(tǒng)也提出了更高要求。因此,本文以仿人機(jī)器人NAO為研究平臺(tái),針對(duì)NAO機(jī)器人本體單目視覺(jué)難以獲得深度信息,雙目視覺(jué)重疊視野窄,抓取范圍受限等問(wèn)題,提出采用Kinect深度傳感器代替機(jī)器人本體攝像頭來(lái)感知外界環(huán)境,并圍繞機(jī)器人運(yùn)動(dòng)學(xué)、目標(biāo)識(shí)別定位、機(jī)械臂運(yùn)動(dòng)路徑規(guī)劃以及機(jī)器人抓取物體操作展開(kāi)了研究。本文的主要工作內(nèi)容如下:(1)針對(duì)機(jī)器人運(yùn)動(dòng)學(xué),介紹了相關(guān)的理論知識(shí),對(duì)NAO機(jī)器人手臂利用D-H法和機(jī)器人正運(yùn)動(dòng)學(xué)方程建立了數(shù)學(xué)模型,并利用解析法對(duì)機(jī)器人手臂進(jìn)行逆運(yùn)動(dòng)學(xué)求解,為NAO機(jī)器人實(shí)現(xiàn)自主抓取物體提供了基礎(chǔ)。(2)為實(shí)現(xiàn)機(jī)器人高精度的目標(biāo)定位,本文提出了一種基于Kinect的仿人機(jī)器人目標(biāo)定位方案。首先對(duì)Kinect采集的場(chǎng)景信息進(jìn)行圖像處理,獲取物體中心點(diǎn)空間坐標(biāo);然后對(duì)Kinect和機(jī)器人進(jìn)行坐標(biāo)系建立,構(gòu)建布爾沙坐標(biāo)轉(zhuǎn)換模型,并利用線性總體最小二乘算法(LTLS)求解該模型;再通過(guò)該模型將目標(biāo)物中心點(diǎn)坐標(biāo)轉(zhuǎn)換到機(jī)器人坐標(biāo)系,從而實(shí)現(xiàn)機(jī)器人對(duì)目標(biāo)物體的定位。最后,在NAO機(jī)器人平臺(tái)上進(jìn)行實(shí)驗(yàn)驗(yàn)證,結(jié)果表明,所提出的目標(biāo)定位方案合理可行,既能使NAO實(shí)時(shí)、可靠的定位目標(biāo)物體,滿足抓取物體所需的定位精度,又較其單目視覺(jué)定位更準(zhǔn)確。(3)為實(shí)現(xiàn)機(jī)器人快速、可靠的抓取目標(biāo)物體,在分析機(jī)器人工作空間后,利用迭代法和幾何法計(jì)算出NAO機(jī)器人手臂的運(yùn)動(dòng)可達(dá)空間,并針對(duì)NAO機(jī)器人多關(guān)節(jié)高維空間的特性,采用改進(jìn)的快速擴(kuò)展隨機(jī)樹(shù)算法(改進(jìn)的RRT*算法)對(duì)機(jī)器人手臂運(yùn)動(dòng)路徑進(jìn)行規(guī)劃,即將網(wǎng)格搜索法與雙向擴(kuò)展策略引入到原始RRT*算法中,實(shí)驗(yàn)結(jié)果表明,該方法不僅保留了RRT*逐漸優(yōu)化路徑的特性,而且提高了路徑規(guī)劃的效率。(4)在有、無(wú)障礙物約束條件下,通過(guò)構(gòu)建機(jī)器人自主抓取整體系統(tǒng),并結(jié)合上述(1)、(2)、(3)闡述的方法,實(shí)現(xiàn)了機(jī)器人在不同環(huán)境下對(duì)不同目標(biāo)物體自主抓取的操作。同時(shí),實(shí)驗(yàn)驗(yàn)證了本文所采用理論的正確性。
[Abstract]:......
【學(xué)位授予單位】:西華大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類(lèi)號(hào)】:TP242

【參考文獻(xiàn)】

相關(guān)期刊論文 前7條

1 賀超;劉華平;孫富春;夏路易;韓崢;;采用Kinect的移動(dòng)機(jī)器人目標(biāo)跟蹤與避障[J];智能系統(tǒng)學(xué)報(bào);2013年05期

2 譚民;王碩;;機(jī)器人技術(shù)研究進(jìn)展[J];自動(dòng)化學(xué)報(bào);2013年07期

3 晁衍凱;徐昱琳;周勇飛;呂曉夢(mèng);王明;;基于平面模板的機(jī)器人雙目標(biāo)定與目標(biāo)定位[J];計(jì)算機(jī)技術(shù)與發(fā)展;2013年06期

4 紀(jì)玉山;滕菲;;中國(guó)人口老齡化對(duì)經(jīng)濟(jì)結(jié)構(gòu)的影響研究[J];社會(huì)科學(xué)輯刊;2013年01期

5 李昕;劉路;;基于視覺(jué)與RFID的機(jī)器人自定位抓取算法[J];計(jì)算機(jī)工程;2012年23期

6 徐昱琳;楊永煥;李昕;陳萬(wàn)米;晁衍凱;;基于雙目視覺(jué)的服務(wù)機(jī)器人仿人機(jī)械臂控制[J];上海大學(xué)學(xué)報(bào)(自然科學(xué)版);2012年05期

7 李瑞峰;胡雨濱;趙立軍;葛連正;劉廣利;;基于雙目視覺(jué)的雙臂作業(yè)型服務(wù)機(jī)器人的研制[J];機(jī)械設(shè)計(jì)與制造;2010年04期

相關(guān)碩士學(xué)位論文 前8條

1 王夢(mèng);多自由度串聯(lián)機(jī)器人運(yùn)動(dòng)學(xué)分析與仿真[D];北京理工大學(xué);2016年

2 袁麗;NAO機(jī)器人的視覺(jué)伺服物品抓取設(shè)計(jì)與實(shí)現(xiàn)[D];山東大學(xué);2015年

3 馬志遠(yuǎn);NAO機(jī)器人的手臂建模及控制算法研究[D];燕山大學(xué);2015年

4 王全;基于RRT的全局路徑規(guī)劃方法及其應(yīng)用研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2014年

5 李璐一;基于Kinect的物體分割與識(shí)別算法研究[D];重慶大學(xué);2014年

6 鄭雪林;基于視覺(jué)伺服的仿人機(jī)器人智能抓取技術(shù)研究[D];東北大學(xué);2013年

7 韓崢;基于Kinect的服務(wù)機(jī)器人桌面清理[D];石家莊鐵道大學(xué);2013年

8 張作楠;機(jī)器人視覺(jué)伺服跟蹤系統(tǒng)的研究[D];江南大學(xué);2012年



本文編號(hào):2468345

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2468345.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶0f5d5***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com