天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

移動機器人的手勢交互控制技術(shù)研究

發(fā)布時間:2019-04-30 21:30
【摘要】:近年來,機器人成為各國的研究熱點,被廣泛應(yīng)用于安防、娛樂、教育和工業(yè)等領(lǐng)域,其人機交互方式也在不斷更新。自2010年微軟推出Kinect體感組件,非接觸式人機交互技術(shù)逐漸興起并被廣泛地應(yīng)用于各種機器人控制領(lǐng)域。本文基于Kinect2.0開發(fā)設(shè)計了一款基于手勢控制的移動機器人,并重點研究了手勢交互控制技術(shù),其中包括:手勢定義、手勢獲取、手勢預(yù)處理以及手勢識別。該機器人具備通過識別手勢做出相應(yīng)動作,并可以在室內(nèi)全方位移動、自主躲避障礙和檢測自身運動狀態(tài)等功能,為室內(nèi)服務(wù)機器人的設(shè)計與實現(xiàn)奠定了基礎(chǔ)。該機器人具有廣泛的應(yīng)用前景,未來可用于輔助老年人、殘疾人的日常生活,改善他們的生活質(zhì)量,也可以用于商業(yè)服務(wù)領(lǐng)域。整個機器人系統(tǒng)主要分為下位機和上位機兩部分。下位機采用STM32F103ZET6為主控制器,外部連接6個超聲傳感器和1個MPU9250傳感器,下位機的功能是接收上位機命令,并根據(jù)命令完成相應(yīng)動作。同時,下位機具有自主避障和自身運動狀態(tài)檢測功能。上位機由安裝了Windows8.1系統(tǒng)的i7雙核工控機和Kinect2.0組成,主要用于完成視頻信號的采集、手勢識別與處理,并形成命令發(fā)送給下位機,上位機還可以讀取下位機狀態(tài)。上位機和下位機通過RS232接口進行信息交換。Kinect2.0可以獲取彩色圖像數(shù)據(jù)、深度圖像數(shù)據(jù)和人體骨骼數(shù)據(jù),其獲取的深度圖像不受光照、紋理影響,魯棒性好;其獲取的人體骨骼數(shù)據(jù)包括人體25個骨骼節(jié)點,在人體大部分出現(xiàn)在視野前方的情況下,具有鎖定骨骼位置準(zhǔn)確、獲取骨骼節(jié)點速度快、跟蹤效果好等優(yōu)點。因此,本文重點研究了基于深度圖像進行手勢識別的方法。在該方法中,首先通過骨骼數(shù)據(jù)快速鎖定手部圖像;然后提出一種基于雙閾值(一個為固定閾值,一個為動態(tài)閾值)的圖像差分方法用于將背景與手分離,從而提取手部二值化圖像;最后,采用指尖點計數(shù)的方法進行基于手指數(shù)量的手勢識別。本文基于Visual Studio 2012的開發(fā)環(huán)境、開源計算機視覺庫OpenCV3.0和Kinect2.0類庫采用,C++語言開發(fā)了上位機軟件,在Keil4開發(fā)環(huán)境下開發(fā)了下位機軟件。經(jīng)過測試,整個系統(tǒng)能夠相對準(zhǔn)確地識別6種右手手勢,并根據(jù)手勢命令做出相應(yīng)動作。測試結(jié)果表明,手勢命令平均識別率為92.5%。該系統(tǒng)也可以識別左手手勢,通過左右手手勢的組合,可以擴展更多的手勢用于人機交互。
[Abstract]:......
【學(xué)位授予單位】:東北師范大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2017
【分類號】:TP391.41;TP242

【參考文獻】

相關(guān)期刊論文 前10條

1 易靖國;程江華;庫錫樹;;視覺手勢識別綜述[J];計算機科學(xué);2016年S1期

2 張文前;;智能移動機器人技術(shù)現(xiàn)狀及展望[J];電子技術(shù)與軟件工程;2016年08期

3 李昕迪;朱國強;;基于Kinect的人體姿勢識別算法與實現(xiàn)[J];自動化技術(shù)與應(yīng)用;2016年02期

4 劉春陽;徐軍領(lǐng);程洪濤;王東方;薛玉君;;MPU9250傳感器的姿態(tài)檢測與數(shù)據(jù)融合[J];河南科技大學(xué)學(xué)報(自然科學(xué)版);2015年04期

5 蔡娟;蔡堅勇;廖曉東;黃海濤;丁僑俊;;基于卷積神經(jīng)網(wǎng)絡(luò)的手勢識別初探[J];計算機系統(tǒng)應(yīng)用;2015年04期

6 顧德;李吉;;基于深度信息的指尖追蹤及手勢識別[J];計算機工程與應(yīng)用;2015年07期

7 鄭偉;林山君;陳凱;;中國人口老齡化的特征趨勢及對經(jīng)濟增長的潛在影響[J];數(shù)量經(jīng)濟技術(shù)經(jīng)濟研究;2014年08期

8 史恩秀;陳敏敏;李俊;黃玉美;;基于蟻群算法的移動機器人全局路徑規(guī)劃方法研究[J];農(nóng)業(yè)機械學(xué)報;2014年06期

9 林水強;吳亞東;陳永輝;;基于幾何特征的手勢識別方法[J];計算機工程與設(shè)計;2014年02期

10 胡瓊;秦磊;黃慶明;;基于視覺的人體動作識別綜述[J];計算機學(xué)報;2013年12期

相關(guān)碩士學(xué)位論文 前7條

1 曹海波;基于Kinect深度信息的靜態(tài)手勢識別方法研究[D];山東大學(xué);2016年

2 談家譜;基于指尖信息的手勢識別與人機交互應(yīng)用研究[D];北京交通大學(xué);2016年

3 王松林;基于Kinect的手勢識別與機器人控制技術(shù)研究[D];北京交通大學(xué);2014年

4 鄭斌玨;基于Kinect深度信息的手勢識別[D];杭州電子科技大學(xué);2014年

5 彭朔;基于神經(jīng)網(wǎng)絡(luò)的核電站檢修機器人的智能控制研究[D];華北電力大學(xué)(北京);2010年

6 程文山;基于膚色分割和Camshift的手勢識別研究[D];華中師范大學(xué);2009年

7 張輝;非完整性移動機器人體系結(jié)構(gòu)設(shè)計與軌跡跟蹤控制研究[D];湖南大學(xué);2007年

,

本文編號:2469025

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2469025.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶9f21e***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com