面向翻書機(jī)器人的手勢控制指令的識別算法
本文選題:人機(jī)交互 + 手勢控制指令識別; 參考:《東華大學(xué)學(xué)報(bào)(自然科學(xué)版)》2017年06期
【摘要】:所控制的翻書機(jī)器人是一種輔助特殊人群閱讀的服務(wù)機(jī)器人,對其提出一種基于表觀特征的手勢控制指令識別算法.從Kinect(體感外設(shè))獲取的手部深度圖像中利用最小深度點(diǎn)分割手勢區(qū)域,用軌跡圓提取指尖個(gè)數(shù)及夾角等表觀特征并通過決策樹分類,同時(shí)利用手和肩膀的骨骼數(shù)據(jù)及其運(yùn)動(dòng)軌跡判定翻頁方向.經(jīng)過多次試驗(yàn),手勢控制指令識別率達(dá)到98.4%,該算法無需訓(xùn)練樣本也能在復(fù)雜環(huán)境下快速準(zhǔn)確地識別手勢控制指令,完全可以應(yīng)用于輔助特殊人群閱讀時(shí)的翻書控制.
[Abstract]:The controlled reading robot is a kind of service robot which can assist special people to read. A gesture control command recognition algorithm based on apparent features is proposed for the robot. In the hand depth image obtained from Kinect (somatosensory peripherals), the minimum depth points are used to segment the gesture area, and the apparent features such as the number of fingertips and the angle between fingers are extracted from the locus circle and classified by the decision tree. At the same time, the skeletal data of the hands and shoulders and their motion tracks are used to determine the turning direction. After many experiments, the recognition rate of gesture control instruction reaches 98.4. The algorithm can recognize gesture control instruction quickly and accurately in complex environment without training samples. It can be applied to the reading control of special people.
【作者單位】: 上海交通大學(xué)電子信息與電氣工程學(xué)院;
【基金】:國家自然科學(xué)基金資助項(xiàng)目(61503245) 上海市自然科學(xué)基金資助項(xiàng)目(13ZR1421600)
【分類號】:TP242;TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 朱劍英;機(jī)器人與機(jī)器人學(xué)[J];自然雜志;1984年09期
2 龐梁;;基于確定型有窮自動(dòng)機(jī)的機(jī)器人行為控制單元[J];微型電腦應(yīng)用;2012年02期
3 韓青;機(jī)器人的機(jī)械手動(dòng)力學(xué)方程的快速計(jì)算[J];系統(tǒng)工程與電子技術(shù);1986年10期
4 姜方榮;解決機(jī)器人臂振的一種方法[J];計(jì)算機(jī)工程與設(shè)計(jì);1988年06期
5 李小京;;一種專用的視覺機(jī)器人語言[J];天津紡織工學(xué)院學(xué)報(bào);1990年02期
6 李新;喬正洪;;基于機(jī)器人控制的鹽化工業(yè)協(xié)同管理系統(tǒng)的構(gòu)建[J];四川兵工學(xué)報(bào);2011年12期
7 王海峰,陸文娟,馮川;機(jī)器人施釉系統(tǒng)主控軟件[J];計(jì)算機(jī)工程與應(yīng)用;2005年28期
8 陸波波,黃鴻;一種多機(jī)器人系統(tǒng)仿真平臺的框架結(jié)構(gòu)研究[J];計(jì)算機(jī)應(yīng)用;2005年05期
9 劉相術(shù);楊慶東;;基于VC的液下攪拌機(jī)器人控制軟件的開發(fā)[J];北京機(jī)械工業(yè)學(xué)院學(xué)報(bào);2006年01期
10 邱長伍,曹其新,長孫郁男,橫山和彥;機(jī)器人圖形化編程與三維仿真環(huán)境[J];機(jī)器人;2005年05期
相關(guān)重要報(bào)紙文章 前1條
1 廣州 耿德根;機(jī)器人控制語言講座[N];電子報(bào);2007年
相關(guān)博士學(xué)位論文 前3條
1 王新忠;溫室番茄收獲機(jī)器人選擇性收獲作業(yè)信息獲取與路徑規(guī)劃研究[D];江蘇大學(xué);2012年
2 高明柯;基于增強(qiáng)現(xiàn)實(shí)的冠心病血管介入手術(shù)仿真培訓(xùn)中關(guān)鍵問題研究[D];上海大學(xué);2017年
3 黃忠;類人機(jī)器人表情識別與表情再現(xiàn)方法研究[D];合肥工業(yè)大學(xué);2016年
相關(guān)碩士學(xué)位論文 前10條
1 王琳琳;基于慣性傳感器的手勢交互方法研究[D];電子科技大學(xué);2017年
2 劉楊俊武;實(shí)時(shí)云力態(tài)手勢識另y技術(shù)的研究與應(yīng)用[D];南京郵電大學(xué);2017年
3 蔣磊磊;手勢圖像識別算法研究[D];沈陽理工大學(xué);2017年
4 崔榮麗;移動(dòng)機(jī)器人的手勢交互控制技術(shù)研究[D];東北師范大學(xué);2017年
5 王曦楊;面向手勢交互的可視查詢技術(shù)研究與應(yīng)用[D];南京郵電大學(xué);2017年
6 劉貝貝;基于嵌入式系統(tǒng)的手勢跟蹤技術(shù)研究[D];蘭州理工大學(xué);2017年
7 陳群;基于3D手勢跟蹤中小腦運(yùn)動(dòng)控制功能及其模型的研究[D];南京郵電大學(xué);2017年
8 印佳;面向手勢交互的探索式搜索技術(shù)研究與應(yīng)用[D];南京郵電大學(xué);2017年
9 何瑞青;助老助殘移動(dòng)機(jī)器人手勢交互控制研究[D];南京郵電大學(xué);2017年
10 吳賢為;基于多模傳感的緊湊型手勢交互構(gòu)件研制[D];浙江大學(xué);2017年
,本文編號:1800737
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1800737.html