NAO機(jī)器人行為控制系統(tǒng)設(shè)計(jì)
本文關(guān)鍵詞:NAO機(jī)器人行為控制系統(tǒng)設(shè)計(jì)
更多相關(guān)文章: NAO機(jī)器人 人機(jī)交互 語音交互 視覺交互 NAO Mark 運(yùn)動(dòng)規(guī)劃
【摘要】:隨著智能機(jī)器人應(yīng)用領(lǐng)域的擴(kuò)大,越來越多的智能機(jī)器人走進(jìn)了人們的生活。為了方便人們與機(jī)器人的信息交流,讓機(jī)器人能夠更好的為人類服務(wù),創(chuàng)造更好的人機(jī)交互模式已成為機(jī)器人研究的重要方向之一。人機(jī)交互最初主要是通過按鈕和鍵盤,而隨著智能機(jī)器人技術(shù)的發(fā)展,語音和視覺成為了人機(jī)交互最主要的方式。本文研究的是基于NAO機(jī)器人的行為控制系統(tǒng)設(shè)計(jì)。以法國Aldebaran Robotics公司的NAO機(jī)器人作為研究平臺,分別用語音和視覺兩種人機(jī)交互模式對機(jī)器人進(jìn)行控制。語音交互主要是利用NAO機(jī)器人的語音識別模塊對輸入的語音進(jìn)行識別,然后通過在建立的對話數(shù)據(jù)庫中進(jìn)行搜索匹配,機(jī)器人根據(jù)獲取的語音指令執(zhí)行相應(yīng)的動(dòng)作或語音輸出。本文采用了微軟的Speech SDK 5.1進(jìn)行語音識別,建立了一個(gè)宋詞三百首的數(shù)據(jù)庫,利用Python對數(shù)據(jù)庫進(jìn)行操作,從數(shù)據(jù)庫中獲取查詢的結(jié)果并通過語音合成朗讀出來。視覺交互主要是利用NAO機(jī)器人的攝像頭進(jìn)行目標(biāo)物體的搜索和識別。本文提出了利用NAO Mark進(jìn)行目標(biāo)物體識別定位的方案,根據(jù)NAO Mark的信息進(jìn)行距離計(jì)算和坐標(biāo)轉(zhuǎn)換,進(jìn)而得到NAO Mark相對于機(jī)器人坐標(biāo)系的位姿。最后,根據(jù)語音命令的輸入,通過視覺的識別定位,對機(jī)器人進(jìn)行運(yùn)動(dòng)學(xué)規(guī)劃,實(shí)現(xiàn)對目標(biāo)物體的抓取。從而形成了一個(gè)擁有語音和視覺交互的行為控制系統(tǒng),使人們與機(jī)器人的交互更加方便和實(shí)用。在運(yùn)動(dòng)控制中,本文提出了一種基于視覺的伺服控制系統(tǒng)方案,利用攝像機(jī)獲取的目標(biāo)物體的位姿,對機(jī)器人手臂末端運(yùn)動(dòng)進(jìn)行規(guī)劃,形成一個(gè)具有視覺反饋的閉環(huán)系統(tǒng)。
【關(guān)鍵詞】:NAO機(jī)器人 人機(jī)交互 語音交互 視覺交互 NAO Mark 運(yùn)動(dòng)規(guī)劃
【學(xué)位授予單位】:濟(jì)南大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP242
【目錄】:
- 摘要7-8
- abstract8-10
- 第一章 緒論10-18
- 1.1 課題的研究背景及意義10-11
- 1.2 國內(nèi)外研究現(xiàn)狀11-13
- 1.3 課題研究的主要內(nèi)容13-17
- 1.3.1 語音交互14-16
- 1.3.2 單目識別定位16
- 1.3.3 運(yùn)動(dòng)控制16-17
- 1.4 論文的章節(jié)安排17-18
- 第二章 語音交互行為18-30
- 2.1 NAO機(jī)器人語音交互系統(tǒng)設(shè)計(jì)18-21
- 2.1.1 語音系統(tǒng)硬件介紹18-20
- 2.1.2 系統(tǒng)結(jié)構(gòu)及功能20-21
- 2.2 語音交互流程及模塊設(shè)計(jì)21-25
- 2.2.1 語音識別模塊22-23
- 2.2.2 語音對答模塊23-24
- 2.2.3 語音合成模塊24-25
- 2.3 數(shù)據(jù)庫查詢25-28
- 2.4 本章小結(jié)28-30
- 第三章 單目識別定位30-44
- 3.1 NAO機(jī)器人視覺系統(tǒng)30-32
- 3.2 路標(biāo)識別定位法32-33
- 3.3 Mark識別定位33-42
- 3.3.1 Mark識別原理34-36
- 3.3.2 Mark定位原理36-42
- 3.4 本章小結(jié)42-44
- 第四章 機(jī)器人運(yùn)動(dòng)控制44-56
- 4.1 機(jī)器人運(yùn)動(dòng)學(xué)44-48
- 4.1.1 位置與姿態(tài)的表示44-46
- 4.1.2 空間變換46-47
- 4.1.3 正向運(yùn)動(dòng)學(xué)和逆向運(yùn)動(dòng)學(xué)47-48
- 4.2 建立NAO機(jī)器人手臂模型48-52
- 4.3 對目標(biāo)物體的抓取52-55
- 4.4 本章小結(jié)55-56
- 第五章 總結(jié)與展望56-58
- 5.1 總結(jié)56
- 5.2 展望56-58
- 參考文獻(xiàn)58-62
- 致謝62-64
- 附錄64
【參考文獻(xiàn)】
中國期刊全文數(shù)據(jù)庫 前10條
1 ;NAO——?jiǎng)?chuàng)造交互型的機(jī)器人[J];機(jī)器人技術(shù)與應(yīng)用;2014年03期
2 賈云偉;劉鐵根;劉琨;王聃;孟云霞;;視覺導(dǎo)航用多功能路標(biāo)設(shè)計(jì)與應(yīng)用[J];光電子.激光;2014年05期
3 譚民;王碩;;機(jī)器人技術(shù)研究進(jìn)展[J];自動(dòng)化學(xué)報(bào);2013年07期
4 王田苗;陶永;陳陽;;服務(wù)機(jī)器人技術(shù)研究現(xiàn)狀與發(fā)展趨勢[J];中國科學(xué):信息科學(xué);2012年09期
5 黃子君;張亮;;語音識別技術(shù)及應(yīng)用綜述[J];江西教育學(xué)院學(xué)報(bào);2010年03期
6 印峰;王耀南;夏漢民;;多關(guān)節(jié)機(jī)器人逆運(yùn)動(dòng)學(xué)問題的實(shí)時(shí)求解[J];中國機(jī)械工程;2010年10期
7 陳英;廖濤;林初靠;萬虎;李偉;;基于計(jì)算機(jī)視覺的葡萄檢測分級系統(tǒng)[J];農(nóng)業(yè)機(jī)械學(xué)報(bào);2010年03期
8 劉振宇;姜楠;張令濤;;基于人工路標(biāo)和立體視覺的移動(dòng)機(jī)器人自定位[J];計(jì)算機(jī)工程與應(yīng)用;2010年09期
9 陳景帥;周風(fēng)余;;基于Speech SDK的機(jī)器人語音交互系統(tǒng)設(shè)計(jì)[J];北京聯(lián)合大學(xué)學(xué)報(bào)(自然科學(xué)版);2010年01期
10 張毅;李艷花;劉全杰;楊紅梅;曾莉;;改進(jìn)的智能機(jī)器人語音識別方法(英文)[J];重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年06期
,本文編號:1062336
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/1062336.html