室內(nèi)未知環(huán)境中的智能輪椅手勢交互與自主導(dǎo)航的研究
發(fā)布時間:2020-12-16 04:48
隨著社會老齡化程度的不斷加劇,養(yǎng)老助老智能產(chǎn)品的需求日益高漲。作為老年人服務(wù)機器人的1種,智能輪椅具備環(huán)境適應(yīng)性強、運動控制平穩(wěn)和人機交互體驗友好等諸多特點,是養(yǎng)老助老智能產(chǎn)品的1個必然發(fā)展方向,具有重要的研究價值和社會意義。本論文在對國內(nèi)外智能輪椅研究現(xiàn)狀分析總結(jié)的基礎(chǔ)上,研發(fā)室內(nèi)未知環(huán)境中基于自然手勢導(dǎo)航的智能輪椅。構(gòu)建以Kinect V2和ARM為核心的硬件平臺,完成了1臺智能輪椅樣機MIYABIⅢ,力爭彌補當(dāng)前智能輪椅中手勢交互無法提供具體目標(biāo)點和室內(nèi)未知環(huán)境中自主導(dǎo)航研究較少的不足。本論文的創(chuàng)新點在于模擬人類日常行為習(xí)慣,采用生活中的指向手勢為示意方向,對其進行手部抽象、模型建立和場景應(yīng)用,初步實現(xiàn)了室內(nèi)未知環(huán)境中的MIYABIⅢ自然手勢導(dǎo)航。首先,本論文開發(fā)了基于支持向量機的自然手勢識別模塊,實驗結(jié)果表明識別準(zhǔn)確率達到99.8%?紤]到實際生活場景,相關(guān)的自然手勢定義為指令手勢和隨機手勢,采用Hu不變矩的前4階為特征向量。其次,本論文開發(fā)了基于深度學(xué)習(xí)的手勢指向估計模塊,訓(xùn)練得到的卷積神經(jīng)網(wǎng)絡(luò)模型的平均像素誤差為2.3px,每幀預(yù)測時間為10.0ms;诰植渴值纳疃葓D像信...
【文章來源】:蘇州大學(xué)江蘇省
【文章頁數(shù)】:91 頁
【學(xué)位級別】:碩士
【部分圖文】:
國外研究的智能輪椅
(a)分割前 (b)分割后圖 2.3 深度信息法分割效果RGB 顏色空間是目前應(yīng)用最廣泛的顏色空間,Kinect V2 獲取的彩色圖像處于色空間。由于該顏色空間中的每個分量均包含亮度信息,因此亮度一旦發(fā)生變度和灰度也將變化,所以該顏色空間受光照影響較大,不適于膚色建模。本論文常用于膚色建模的 YCrCb 顏色空間,將 RGB 顏色空間轉(zhuǎn)換至 YCrCb 顏色空間經(jīng)過深度信息法分割,手部區(qū)域仍然存在冗余信息,因此本論文依據(jù) YCrCb空間上膚色的 Y 值顯著高于背景和衣服區(qū)域這一特征,采用 1 種基于 Y 分量結(jié)大類間方差法[62]的手部區(qū)域分割方法,分割效果如圖 2.4 所示。
(a)分割前 (b)分割后圖 2.3 深度信息法分割效果 顏色空間是目前應(yīng)用最廣泛的顏色空間,Kinect V2 獲取的彩色圖。由于該顏色空間中的每個分量均包含亮度信息,因此亮度一旦度也將變化,所以該顏色空間受光照影響較大,不適于膚色建模。膚色建模的 YCrCb 顏色空間,將 RGB 顏色空間轉(zhuǎn)換至 YCrCb 顏深度信息法分割,手部區(qū)域仍然存在冗余信息,因此本論文依據(jù)膚色的 Y 值顯著高于背景和衣服區(qū)域這一特征,采用 1 種基于 Y方差法[62]的手部區(qū)域分割方法,分割效果如圖 2.4 所示。
【參考文獻】:
期刊論文
[1]一種基于深度學(xué)習(xí)的靜態(tài)手勢實時識別方法[J]. 張勛,陳亮,胡誠,孫韶媛. 現(xiàn)代計算機(專業(yè)版). 2017(34)
[2]基于膚色檢測與卷積神經(jīng)網(wǎng)絡(luò)的手勢識別[J]. 楊紅玲,宣士斌,梁竣程,趙洪,莫愿斌. 微型機與應(yīng)用. 2017(22)
[3]基于CNN的手勢識別技術(shù)研究[J]. 葉茂華. 無線互聯(lián)科技. 2017(20)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的手勢識別算法設(shè)計與實現(xiàn)[J]. 張斌,孫旭飛,吳一鵬. 微型機與應(yīng)用. 2017(20)
[5]復(fù)雜場景下基于R-FCN的手勢識別[J]. 桑農(nóng),倪子涵. 華中科技大學(xué)學(xué)報(自然科學(xué)版). 2017(10)
[6]基于深度信息與DBN的手勢檢測與識別[J]. 朱月秀,陳志翔,王娟. 閩南師范大學(xué)學(xué)報(自然科學(xué)版). 2017(03)
[7]基于多列深度3D卷積神經(jīng)網(wǎng)絡(luò)的手勢識別[J]. 易生,梁華剛,茹鋒. 計算機工程. 2017(08)
[8]基于3D CNN的大規(guī)模視頻手勢識別研究[J]. 苗啟廣,李宇楠,徐昕. 中興通訊技術(shù). 2017(04)
[9]淺談智能輪椅的研究設(shè)計[J]. 黃挺程,藍偉巍,陳珍珍. 科技創(chuàng)新與應(yīng)用. 2017(15)
[10]基于改進Hu矩算法的Kinect手勢識別[J]. 蒲興成,王濤,張毅. 計算機工程. 2016(07)
碩士論文
[1]基于Kinect的移動機器人視覺SLAM研究[D]. 曹祿.南昌大學(xué) 2017
[2]基于深度學(xué)習(xí)的手勢識別方法研究[D]. 胡駿飛.湖南工業(yè)大學(xué) 2017
[3]基于支持向量機的濕地遙感分類及生態(tài)系統(tǒng)健康評價研究[D]. 徐浩田.沈陽農(nóng)業(yè)大學(xué) 2017
[4]復(fù)雜環(huán)境下車牌定位的研究與應(yīng)用[D]. 郜偉.安徽大學(xué) 2016
[5]基于ARM的Kinect手勢識別研究[D]. 賀霄琛.中北大學(xué) 2016
[6]基于指尖定位的手勢識別算法研究[D]. 白玉.北京交通大學(xué) 2016
[7]基于視覺的實時靜態(tài)手勢識別技術(shù)研究[D]. 李亞蘭.哈爾濱工業(yè)大學(xué) 2015
[8]基于Kinect的組合手勢識別及應(yīng)用[D]. 郭雙雙.遼寧大學(xué) 2015
[9]面向老人的智能輪椅的研究[D]. 王宇.蘇州大學(xué) 2015
[10]基于手臂去除的靜態(tài)數(shù)字手勢識別[D]. 成信宇.西南大學(xué) 2014
本文編號:2919555
【文章來源】:蘇州大學(xué)江蘇省
【文章頁數(shù)】:91 頁
【學(xué)位級別】:碩士
【部分圖文】:
國外研究的智能輪椅
(a)分割前 (b)分割后圖 2.3 深度信息法分割效果RGB 顏色空間是目前應(yīng)用最廣泛的顏色空間,Kinect V2 獲取的彩色圖像處于色空間。由于該顏色空間中的每個分量均包含亮度信息,因此亮度一旦發(fā)生變度和灰度也將變化,所以該顏色空間受光照影響較大,不適于膚色建模。本論文常用于膚色建模的 YCrCb 顏色空間,將 RGB 顏色空間轉(zhuǎn)換至 YCrCb 顏色空間經(jīng)過深度信息法分割,手部區(qū)域仍然存在冗余信息,因此本論文依據(jù) YCrCb空間上膚色的 Y 值顯著高于背景和衣服區(qū)域這一特征,采用 1 種基于 Y 分量結(jié)大類間方差法[62]的手部區(qū)域分割方法,分割效果如圖 2.4 所示。
(a)分割前 (b)分割后圖 2.3 深度信息法分割效果 顏色空間是目前應(yīng)用最廣泛的顏色空間,Kinect V2 獲取的彩色圖。由于該顏色空間中的每個分量均包含亮度信息,因此亮度一旦度也將變化,所以該顏色空間受光照影響較大,不適于膚色建模。膚色建模的 YCrCb 顏色空間,將 RGB 顏色空間轉(zhuǎn)換至 YCrCb 顏深度信息法分割,手部區(qū)域仍然存在冗余信息,因此本論文依據(jù)膚色的 Y 值顯著高于背景和衣服區(qū)域這一特征,采用 1 種基于 Y方差法[62]的手部區(qū)域分割方法,分割效果如圖 2.4 所示。
【參考文獻】:
期刊論文
[1]一種基于深度學(xué)習(xí)的靜態(tài)手勢實時識別方法[J]. 張勛,陳亮,胡誠,孫韶媛. 現(xiàn)代計算機(專業(yè)版). 2017(34)
[2]基于膚色檢測與卷積神經(jīng)網(wǎng)絡(luò)的手勢識別[J]. 楊紅玲,宣士斌,梁竣程,趙洪,莫愿斌. 微型機與應(yīng)用. 2017(22)
[3]基于CNN的手勢識別技術(shù)研究[J]. 葉茂華. 無線互聯(lián)科技. 2017(20)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的手勢識別算法設(shè)計與實現(xiàn)[J]. 張斌,孫旭飛,吳一鵬. 微型機與應(yīng)用. 2017(20)
[5]復(fù)雜場景下基于R-FCN的手勢識別[J]. 桑農(nóng),倪子涵. 華中科技大學(xué)學(xué)報(自然科學(xué)版). 2017(10)
[6]基于深度信息與DBN的手勢檢測與識別[J]. 朱月秀,陳志翔,王娟. 閩南師范大學(xué)學(xué)報(自然科學(xué)版). 2017(03)
[7]基于多列深度3D卷積神經(jīng)網(wǎng)絡(luò)的手勢識別[J]. 易生,梁華剛,茹鋒. 計算機工程. 2017(08)
[8]基于3D CNN的大規(guī)模視頻手勢識別研究[J]. 苗啟廣,李宇楠,徐昕. 中興通訊技術(shù). 2017(04)
[9]淺談智能輪椅的研究設(shè)計[J]. 黃挺程,藍偉巍,陳珍珍. 科技創(chuàng)新與應(yīng)用. 2017(15)
[10]基于改進Hu矩算法的Kinect手勢識別[J]. 蒲興成,王濤,張毅. 計算機工程. 2016(07)
碩士論文
[1]基于Kinect的移動機器人視覺SLAM研究[D]. 曹祿.南昌大學(xué) 2017
[2]基于深度學(xué)習(xí)的手勢識別方法研究[D]. 胡駿飛.湖南工業(yè)大學(xué) 2017
[3]基于支持向量機的濕地遙感分類及生態(tài)系統(tǒng)健康評價研究[D]. 徐浩田.沈陽農(nóng)業(yè)大學(xué) 2017
[4]復(fù)雜環(huán)境下車牌定位的研究與應(yīng)用[D]. 郜偉.安徽大學(xué) 2016
[5]基于ARM的Kinect手勢識別研究[D]. 賀霄琛.中北大學(xué) 2016
[6]基于指尖定位的手勢識別算法研究[D]. 白玉.北京交通大學(xué) 2016
[7]基于視覺的實時靜態(tài)手勢識別技術(shù)研究[D]. 李亞蘭.哈爾濱工業(yè)大學(xué) 2015
[8]基于Kinect的組合手勢識別及應(yīng)用[D]. 郭雙雙.遼寧大學(xué) 2015
[9]面向老人的智能輪椅的研究[D]. 王宇.蘇州大學(xué) 2015
[10]基于手臂去除的靜態(tài)數(shù)字手勢識別[D]. 成信宇.西南大學(xué) 2014
本文編號:2919555
本文鏈接:http://sikaile.net/kejilunwen/yiqiyibiao/2919555.html