天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 軟件論文 >

基于深度學習的機器人場景識別研究

發(fā)布時間:2018-02-04 10:06

  本文關鍵詞: 機器人 場景識別 卷積神經(jīng)網(wǎng)絡 深度學習 出處:《沈陽工業(yè)大學》2017年碩士論文 論文類型:學位論文


【摘要】:在機器人領域中,機器人到達一個陌生的環(huán)境中,如何識別當前環(huán)境是計算機視覺領域極其重要的研究問題,也是機器人定位與導航中的一個基本問題,機器人的場景識別研究有助于獲取機器人所在工作環(huán)境中的實時位姿數(shù)據(jù),是機器人實時對當前工作環(huán)境地圖進行構建的關鍵步驟。研究者希望機器人能夠通過之前的經(jīng)驗自動識別出當前所處環(huán)境的類別,這有助于機器人完成接下來的工作任務。傳統(tǒng)的場景識別方法的好壞取決于場景識別技術中最關鍵一步提取場景圖像的特征,然而要提取出好的場景圖像特征需要花費大量的時間和精力,同時這一過程需要啟發(fā)式的經(jīng)驗。針對這一問題,本文將深度學習中卷積神經(jīng)網(wǎng)絡模型應用于機器人工作場景識別,它可以自動的從圖像中學習到隱藏在其內部的特征數(shù)據(jù),這有助于減少人工提取圖像特征的工作量。為使機器人具備識別工作場景的能力,本文建立了機器人場景識別系統(tǒng),并為該系統(tǒng)制定了一個包含多個卷積層、池化層以及全連接層的卷積神經(jīng)網(wǎng)絡結構;系統(tǒng)使用視覺傳感器來獲取并處理訓練卷積神經(jīng)網(wǎng)絡結構時所需的機器人工作場景圖像數(shù)據(jù)集;在獲取機器人工作場景圖像數(shù)據(jù)集的過程中使用激光傳感器采集環(huán)境中的障礙物的距離數(shù)據(jù),并結合機器人的位姿系統(tǒng)數(shù)據(jù)完成機器人在工作場景中的自定位與環(huán)境地圖的創(chuàng)建工作;另外本文通過多組實驗來確定卷積神經(jīng)網(wǎng)絡模型中使用的激活函數(shù)類型、池化層的采樣方法以及訓練時采用的學習率下降方式等,并根據(jù)實驗最終結果確定了本文網(wǎng)絡結構模型采用ReLu激活函數(shù)、池化層使用最大池化方法、學習率采用每代都減小的方法以及前兩層全連接層都帶有Dropout技術。為驗證本文卷積神經(jīng)網(wǎng)絡結構模型的有效性,分別使用自己采集的數(shù)據(jù)集和網(wǎng)絡數(shù)據(jù)集對其進行訓練和測試,并對網(wǎng)絡結構模型在不同場景類別及數(shù)量時的識別效果進行實驗驗證。實驗結果表明本網(wǎng)絡測試識別準確率較高,應用在實際機器人系統(tǒng)時在多個角度拍攝機器人工作場景圖像,并依次將多角度圖像輸入訓練好的網(wǎng)絡結構模型進行場景識別,能完成機器人的實際需求。
[Abstract]:In the field of robot, the robot reaches a strange environment. How to identify the current environment is an extremely important research problem in the field of computer vision, and it is also a basic problem in robot positioning and navigation. The research of robot scene recognition is helpful to obtain the real-time position and pose data of the robot working environment. It is the key step for the robot to construct the map of the current working environment in real time. Researchers hope that the robot can automatically identify the category of the current environment through the previous experience. The traditional scene recognition method depends on the most critical step of scene recognition technology to extract the feature of scene image. However, it takes a lot of time and effort to extract good scene image features, and the process requires heuristic experience. In this paper, the convolution neural network model in depth learning is applied to the robot working scene recognition, which can automatically learn from the image to hide in the internal feature data. This helps to reduce the workload of manually extracting image features. In order to make the robot have the ability to recognize the working scene, a robot scene recognition system is established, and a multi-convolution layer is developed for the system. The convolution neural network structure of the pool layer and the full junction layer; The system uses visual sensor to obtain and process the image data set of robot working scene when training convolutional neural network structure. Laser sensors are used to collect the distance data of obstacles in the environment in the process of acquiring the image data set of the robot working scene. Combined with the position and pose system data of the robot, the self-positioning of the robot in the work scene and the creation of the environmental map are completed. In addition, this paper determines the type of activation function used in the convolution neural network model, the sampling method of the pool layer and the learning rate decreasing method used in the training through multi-group experiments. According to the final results of the experiment, the ReLu activation function is used in the network structure model, and the maximum pool method is used in the pool layer. The learning rate is reduced from generation to generation and the first two layers with Dropout technology. To verify the effectiveness of the convolution neural network structure model in this paper. The data set and network data set are used to train and test them respectively. And the network structure model in different scene categories and the number of the recognition effect of experimental verification. The experimental results show that the network test recognition accuracy is high. When the robot is applied to the actual robot system, the working scene images of the robot are photographed from multiple angles, and the multi-angle images are input into the trained network structure model in turn to recognize the scene, which can fulfill the actual requirements of the robot.
【學位授予單位】:沈陽工業(yè)大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:TP391.41;TP242

【相似文獻】

相關期刊論文 前10條

1 段秀敏,李蓮芝;基于類復向量原理的機器人位置和姿態(tài)分析[J];吉林工程技術師范學院學報;2004年03期

2 張振喜;焦國太;鄧光明;梁聰聰;;室內清潔機器人協(xié)作技術研究[J];機械;2010年12期

3 陳陽舟;王文星;代桂平;;基于角度優(yōu)先的多機器人圍捕策略[J];北京工業(yè)大學學報;2012年05期

4 蔣新松;國外機器人的發(fā)展及我們的對策研究[J];機器人;1987年01期

5 沈慧娟;袖珍機器人別動隊[J];國外科技動態(tài);2004年02期

6 孟慶鑫,魏洪興,王立權,楊青梅,王嵐;基于蠕動原理拱泥機器人方案研究[J];中國造船;2001年01期

7 程遠;機器人軟件編程方法[J];無錫職業(yè)技術學院學報;2002年02期

8 孟慶鑫,王茁,王殿君,王立權,屠治國;“穿地龍”機器人總體方案分析與研究[J];哈爾濱工程大學學報;2003年03期

9 丁瀅潁;何衍;蔣靜坪;;基于個性演化的多機器人自組織[J];模式識別與人工智能;2003年02期

10 張汝波,王兢,孫世良;具有環(huán)境自適應能力的多機器人編隊系統(tǒng)研究[J];機器人;2004年01期

相關會議論文 前10條

1 石為人;周偉;王楷;蘇士娟;;家庭清潔機器人自主充電研究[A];2010中國儀器儀表與測控技術大會論文集[C];2010年

2 李長松;孫國林;韓勝利;;機器人料箱取件形式及控制方法[A];2013中國汽車工程學會年會論文集[C];2013年

3 孟正大;戴先中;;基于神經(jīng)網(wǎng)絡逆系統(tǒng)方法的機器人柔順性控制[A];江蘇省自動化學會七屆四次理事會暨2004學術年會青年學者論壇論文集[C];2004年

4 陳天皓;錢成;談英姿;;類人足球仿真機器人快速起身方法的實現(xiàn)[A];2007年足球機器人大會論文集[C];2007年

5 薛慧婷;羅熊;胡海東;游美玲;邱新濤;;基于顏色特征的漂浮機器人三點定位系統(tǒng)[A];2009年中國智能自動化會議論文集(第五分冊)[東南大學學報(增刊)][C];2009年

6 胡海東;趙清杰;;機器人的慣性/視覺組合定位方法[A];2009年中國智能自動化會議論文集(第七分冊)[南京理工大學學報(增刊)][C];2009年

7 顧新興;孫燕樸;馮純伯;;一種新的雙機器人協(xié)調路徑規(guī)劃方法[A];1995中國控制與決策學術年會論文集[C];1995年

8 陶軍;高翔;周全;李曉亞;;利用自學習算法為機器人選擇最優(yōu)目標點的決策設計[A];馬斯特杯2003年中國機器人大賽及研討會論文集[C];2003年

9 王大川;張輝;季秀才;鄭志強;;救援環(huán)境下基于激光傳感器的機器人環(huán)境建圖以及自定位[A];2007年足球機器人大會論文集[C];2007年

10 王淑慧;吳立成;袁海文;;一種水上行走機器人的模糊控制[A];2011年中國智能自動化學術會議論文集(第一分冊)[C];2011年

相關重要報紙文章 前5條

1 克 軍;小小機器人軍團[N];大眾科技報;2003年

2 張勁 戚峰;變電站的“機器人骨干”[N];中國電力報;2009年

3 本報通訊員 張勁 戚峰;電力機器人的“神通”[N];工人日報;2009年

4 吳鴻;微型機器人引領反恐潮流[N];中國商報;2003年

5 盧家興;中科院研制出能應付復雜地形的機器人[N];大眾科技報;2004年

相關博士學位論文 前10條

1 張玉麗;基于虛擬力的多機器人化學源定位研究[D];中國礦業(yè)大學;2015年

2 張世隆;拋投機器人翻轉越障技術研究[D];北京理工大學;2015年

3 仲朝亮;受生物啟發(fā)的移動機器人空間認知及其導航[D];華東理工大學;2015年

4 王東科;空間繩系機器人目標抓捕及抓捕后穩(wěn)定控制方法研究[D];西北工業(yè)大學;2015年

5 魏明生;基于低頻電磁信號的管道清堵機器人定位方法研究[D];中國礦業(yè)大學;2016年

6 王玲;未知環(huán)境中基于相對觀測量的多機器人合作定位研究[D];國防科學技術大學;2006年

7 王宏;煤礦機器人激光雷達與慣性傳感器導航理論及實驗研究[D];中國礦業(yè)大學(北京);2011年

8 李飛;湍動氣流主控環(huán)境下多機器人氣味源定位[D];天津大學;2009年

9 仲宇;分布式強化學習理論及在多機器人中的應用研究[D];哈爾濱工程大學;2003年

10 李吉功;室外時變氣流環(huán)境下機器人氣味源定位[D];天津大學;2010年

相關碩士學位論文 前10條

1 張帥;服務型機器人設計與前瞻性研究[D];浙江大學;2008年

2 戚樹騰;基于激光測距儀的果園移動機器人避障系統(tǒng)研究[D];西北農林科技大學;2015年

3 劉廣保;大型復雜曲面的機器人研拋技術研究[D];沈陽理工大學;2015年

4 張賢;基于超聲波測距的多機器人室內定位導航研究[D];哈爾濱工業(yè)大學;2015年

5 戴騰清;基于PROFIBUS現(xiàn)場總線在機器人沖壓自動化線的設計與實現(xiàn)[D];華南理工大學;2015年

6 楊曉曉;室內機器人單目視覺同時定位與地圖構建技術研究與實現(xiàn)[D];成都信息工程學院;2014年

7 周子希;基于構建地圖的手勢控制移動機器人[D];中國海洋大學;2015年

8 田青;Mecanum輪式全向機器人位置精確控制的研究[D];東南大學;2015年

9 李文玉;智能倉庫系統(tǒng)多機器人任務分配問題研究[D];北京物資學院;2016年

10 武涵;基于無線傳感網(wǎng)絡的群機器人精確定位與編隊控制[D];南京大學;2016年

,

本文編號:1489981

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1489981.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權申明:資料由用戶406b9***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com