天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于深度學(xué)習(xí)算法的NAO機(jī)器人目標(biāo)識(shí)別與跟蹤

發(fā)布時(shí)間:2021-10-05 06:16
  隨著深度學(xué)習(xí)算法的快速發(fā)展,圖像目標(biāo)識(shí)別領(lǐng)域取得了重大突破,無(wú)論是對(duì)目標(biāo)種類(lèi)的判定還是對(duì)目標(biāo)位置的檢測(cè)深度學(xué)習(xí)算法都取得了遠(yuǎn)高于傳統(tǒng)機(jī)器學(xué)習(xí)算法的準(zhǔn)確率。機(jī)器人技術(shù)是工程和科學(xué)的跨學(xué)科分支,包括機(jī)械工程、信息工程、計(jì)算機(jī)科學(xué)等。機(jī)器人技術(shù)涉及機(jī)器人的設(shè)計(jì)制造以及用于控制機(jī)器人運(yùn)動(dòng)、傳感器反饋和信息處理的計(jì)算機(jī)系統(tǒng)。機(jī)器人視覺(jué)是機(jī)器人技術(shù)中的一個(gè)研究熱點(diǎn),涉及如何利用機(jī)器人采集環(huán)境的視覺(jué)信息并獲得數(shù)字圖像或視頻的高層次理解。從工程角度看,它試圖自動(dòng)化人類(lèi)視覺(jué)系統(tǒng)可以完成的任務(wù)。深度學(xué)習(xí)算法應(yīng)用于機(jī)器人視覺(jué)領(lǐng)域?qū)⒋蟠筇岣邫C(jī)器人的環(huán)境的交互能力,提升機(jī)器人的智能程度。本文以NAO機(jī)器人作為機(jī)器人視覺(jué)技術(shù)的研究平臺(tái),重點(diǎn)研究了基于深度學(xué)習(xí)算法的目標(biāo)識(shí)別與跟蹤方法。本文的具體工作如下:(1)研究了深度學(xué)習(xí)算法基本原理,對(duì)Faster R-CNN目標(biāo)識(shí)別模型進(jìn)行了深入研究,針對(duì)Faster R-CNN的特征提取網(wǎng)絡(luò)進(jìn)行了改進(jìn),設(shè)計(jì)了一種基于殘差網(wǎng)絡(luò)模型的98層卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征。基于Faster R-CNN目標(biāo)識(shí)別模型針對(duì)小目標(biāo)識(shí)別進(jìn)行了優(yōu)化。在Google云上搭建訓(xùn)練平臺(tái),以PASCAL ... 

【文章來(lái)源】:武漢理工大學(xué)湖北省 211工程院校 教育部直屬院校

【文章頁(yè)數(shù)】:75 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)算法的NAO機(jī)器人目標(biāo)識(shí)別與跟蹤


殘差網(wǎng)絡(luò)的

損失函數(shù),網(wǎng)絡(luò)分類(lèi),分類(lèi)損失,網(wǎng)絡(luò)邊界


圖 2-7 RPN 網(wǎng)絡(luò)分類(lèi)損失函數(shù) 圖 2-8 RPN 網(wǎng)絡(luò)邊界回歸損失函圖 2-9 改進(jìn) Faster R-CNN 分類(lèi)損失函數(shù) 圖 2-10 改進(jìn) Faster R-CNN 網(wǎng)歸損失函數(shù)

損失函數(shù),網(wǎng)絡(luò)邊界,分類(lèi)損失,網(wǎng)絡(luò)分類(lèi)


圖 2-7 RPN 網(wǎng)絡(luò)分類(lèi)損失函數(shù) 圖 2-8 RPN 網(wǎng)絡(luò)邊界回歸損失函圖 2-9 改進(jìn) Faster R-CNN 分類(lèi)損失函數(shù) 圖 2-10 改進(jìn) Faster R-CNN 網(wǎng)歸損失函數(shù)

【參考文獻(xiàn)】:
期刊論文
[1]輪式移動(dòng)機(jī)器人單目視覺(jué)的目標(biāo)測(cè)距方法[J]. 肖大偉,翟軍勇.  計(jì)算機(jī)工程. 2017(04)
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的多標(biāo)簽圖像自動(dòng)標(biāo)注[J]. 黎健成,袁春,宋友.  計(jì)算機(jī)科學(xué). 2016(07)
[3]人臉識(shí)別中基于系數(shù)相似性的字典學(xué)習(xí)算法[J]. 施靜蘭,常侃,張智勇,覃團(tuán)發(fā).  計(jì)算機(jī)科學(xué). 2016(06)
[4]基于深度學(xué)習(xí)的車(chē)標(biāo)識(shí)別方法研究[J]. 彭博,臧笛.  計(jì)算機(jī)科學(xué). 2015(04)

碩士論文
[1]基于NAO機(jī)器人的物體識(shí)別與定位技術(shù)研究[D]. 蔣哲翎.南京大學(xué) 2016
[2]基于NAO機(jī)器人的視覺(jué)目標(biāo)檢測(cè)與跟蹤[D]. 宗鵬程.華北電力大學(xué) 2015
[3]基于單目視覺(jué)的移動(dòng)機(jī)器人系統(tǒng)目標(biāo)識(shí)別與定位研究[D]. 徐敏.華南理工大學(xué) 2014



本文編號(hào):3419164

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3419164.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)9b71c***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com