基于深度學(xué)習(xí)算法的NAO機(jī)器人目標(biāo)識(shí)別與跟蹤
發(fā)布時(shí)間:2021-10-05 06:16
隨著深度學(xué)習(xí)算法的快速發(fā)展,圖像目標(biāo)識(shí)別領(lǐng)域取得了重大突破,無(wú)論是對(duì)目標(biāo)種類(lèi)的判定還是對(duì)目標(biāo)位置的檢測(cè)深度學(xué)習(xí)算法都取得了遠(yuǎn)高于傳統(tǒng)機(jī)器學(xué)習(xí)算法的準(zhǔn)確率。機(jī)器人技術(shù)是工程和科學(xué)的跨學(xué)科分支,包括機(jī)械工程、信息工程、計(jì)算機(jī)科學(xué)等。機(jī)器人技術(shù)涉及機(jī)器人的設(shè)計(jì)制造以及用于控制機(jī)器人運(yùn)動(dòng)、傳感器反饋和信息處理的計(jì)算機(jī)系統(tǒng)。機(jī)器人視覺(jué)是機(jī)器人技術(shù)中的一個(gè)研究熱點(diǎn),涉及如何利用機(jī)器人采集環(huán)境的視覺(jué)信息并獲得數(shù)字圖像或視頻的高層次理解。從工程角度看,它試圖自動(dòng)化人類(lèi)視覺(jué)系統(tǒng)可以完成的任務(wù)。深度學(xué)習(xí)算法應(yīng)用于機(jī)器人視覺(jué)領(lǐng)域?qū)⒋蟠筇岣邫C(jī)器人的環(huán)境的交互能力,提升機(jī)器人的智能程度。本文以NAO機(jī)器人作為機(jī)器人視覺(jué)技術(shù)的研究平臺(tái),重點(diǎn)研究了基于深度學(xué)習(xí)算法的目標(biāo)識(shí)別與跟蹤方法。本文的具體工作如下:(1)研究了深度學(xué)習(xí)算法基本原理,對(duì)Faster R-CNN目標(biāo)識(shí)別模型進(jìn)行了深入研究,針對(duì)Faster R-CNN的特征提取網(wǎng)絡(luò)進(jìn)行了改進(jìn),設(shè)計(jì)了一種基于殘差網(wǎng)絡(luò)模型的98層卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征。基于Faster R-CNN目標(biāo)識(shí)別模型針對(duì)小目標(biāo)識(shí)別進(jìn)行了優(yōu)化。在Google云上搭建訓(xùn)練平臺(tái),以PASCAL ...
【文章來(lái)源】:武漢理工大學(xué)湖北省 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:75 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
殘差網(wǎng)絡(luò)的
圖 2-7 RPN 網(wǎng)絡(luò)分類(lèi)損失函數(shù) 圖 2-8 RPN 網(wǎng)絡(luò)邊界回歸損失函圖 2-9 改進(jìn) Faster R-CNN 分類(lèi)損失函數(shù) 圖 2-10 改進(jìn) Faster R-CNN 網(wǎng)歸損失函數(shù)
圖 2-7 RPN 網(wǎng)絡(luò)分類(lèi)損失函數(shù) 圖 2-8 RPN 網(wǎng)絡(luò)邊界回歸損失函圖 2-9 改進(jìn) Faster R-CNN 分類(lèi)損失函數(shù) 圖 2-10 改進(jìn) Faster R-CNN 網(wǎng)歸損失函數(shù)
【參考文獻(xiàn)】:
期刊論文
[1]輪式移動(dòng)機(jī)器人單目視覺(jué)的目標(biāo)測(cè)距方法[J]. 肖大偉,翟軍勇. 計(jì)算機(jī)工程. 2017(04)
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的多標(biāo)簽圖像自動(dòng)標(biāo)注[J]. 黎健成,袁春,宋友. 計(jì)算機(jī)科學(xué). 2016(07)
[3]人臉識(shí)別中基于系數(shù)相似性的字典學(xué)習(xí)算法[J]. 施靜蘭,常侃,張智勇,覃團(tuán)發(fā). 計(jì)算機(jī)科學(xué). 2016(06)
[4]基于深度學(xué)習(xí)的車(chē)標(biāo)識(shí)別方法研究[J]. 彭博,臧笛. 計(jì)算機(jī)科學(xué). 2015(04)
碩士論文
[1]基于NAO機(jī)器人的物體識(shí)別與定位技術(shù)研究[D]. 蔣哲翎.南京大學(xué) 2016
[2]基于NAO機(jī)器人的視覺(jué)目標(biāo)檢測(cè)與跟蹤[D]. 宗鵬程.華北電力大學(xué) 2015
[3]基于單目視覺(jué)的移動(dòng)機(jī)器人系統(tǒng)目標(biāo)識(shí)別與定位研究[D]. 徐敏.華南理工大學(xué) 2014
本文編號(hào):3419164
【文章來(lái)源】:武漢理工大學(xué)湖北省 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:75 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
殘差網(wǎng)絡(luò)的
圖 2-7 RPN 網(wǎng)絡(luò)分類(lèi)損失函數(shù) 圖 2-8 RPN 網(wǎng)絡(luò)邊界回歸損失函圖 2-9 改進(jìn) Faster R-CNN 分類(lèi)損失函數(shù) 圖 2-10 改進(jìn) Faster R-CNN 網(wǎng)歸損失函數(shù)
圖 2-7 RPN 網(wǎng)絡(luò)分類(lèi)損失函數(shù) 圖 2-8 RPN 網(wǎng)絡(luò)邊界回歸損失函圖 2-9 改進(jìn) Faster R-CNN 分類(lèi)損失函數(shù) 圖 2-10 改進(jìn) Faster R-CNN 網(wǎng)歸損失函數(shù)
【參考文獻(xiàn)】:
期刊論文
[1]輪式移動(dòng)機(jī)器人單目視覺(jué)的目標(biāo)測(cè)距方法[J]. 肖大偉,翟軍勇. 計(jì)算機(jī)工程. 2017(04)
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的多標(biāo)簽圖像自動(dòng)標(biāo)注[J]. 黎健成,袁春,宋友. 計(jì)算機(jī)科學(xué). 2016(07)
[3]人臉識(shí)別中基于系數(shù)相似性的字典學(xué)習(xí)算法[J]. 施靜蘭,常侃,張智勇,覃團(tuán)發(fā). 計(jì)算機(jī)科學(xué). 2016(06)
[4]基于深度學(xué)習(xí)的車(chē)標(biāo)識(shí)別方法研究[J]. 彭博,臧笛. 計(jì)算機(jī)科學(xué). 2015(04)
碩士論文
[1]基于NAO機(jī)器人的物體識(shí)別與定位技術(shù)研究[D]. 蔣哲翎.南京大學(xué) 2016
[2]基于NAO機(jī)器人的視覺(jué)目標(biāo)檢測(cè)與跟蹤[D]. 宗鵬程.華北電力大學(xué) 2015
[3]基于單目視覺(jué)的移動(dòng)機(jī)器人系統(tǒng)目標(biāo)識(shí)別與定位研究[D]. 徐敏.華南理工大學(xué) 2014
本文編號(hào):3419164
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3419164.html
最近更新
教材專(zhuān)著