基于改進Faster RCNN算法的手勢識別研究
發(fā)布時間:2021-11-19 07:26
在現(xiàn)代工業(yè)中,機器人能承受巨大的工作量,擁有極高的重復(fù)能力和生產(chǎn)率,同時,機器人能提供搬運重物等操作所需的強力以及特定操作所需的精度。因此,機器人技術(shù)在工業(yè)中得到廣泛應(yīng)用。人機分離缺乏靈活性和安全性,已經(jīng)不能滿足生產(chǎn)生活需求,因此,人機交互技術(shù)的研究對于工業(yè)生產(chǎn)、生活都有著重要意義。手勢被用作人機交互中一種有效的通信方式,有基于外部設(shè)備的手勢識別方法和基于計算機視覺的手勢識別方法兩大類;谕獠吭O(shè)備的手勢識別方法已經(jīng)相對成熟,被廣泛應(yīng)用于虛擬現(xiàn)實、手語識別、機器人生產(chǎn)中。而基于計算機視覺的手勢識別方法還有很大提升空間。因此,本研究以人與工業(yè)機器人間的交互為研究背景,提出基于改進Faster RCNN的手勢識別方法,主要工作如下:(1)針對傳統(tǒng)計算機視覺算法需要人為提取特征進行手勢識別的問題,采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)自動提取特征,對十種手勢進行檢測與識別。比較不同卷積核的均值濾波與高斯濾波等對NUS手勢數(shù)據(jù)集中手勢圖像的預(yù)處理效果,選擇卷積核為3的高斯濾波進行圖像預(yù)處理;搭建卷積神經(jīng)網(wǎng)絡(luò)模型,設(shè)置參數(shù),訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),并利用模...
【文章來源】:河北大學(xué)河北省
【文章頁數(shù)】:52 頁
【學(xué)位級別】:碩士
【部分圖文】:
sigmoid激活函數(shù)圖像
河北大學(xué)碩士學(xué)位論文8早期使用較多的是sigmoid激活函數(shù)和tanh激活函數(shù)。近幾年,修正線性單元(RectifiedLinearUnit,ReLU)被普遍應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)中。sigmoid激活函數(shù)的表達式如公式(2.2)所示;tanh激活函數(shù)的表達式如公式(2.3)所示;ReLU函數(shù)的表達式如公式(2.4)所示。xexsigmoid11)((2.2)tanhxxxxeeeex)((2.3)ReLU,0maxx(2.4)由式(2.2)、(2.3)、(2.4)可知,sigmoid函數(shù)、tanh函數(shù)需要計算指數(shù),計算速度慢,梯度計算復(fù)雜。當(dāng)輸入小于0時,ReLU函數(shù)輸出為0;當(dāng)輸入大于0時,ReLU函數(shù)輸出等于輸入。ReLU函數(shù)不需要計算指數(shù),計算速度快,梯度計算簡單。sigmoid激活函數(shù)的圖像如圖2-1所示;tanh激活函數(shù)的圖像如圖2-2所示;ReLU函數(shù)的圖像如圖2-3所示。圖2-1sigmoid激活函數(shù)圖像圖2-2tanh激活函數(shù)圖像
第二章基于卷積神經(jīng)網(wǎng)絡(luò)的手勢識別方法9圖2-3ReLU激活函數(shù)sigmoid激活函數(shù)與tanh激活函數(shù)在x5時,導(dǎo)數(shù)接近為0,即“梯度消失”。以梯度下降法訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)時,sigmoid激活函數(shù)與tanh激活函數(shù)不能實時調(diào)整參數(shù)。而ReLU函數(shù)在x0時是線性函數(shù),不會出現(xiàn)梯度消失的問題。2.1.3池化層池化層有平均值池化和最大值池化兩種。最大值池化是指將輸入的特征圖劃分為若干個矩形區(qū)域,取每個子區(qū)域中元素的最大值作為輸出。平均值池化是指將輸入的特征圖每個子區(qū)域中元素的平均值作為輸出。圖像識別通常是靠邊緣識別物體,而平均池化是求某子區(qū)域中所有元素的平均值,相當(dāng)于進行了模糊處理,并不是提取邊緣信息。最大池化能夠保存邊緣,因此,本文使用最大值池化。池化層對輸入的特征圖進行池化操作,減小了特征圖的維度,進而減少了下一層操作的參數(shù)和計算量,簡化了網(wǎng)絡(luò)的時間復(fù)雜度和空間復(fù)雜度。同時,池化操作可以去除特征圖中的冗余信息,提取出主要特征,在一定程度上,能防止過擬合。2.1.4全連接層全連接層通常設(shè)置在卷積神經(jīng)網(wǎng)絡(luò)的最后,起到分類器的作用。將提取的特征信息化為一維矢量,與全連接層各層進行全連接。全連接層最后一層設(shè)置為要識別物體的種類個數(shù)加上一個背景類。2.1.5目標(biāo)函數(shù)目標(biāo)函數(shù)是指計算卷積神經(jīng)網(wǎng)絡(luò)的樣本預(yù)測結(jié)果與其真實標(biāo)記二者之間的誤差。卷積神經(jīng)網(wǎng)絡(luò)計算目標(biāo)函數(shù)并反向傳播,調(diào)整卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)。分類任務(wù)中,卷積神經(jīng)網(wǎng)絡(luò)最常用的目標(biāo)函數(shù)是交叉熵(crossentropy),又稱Softmax損失函數(shù),其表達式如公式(2.5)所示:
本文編號:3504567
【文章來源】:河北大學(xué)河北省
【文章頁數(shù)】:52 頁
【學(xué)位級別】:碩士
【部分圖文】:
sigmoid激活函數(shù)圖像
河北大學(xué)碩士學(xué)位論文8早期使用較多的是sigmoid激活函數(shù)和tanh激活函數(shù)。近幾年,修正線性單元(RectifiedLinearUnit,ReLU)被普遍應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)中。sigmoid激活函數(shù)的表達式如公式(2.2)所示;tanh激活函數(shù)的表達式如公式(2.3)所示;ReLU函數(shù)的表達式如公式(2.4)所示。xexsigmoid11)((2.2)tanhxxxxeeeex)((2.3)ReLU,0maxx(2.4)由式(2.2)、(2.3)、(2.4)可知,sigmoid函數(shù)、tanh函數(shù)需要計算指數(shù),計算速度慢,梯度計算復(fù)雜。當(dāng)輸入小于0時,ReLU函數(shù)輸出為0;當(dāng)輸入大于0時,ReLU函數(shù)輸出等于輸入。ReLU函數(shù)不需要計算指數(shù),計算速度快,梯度計算簡單。sigmoid激活函數(shù)的圖像如圖2-1所示;tanh激活函數(shù)的圖像如圖2-2所示;ReLU函數(shù)的圖像如圖2-3所示。圖2-1sigmoid激活函數(shù)圖像圖2-2tanh激活函數(shù)圖像
第二章基于卷積神經(jīng)網(wǎng)絡(luò)的手勢識別方法9圖2-3ReLU激活函數(shù)sigmoid激活函數(shù)與tanh激活函數(shù)在x5時,導(dǎo)數(shù)接近為0,即“梯度消失”。以梯度下降法訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)時,sigmoid激活函數(shù)與tanh激活函數(shù)不能實時調(diào)整參數(shù)。而ReLU函數(shù)在x0時是線性函數(shù),不會出現(xiàn)梯度消失的問題。2.1.3池化層池化層有平均值池化和最大值池化兩種。最大值池化是指將輸入的特征圖劃分為若干個矩形區(qū)域,取每個子區(qū)域中元素的最大值作為輸出。平均值池化是指將輸入的特征圖每個子區(qū)域中元素的平均值作為輸出。圖像識別通常是靠邊緣識別物體,而平均池化是求某子區(qū)域中所有元素的平均值,相當(dāng)于進行了模糊處理,并不是提取邊緣信息。最大池化能夠保存邊緣,因此,本文使用最大值池化。池化層對輸入的特征圖進行池化操作,減小了特征圖的維度,進而減少了下一層操作的參數(shù)和計算量,簡化了網(wǎng)絡(luò)的時間復(fù)雜度和空間復(fù)雜度。同時,池化操作可以去除特征圖中的冗余信息,提取出主要特征,在一定程度上,能防止過擬合。2.1.4全連接層全連接層通常設(shè)置在卷積神經(jīng)網(wǎng)絡(luò)的最后,起到分類器的作用。將提取的特征信息化為一維矢量,與全連接層各層進行全連接。全連接層最后一層設(shè)置為要識別物體的種類個數(shù)加上一個背景類。2.1.5目標(biāo)函數(shù)目標(biāo)函數(shù)是指計算卷積神經(jīng)網(wǎng)絡(luò)的樣本預(yù)測結(jié)果與其真實標(biāo)記二者之間的誤差。卷積神經(jīng)網(wǎng)絡(luò)計算目標(biāo)函數(shù)并反向傳播,調(diào)整卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)。分類任務(wù)中,卷積神經(jīng)網(wǎng)絡(luò)最常用的目標(biāo)函數(shù)是交叉熵(crossentropy),又稱Softmax損失函數(shù),其表達式如公式(2.5)所示:
本文編號:3504567
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3504567.html
最近更新
教材專著