用于視覺(jué)假體圖像分類的BCNN設(shè)計(jì)
發(fā)布時(shí)間:2020-12-15 01:09
視覺(jué)假體是一種通過(guò)控制電極來(lái)構(gòu)造圖像的嵌入式系統(tǒng),它通過(guò)人體內(nèi)植入的電極構(gòu)造點(diǎn)陣形成圖像,并將構(gòu)成的圖像送往盲人視覺(jué)系統(tǒng)使其恢復(fù)部分視力。由于植入人體的電極數(shù)量有限,通常電極構(gòu)成的圖像辨識(shí)度很低,導(dǎo)致視覺(jué)假體的使用效果并不理想,依然存在很多困難。因此本文提出使用分類神經(jīng)網(wǎng)絡(luò)來(lái)輔助視覺(jué)假體工作,從而降低視覺(jué)假體的使用難度。為了降低分類神經(jīng)網(wǎng)絡(luò)在視覺(jué)假體嵌入式系統(tǒng)中的移植難度,本文的主要工作是對(duì)二值化神經(jīng)網(wǎng)絡(luò)算法進(jìn)行改進(jìn)和參數(shù)壓縮。本文針對(duì)二值化算法BinaryNet的缺點(diǎn)提出了AlexNet-Binarized,InceptionNet-Binarized,IBNet三種改進(jìn)算法,其中IBNet使用雙重恒等映射方法來(lái)提高網(wǎng)絡(luò)的準(zhǔn)確度并使用兩個(gè)超參數(shù)來(lái)控制恒等映射的程度,三種算法在基準(zhǔn)測(cè)試集CIFAR-10上分別進(jìn)行了性能測(cè)試,測(cè)試結(jié)果顯示IBNet的綜合性能最佳。最后本文在自制的室內(nèi)環(huán)境數(shù)據(jù)集上對(duì)IBNet和BinaryNet算法進(jìn)行了性能對(duì)比,對(duì)權(quán)值參數(shù)量進(jìn)行了壓縮,并測(cè)試了BinaryNet和IBNet處理32×32圖像的速度。本文提出的AlexNet-Binarized在CIFAR...
【文章來(lái)源】:西安理工大學(xué)陜西省
【文章頁(yè)數(shù)】:52 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
最大池化層:用于選擇特征
2 深度學(xué)習(xí)的原理及結(jié)構(gòu)2.3 深度學(xué)習(xí)的模型結(jié)構(gòu)及原理2.3.1 AlexNet 的結(jié)構(gòu)及原理AlexNet 模型是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),模型中主要結(jié)構(gòu)都是由卷積層和池化層組成,其中卷積層的輸出是使用卷積核對(duì)前一層特征層卷積后的結(jié)果。這種網(wǎng)絡(luò)通常會(huì)把標(biāo)量偏差添加到卷積后的結(jié)果中共同輸出,并且在將神經(jīng)元的輸出傳遞到下一層之前會(huì)使用非線性激活函數(shù)作用于輸出結(jié)果。線性濾波器和偏置被稱為權(quán)重,初始時(shí)使用隨機(jī)產(chǎn)生的方法初始化權(quán)值,之后權(quán)值是通過(guò)從訓(xùn)練數(shù)據(jù)中不斷學(xué)習(xí)而修改,從而得到最后網(wǎng)絡(luò)的參數(shù)。CNN 在幾個(gè)方面不同于普通的神經(jīng)網(wǎng)絡(luò):首先,CNN 中的神經(jīng)元在形狀上被組織成一個(gè)反映輸入數(shù)據(jù)中維度的空間結(jié)構(gòu),因此,對(duì)于圖像來(lái)說(shuō)神經(jīng)元分布在空間網(wǎng)格上。其次,CNN 中的神經(jīng)元使用了卷積核,這些卷積核有著卷積范圍的限制,并且以神經(jīng)元的中心位置作為輸出,這符合輸入維度的依賴性是距離的遞減函數(shù)的要求,自然圖像中的像素往往是這種情況。特別是,人們期望通過(guò)檢查圖像的小局部鄰域可以找到輸入圖像中有關(guān)于對(duì)象身份的有用線索。
導(dǎo)致神經(jīng)網(wǎng)絡(luò)的性能很差,而 BN 算法能處就是可以通過(guò)每一次對(duì)數(shù)據(jù)的歸一化加快網(wǎng)據(jù)都不一致,所以神經(jīng)網(wǎng)絡(luò)每次都需要去適應(yīng)分布不同的問(wèn)題。速二值化網(wǎng)絡(luò)的原理如圖 3-4 所示,沒(méi)有歸一所示那樣,神經(jīng)網(wǎng)絡(luò)在初始化網(wǎng)絡(luò)參數(shù) W,b 的附近,而 W,b 構(gòu)成的空間曲面也會(huì)在中心位置照學(xué)習(xí)率的大小來(lái)一步一步逼近數(shù)據(jù),最后進(jìn)行,均值為 0,方差為 1,各個(gè)維度數(shù)據(jù)去相關(guān),,如圖 3-4 中間的數(shù)據(jù)點(diǎn),這時(shí)候任意初始化過(guò)數(shù)據(jù)了,因此訓(xùn)練調(diào)整權(quán)值時(shí)進(jìn)程會(huì)加快,且后依然保證了數(shù)據(jù)的結(jié)構(gòu)不改變,從而保證了數(shù)處理然后再重構(gòu)后,一些特別小的數(shù)據(jù)得到了 BN 層還能改善了梯度彌散問(wèn)題。
本文編號(hào):2917355
【文章來(lái)源】:西安理工大學(xué)陜西省
【文章頁(yè)數(shù)】:52 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
最大池化層:用于選擇特征
2 深度學(xué)習(xí)的原理及結(jié)構(gòu)2.3 深度學(xué)習(xí)的模型結(jié)構(gòu)及原理2.3.1 AlexNet 的結(jié)構(gòu)及原理AlexNet 模型是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),模型中主要結(jié)構(gòu)都是由卷積層和池化層組成,其中卷積層的輸出是使用卷積核對(duì)前一層特征層卷積后的結(jié)果。這種網(wǎng)絡(luò)通常會(huì)把標(biāo)量偏差添加到卷積后的結(jié)果中共同輸出,并且在將神經(jīng)元的輸出傳遞到下一層之前會(huì)使用非線性激活函數(shù)作用于輸出結(jié)果。線性濾波器和偏置被稱為權(quán)重,初始時(shí)使用隨機(jī)產(chǎn)生的方法初始化權(quán)值,之后權(quán)值是通過(guò)從訓(xùn)練數(shù)據(jù)中不斷學(xué)習(xí)而修改,從而得到最后網(wǎng)絡(luò)的參數(shù)。CNN 在幾個(gè)方面不同于普通的神經(jīng)網(wǎng)絡(luò):首先,CNN 中的神經(jīng)元在形狀上被組織成一個(gè)反映輸入數(shù)據(jù)中維度的空間結(jié)構(gòu),因此,對(duì)于圖像來(lái)說(shuō)神經(jīng)元分布在空間網(wǎng)格上。其次,CNN 中的神經(jīng)元使用了卷積核,這些卷積核有著卷積范圍的限制,并且以神經(jīng)元的中心位置作為輸出,這符合輸入維度的依賴性是距離的遞減函數(shù)的要求,自然圖像中的像素往往是這種情況。特別是,人們期望通過(guò)檢查圖像的小局部鄰域可以找到輸入圖像中有關(guān)于對(duì)象身份的有用線索。
導(dǎo)致神經(jīng)網(wǎng)絡(luò)的性能很差,而 BN 算法能處就是可以通過(guò)每一次對(duì)數(shù)據(jù)的歸一化加快網(wǎng)據(jù)都不一致,所以神經(jīng)網(wǎng)絡(luò)每次都需要去適應(yīng)分布不同的問(wèn)題。速二值化網(wǎng)絡(luò)的原理如圖 3-4 所示,沒(méi)有歸一所示那樣,神經(jīng)網(wǎng)絡(luò)在初始化網(wǎng)絡(luò)參數(shù) W,b 的附近,而 W,b 構(gòu)成的空間曲面也會(huì)在中心位置照學(xué)習(xí)率的大小來(lái)一步一步逼近數(shù)據(jù),最后進(jìn)行,均值為 0,方差為 1,各個(gè)維度數(shù)據(jù)去相關(guān),,如圖 3-4 中間的數(shù)據(jù)點(diǎn),這時(shí)候任意初始化過(guò)數(shù)據(jù)了,因此訓(xùn)練調(diào)整權(quán)值時(shí)進(jìn)程會(huì)加快,且后依然保證了數(shù)據(jù)的結(jié)構(gòu)不改變,從而保證了數(shù)處理然后再重構(gòu)后,一些特別小的數(shù)據(jù)得到了 BN 層還能改善了梯度彌散問(wèn)題。
本文編號(hào):2917355
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2917355.html
最近更新
教材專著