一類(lèi)神經(jīng)網(wǎng)絡(luò)參數(shù)自適應(yīng)更新與圖像分類(lèi)
發(fā)布時(shí)間:2021-01-12 08:55
圖像分類(lèi)是目前圖像研究領(lǐng)域一個(gè)重要課題之一,找到一種能對(duì)不同種類(lèi)或者發(fā)生變化的圖像數(shù)據(jù)集進(jìn)行分類(lèi)且都具有普適性和高效性的方法將是十分必要的。常用的圖像分類(lèi)方法有手工提取特征的方法、基于語(yǔ)義的分類(lèi)方法和基于神經(jīng)網(wǎng)絡(luò)的分類(lèi)方法。目前比較流行的是基于神經(jīng)網(wǎng)絡(luò)的分類(lèi)方法,由于該方法能通過(guò)自學(xué)習(xí)的方式學(xué)習(xí)圖像并提取圖像特征,識(shí)別分類(lèi)圖像能力較強(qiáng),且計(jì)算速度快等原因,深受研究者們喜歡。但基于神經(jīng)網(wǎng)絡(luò)的分類(lèi)方法也有不足之處,比如當(dāng)訓(xùn)練樣本發(fā)生變化時(shí),已經(jīng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型不再適用于已經(jīng)發(fā)生變化的訓(xùn)練樣本。再次利用神經(jīng)網(wǎng)絡(luò)模型進(jìn)行重新訓(xùn)練,需要大量新樣本。為了避免神經(jīng)網(wǎng)絡(luò)的重新訓(xùn)練、分類(lèi)準(zhǔn)確度降低和大量時(shí)間的消耗等問(wèn)題,本論文將提出基于神經(jīng)網(wǎng)絡(luò)自適應(yīng)更新參數(shù)用以圖像分類(lèi)的新方法。主要?jiǎng)?chuàng)新工作如下:(1)針對(duì)不同的神經(jīng)網(wǎng)絡(luò)模型對(duì)同一種數(shù)據(jù)集進(jìn)行分類(lèi)時(shí)分類(lèi)準(zhǔn)確度不同的問(wèn)題,提出一種網(wǎng)絡(luò)分類(lèi)模型性能評(píng)估方法。首先,建立一種評(píng)估標(biāo)準(zhǔn)以找到一個(gè)最適合某類(lèi)數(shù)據(jù)集進(jìn)行分類(lèi)的神經(jīng)網(wǎng)絡(luò)模型;其次,利用不同的網(wǎng)絡(luò)模型分別對(duì)相同數(shù)據(jù)集中的圖像進(jìn)行特征提取,然后再進(jìn)行訓(xùn)練和分類(lèi),以便找到最適合該類(lèi)待測(cè)試數(shù)據(jù)集的網(wǎng)絡(luò)模型結(jié)構(gòu)...
【文章來(lái)源】:杭州電子科技大學(xué)浙江省
【文章頁(yè)數(shù)】:61 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
單一神經(jīng)元神經(jīng)網(wǎng)絡(luò)
杭州電子科技大學(xué)碩士學(xué)位論文7以三層網(wǎng)絡(luò)結(jié)構(gòu)為例,簡(jiǎn)單介紹下網(wǎng)絡(luò)模型;镜纳窠(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)有三層,分別是輸入層、隱層和輸出層,結(jié)構(gòu)如圖2.2所示。圖2.2神經(jīng)網(wǎng)絡(luò)模型示意圖圖2.2中,12x,x和3x代表輸入,網(wǎng)絡(luò)參數(shù)1b和2b分別是輸入偏置和隱層偏置,網(wǎng)絡(luò)參數(shù)1ijw和2ijw分別是第一層的權(quán)重和第二層的權(quán)重。其中,i表示每次輸入中的第i個(gè)元素,j表示經(jīng)過(guò)連接權(quán)重處理后的輸出中的第j個(gè)元素。,()wbyx計(jì)算過(guò)程如下:3(1)(1)(1)(1)11112123131111()()iiiafwxwxwxbfwxb(2.2)3(1)(1)(1)(1)21212223231211()()iiiafwxwxwxbfwxb(2.3)3(1)(1)(1)(1)31312323331311()()iiiafwxwxwxbfwxb(2.4)3(2)(2)(2)(2),1112123132121()()()wbiiiyxfwawawabfwab(2.5)在上述多層網(wǎng)絡(luò)中,用l表示層數(shù),lijw表示第l層第i個(gè)節(jié)點(diǎn)到第l1層第j個(gè)節(jié)點(diǎn)之間的權(quán)重,lb是第l層偏置向量,lia是第l層第i個(gè)節(jié)點(diǎn)激活后的值。給定激活函數(shù)f、權(quán)重w和偏置b時(shí),隨意給定一個(gè)輸入,就可以得到輸出結(jié)果。由于激活函數(shù)不是一個(gè)固定函數(shù),根據(jù)不同需求使用不同激活函數(shù),一般激
杭州電子科技大學(xué)碩士學(xué)位論文8活函數(shù)都是非線性的,所以當(dāng)輸入過(guò)網(wǎng)后,得到一個(gè)非線性映射輸出。輸出可以有一個(gè),也可以有多個(gè),此時(shí)說(shuō)明有多個(gè)預(yù)測(cè)結(jié)果。2.2.3卷積神經(jīng)網(wǎng)絡(luò)現(xiàn)今常用卷積神經(jīng)網(wǎng)絡(luò)(CNN)[38]進(jìn)行圖像分類(lèi),不同的網(wǎng)絡(luò)結(jié)構(gòu)分類(lèi)效果不同。常見(jiàn)的網(wǎng)絡(luò)結(jié)構(gòu)有VGG、ResNet、LeNet和AlexNet等。卷積神經(jīng)網(wǎng)絡(luò)特性將在2.3節(jié)、2.4節(jié)和2.5節(jié)詳細(xì)介紹,此處將介紹幾種常見(jiàn)的網(wǎng)絡(luò)模型結(jié)構(gòu)。圖2.3LeNet的網(wǎng)絡(luò)結(jié)構(gòu)圖表2.1AlexNet網(wǎng)絡(luò)參數(shù)配置表網(wǎng)絡(luò)參數(shù)配置表input(227×227RGBimage)conv11-96maxpoolconv5-256maxpoolconv3-384conv3-384conv3-256maxpoolFC-4096FC-4096FC-1000圖2.3是LeNet-5網(wǎng)絡(luò)的結(jié)構(gòu)圖,LeNet-5是一種識(shí)別手寫(xiě)字符效率非常高的卷積神經(jīng)網(wǎng)絡(luò)。根據(jù)表2.3可看出,LeNet-5網(wǎng)絡(luò)模型含有輸入層、輸出層、
本文編號(hào):2972546
【文章來(lái)源】:杭州電子科技大學(xué)浙江省
【文章頁(yè)數(shù)】:61 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
單一神經(jīng)元神經(jīng)網(wǎng)絡(luò)
杭州電子科技大學(xué)碩士學(xué)位論文7以三層網(wǎng)絡(luò)結(jié)構(gòu)為例,簡(jiǎn)單介紹下網(wǎng)絡(luò)模型;镜纳窠(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)有三層,分別是輸入層、隱層和輸出層,結(jié)構(gòu)如圖2.2所示。圖2.2神經(jīng)網(wǎng)絡(luò)模型示意圖圖2.2中,12x,x和3x代表輸入,網(wǎng)絡(luò)參數(shù)1b和2b分別是輸入偏置和隱層偏置,網(wǎng)絡(luò)參數(shù)1ijw和2ijw分別是第一層的權(quán)重和第二層的權(quán)重。其中,i表示每次輸入中的第i個(gè)元素,j表示經(jīng)過(guò)連接權(quán)重處理后的輸出中的第j個(gè)元素。,()wbyx計(jì)算過(guò)程如下:3(1)(1)(1)(1)11112123131111()()iiiafwxwxwxbfwxb(2.2)3(1)(1)(1)(1)21212223231211()()iiiafwxwxwxbfwxb(2.3)3(1)(1)(1)(1)31312323331311()()iiiafwxwxwxbfwxb(2.4)3(2)(2)(2)(2),1112123132121()()()wbiiiyxfwawawabfwab(2.5)在上述多層網(wǎng)絡(luò)中,用l表示層數(shù),lijw表示第l層第i個(gè)節(jié)點(diǎn)到第l1層第j個(gè)節(jié)點(diǎn)之間的權(quán)重,lb是第l層偏置向量,lia是第l層第i個(gè)節(jié)點(diǎn)激活后的值。給定激活函數(shù)f、權(quán)重w和偏置b時(shí),隨意給定一個(gè)輸入,就可以得到輸出結(jié)果。由于激活函數(shù)不是一個(gè)固定函數(shù),根據(jù)不同需求使用不同激活函數(shù),一般激
杭州電子科技大學(xué)碩士學(xué)位論文8活函數(shù)都是非線性的,所以當(dāng)輸入過(guò)網(wǎng)后,得到一個(gè)非線性映射輸出。輸出可以有一個(gè),也可以有多個(gè),此時(shí)說(shuō)明有多個(gè)預(yù)測(cè)結(jié)果。2.2.3卷積神經(jīng)網(wǎng)絡(luò)現(xiàn)今常用卷積神經(jīng)網(wǎng)絡(luò)(CNN)[38]進(jìn)行圖像分類(lèi),不同的網(wǎng)絡(luò)結(jié)構(gòu)分類(lèi)效果不同。常見(jiàn)的網(wǎng)絡(luò)結(jié)構(gòu)有VGG、ResNet、LeNet和AlexNet等。卷積神經(jīng)網(wǎng)絡(luò)特性將在2.3節(jié)、2.4節(jié)和2.5節(jié)詳細(xì)介紹,此處將介紹幾種常見(jiàn)的網(wǎng)絡(luò)模型結(jié)構(gòu)。圖2.3LeNet的網(wǎng)絡(luò)結(jié)構(gòu)圖表2.1AlexNet網(wǎng)絡(luò)參數(shù)配置表網(wǎng)絡(luò)參數(shù)配置表input(227×227RGBimage)conv11-96maxpoolconv5-256maxpoolconv3-384conv3-384conv3-256maxpoolFC-4096FC-4096FC-1000圖2.3是LeNet-5網(wǎng)絡(luò)的結(jié)構(gòu)圖,LeNet-5是一種識(shí)別手寫(xiě)字符效率非常高的卷積神經(jīng)網(wǎng)絡(luò)。根據(jù)表2.3可看出,LeNet-5網(wǎng)絡(luò)模型含有輸入層、輸出層、
本文編號(hào):2972546
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2972546.html
最近更新
教材專(zhuān)著