基于ResNet模型的圖像分類(lèi)方法及應(yīng)用研究
發(fā)布時(shí)間:2021-03-15 22:10
卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)是一種具有卷積結(jié)構(gòu)的深層前饋神經(jīng)網(wǎng)絡(luò)模型,不僅具有高容錯(cuò)性還具有高效的計(jì)算能力。當(dāng)前,CNN已被大規(guī)模地應(yīng)用于圖像分類(lèi)等重要領(lǐng)域。與傳統(tǒng)的圖像分類(lèi)方法相比,基于CNN的圖像分類(lèi)方法不需經(jīng)過(guò)特征提取,可直接向CNN模型輸入圖像,并完成圖像的分類(lèi)。CNN的圖像分類(lèi)性能與其網(wǎng)絡(luò)深度存在著重要的關(guān)系。網(wǎng)絡(luò)越深,CNN的擬合能力就越強(qiáng);但進(jìn)一步增加CNN的深度不但不能提高網(wǎng)絡(luò)的精準(zhǔn)度,反而會(huì)產(chǎn)生更高的訓(xùn)練誤差,使CNN的圖像分類(lèi)性能降低。為解決上述問(wèn)題,本文主要的研究工作如下:(1)本文首先引入殘差網(wǎng)絡(luò)(Residual Networks,ResNet)模型,然后基于ResNet模型,使用具有稀疏性的ReLU激活函數(shù),最后研究不同深度的ResNet模型的圖像分類(lèi)性能。實(shí)驗(yàn)結(jié)果表明,對(duì)于CIFAR-10、CIFAR-100與Fashion-MNIST數(shù)據(jù)集,ResNet模型的分類(lèi)錯(cuò)誤率大致上隨著ResNet模型深度的增加而減小。ResNet模型對(duì)CIFAR-100數(shù)據(jù)集的分類(lèi)錯(cuò)誤率明顯大于對(duì)CIFAR-10與Fashion...
【文章來(lái)源】:華東交通大學(xué)江西省
【文章頁(yè)數(shù)】:54 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)元模型
有多個(gè)輸入的神經(jīng)元模型
卷積神經(jīng)網(wǎng)絡(luò)模型
【參考文獻(xiàn)】:
期刊論文
[1]基于姿態(tài)對(duì)齊的行人重識(shí)別方法(英文)[J]. 王金,劉潔,高常鑫,桑農(nóng). 控制理論與應(yīng)用. 2017(06)
[2]基于增強(qiáng)聚合通道特征的實(shí)時(shí)行人重識(shí)別[J]. 黃新宇,許嬌龍,郭綱,鄭二功. 激光與光電子學(xué)進(jìn)展. 2017(09)
[3]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
碩士論文
[1]多視圖行人重識(shí)別算法研究與數(shù)據(jù)采集[D]. 杜久倫.山東大學(xué) 2017
本文編號(hào):3084896
【文章來(lái)源】:華東交通大學(xué)江西省
【文章頁(yè)數(shù)】:54 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)元模型
有多個(gè)輸入的神經(jīng)元模型
卷積神經(jīng)網(wǎng)絡(luò)模型
【參考文獻(xiàn)】:
期刊論文
[1]基于姿態(tài)對(duì)齊的行人重識(shí)別方法(英文)[J]. 王金,劉潔,高常鑫,桑農(nóng). 控制理論與應(yīng)用. 2017(06)
[2]基于增強(qiáng)聚合通道特征的實(shí)時(shí)行人重識(shí)別[J]. 黃新宇,許嬌龍,郭綱,鄭二功. 激光與光電子學(xué)進(jìn)展. 2017(09)
[3]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
碩士論文
[1]多視圖行人重識(shí)別算法研究與數(shù)據(jù)采集[D]. 杜久倫.山東大學(xué) 2017
本文編號(hào):3084896
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3084896.html
最近更新
教材專(zhuān)著