天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 軟件論文 >

自上而下注意圖分割的細(xì)粒度圖像分類(lèi)

發(fā)布時(shí)間:2019-09-26 01:30
【摘要】:目的針對(duì)細(xì)粒度圖像分類(lèi)中的背景干擾問(wèn)題,提出一種利用自上而下注意圖分割的分類(lèi)模型。方法首先,利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)細(xì)粒度圖像庫(kù)進(jìn)行初分類(lèi),得到基本網(wǎng)絡(luò)模型。再對(duì)網(wǎng)絡(luò)模型進(jìn)行可視化分析,發(fā)現(xiàn)僅有部分圖像區(qū)域?qū)δ繕?biāo)類(lèi)別有貢獻(xiàn),利用學(xué)習(xí)好的基本網(wǎng)絡(luò)計(jì)算圖像像素對(duì)相關(guān)類(lèi)別的空間支持度,生成自上而下注意圖,檢測(cè)圖像中的關(guān)鍵區(qū)域。再用注意圖初始化GraphCut算法,分割出關(guān)鍵的目標(biāo)區(qū)域,從而提高圖像的判別性。最后,對(duì)分割圖像提取CNN特征實(shí)現(xiàn)細(xì)粒度分類(lèi)。結(jié)果該模型僅使用圖像的類(lèi)別標(biāo)注信息,在公開(kāi)的細(xì)粒度圖像庫(kù)Cars196和Aircrafts100上進(jìn)行實(shí)驗(yàn)驗(yàn)證,最后得到的平均分類(lèi)正確率分別為86.74%和84.70%。這一結(jié)果表明,在GoogLeNet模型基礎(chǔ)上引入注意信息能夠進(jìn)一步提高細(xì)粒度圖像分類(lèi)的正確率。結(jié)論基于自上而下注意圖的語(yǔ)義分割策略,提高了細(xì)粒度圖像的分類(lèi)性能。由于不需要目標(biāo)窗口和部位的標(biāo)注信息,所以該模型具有通用性和魯棒性,適用于顯著性目標(biāo)檢測(cè)、前景分割和細(xì)粒度圖像分類(lèi)應(yīng)用。
【圖文】:

模型框架,結(jié)構(gòu)示意圖


學(xué)習(xí),從而提高分類(lèi)正確率。但是,不同于上述方法,本文方法具有以下幾個(gè)特點(diǎn):1)不需要目標(biāo)和部位的標(biāo)注信息,僅使用類(lèi)別標(biāo)簽信息,增加模型的通用性;2)采用卷積神經(jīng)網(wǎng)絡(luò)模型生成自上而下的注意圖來(lái)分割目標(biāo),增強(qiáng)模型的魯棒性;3)所提模型能夠同時(shí)實(shí)現(xiàn)圖像的顯著性檢測(cè)、目標(biāo)分割與分類(lèi),具有廣泛的應(yīng)用。最后,采用自上而下注意圖分割的判別性學(xué)習(xí)方法在公開(kāi)的細(xì)粒度圖像庫(kù)Cars196[19]和Aircraft100[20]中進(jìn)行實(shí)驗(yàn)分析,結(jié)果表明,所提方法能夠有效提升分類(lèi)性能。1模型概述具體的模型框架如圖1(a)所示,首先用CNN模型對(duì)圖像進(jìn)行初分類(lèi),得到基本網(wǎng)絡(luò)模型為BaseNet;然后使用梯度可視化方法對(duì)BaseNet進(jìn)行可視化分析,發(fā)現(xiàn)僅有部分圖像區(qū)域?qū)δ繕?biāo)類(lèi)別有貢獻(xiàn),給定一幅圖像和感興趣的類(lèi)別,在BaseNet上使用BP(backpropagation)算法進(jìn)行梯度反傳,生成該圖像針對(duì)特定類(lèi)別的自上而下注意圖;再利用生成的注意圖初始化GraphCut[21]算法,對(duì)圖像進(jìn)行語(yǔ)義目標(biāo)分割;最后對(duì)分割圖像進(jìn)行CNN特征學(xué)習(xí)得到分割網(wǎng)絡(luò)模型SegNet,迫使卷積神經(jīng)網(wǎng)絡(luò)集中關(guān)注于圖像的關(guān)鍵區(qū)域,從而提高細(xì)粒度圖像分類(lèi)的性能。卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)特征學(xué)習(xí)模型,能夠自動(dòng)學(xué)習(xí)數(shù)據(jù)集的樣本特征,不需要人為參與和設(shè)計(jì),具有很強(qiáng)的魯棒性,分類(lèi)性能遠(yuǎn)遠(yuǎn)超過(guò)HOG和SIFT(scaleinvariantfeaturetransform)等傳統(tǒng)特征。常用的CNN模型主要包括AlexNet[4],GoogLeNet[22]和VGG[23]等網(wǎng)絡(luò)結(jié)構(gòu),本文選擇分類(lèi)性能最好的GoogLeNet作為基本網(wǎng)絡(luò),如圖1(b)所示,該網(wǎng)絡(luò)具有22層結(jié)構(gòu),由于網(wǎng)絡(luò)層數(shù)較深,參數(shù)太多,直接使用較小的數(shù)據(jù)庫(kù)學(xué)習(xí)所有參數(shù)會(huì)導(dǎo)致過(guò)擬合和梯度彌散等問(wèn)題,所以本文使用ImageNet對(duì)網(wǎng)絡(luò)進(jìn)

生成圖像,類(lèi)別,原圖,注意值


1,…,,L-1Sc(I)(2)式中,L表示目標(biāo)數(shù)據(jù)庫(kù)的類(lèi)別數(shù),對(duì)于CNN模型,Sc(I)是高度非線性的,所以在圖像I0處對(duì)Sc(I)進(jìn)行一階的泰勒級(jí)數(shù)展開(kāi)得到Sc(I)≈WTI+b(3)W=

本文編號(hào):2541745

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2541745.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶f18c0***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com