天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 軟件論文 >

自上而下注意圖分割的細粒度圖像分類

發(fā)布時間:2019-09-26 01:30
【摘要】:目的針對細粒度圖像分類中的背景干擾問題,提出一種利用自上而下注意圖分割的分類模型。方法首先,利用卷積神經網絡對細粒度圖像庫進行初分類,得到基本網絡模型。再對網絡模型進行可視化分析,發(fā)現(xiàn)僅有部分圖像區(qū)域對目標類別有貢獻,利用學習好的基本網絡計算圖像像素對相關類別的空間支持度,生成自上而下注意圖,檢測圖像中的關鍵區(qū)域。再用注意圖初始化GraphCut算法,分割出關鍵的目標區(qū)域,從而提高圖像的判別性。最后,對分割圖像提取CNN特征實現(xiàn)細粒度分類。結果該模型僅使用圖像的類別標注信息,在公開的細粒度圖像庫Cars196和Aircrafts100上進行實驗驗證,最后得到的平均分類正確率分別為86.74%和84.70%。這一結果表明,在GoogLeNet模型基礎上引入注意信息能夠進一步提高細粒度圖像分類的正確率。結論基于自上而下注意圖的語義分割策略,提高了細粒度圖像的分類性能。由于不需要目標窗口和部位的標注信息,所以該模型具有通用性和魯棒性,適用于顯著性目標檢測、前景分割和細粒度圖像分類應用。
【圖文】:

模型框架,結構示意圖


學習,從而提高分類正確率。但是,不同于上述方法,本文方法具有以下幾個特點:1)不需要目標和部位的標注信息,僅使用類別標簽信息,增加模型的通用性;2)采用卷積神經網絡模型生成自上而下的注意圖來分割目標,增強模型的魯棒性;3)所提模型能夠同時實現(xiàn)圖像的顯著性檢測、目標分割與分類,具有廣泛的應用。最后,采用自上而下注意圖分割的判別性學習方法在公開的細粒度圖像庫Cars196[19]和Aircraft100[20]中進行實驗分析,結果表明,所提方法能夠有效提升分類性能。1模型概述具體的模型框架如圖1(a)所示,首先用CNN模型對圖像進行初分類,得到基本網絡模型為BaseNet;然后使用梯度可視化方法對BaseNet進行可視化分析,發(fā)現(xiàn)僅有部分圖像區(qū)域對目標類別有貢獻,給定一幅圖像和感興趣的類別,在BaseNet上使用BP(backpropagation)算法進行梯度反傳,生成該圖像針對特定類別的自上而下注意圖;再利用生成的注意圖初始化GraphCut[21]算法,對圖像進行語義目標分割;最后對分割圖像進行CNN特征學習得到分割網絡模型SegNet,迫使卷積神經網絡集中關注于圖像的關鍵區(qū)域,從而提高細粒度圖像分類的性能。卷積神經網絡是一個特征學習模型,能夠自動學習數(shù)據集的樣本特征,不需要人為參與和設計,具有很強的魯棒性,分類性能遠遠超過HOG和SIFT(scaleinvariantfeaturetransform)等傳統(tǒng)特征。常用的CNN模型主要包括AlexNet[4],GoogLeNet[22]和VGG[23]等網絡結構,本文選擇分類性能最好的GoogLeNet作為基本網絡,如圖1(b)所示,該網絡具有22層結構,由于網絡層數(shù)較深,參數(shù)太多,直接使用較小的數(shù)據庫學習所有參數(shù)會導致過擬合和梯度彌散等問題,所以本文使用ImageNet對網絡進

生成圖像,類別,原圖,注意值


1,…,,L-1Sc(I)(2)式中,L表示目標數(shù)據庫的類別數(shù),對于CNN模型,Sc(I)是高度非線性的,所以在圖像I0處對Sc(I)進行一階的泰勒級數(shù)展開得到Sc(I)≈WTI+b(3)W=

本文編號:2541745

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2541745.html


Copyright(c)文論論文網All Rights Reserved | 網站地圖 |

版權申明:資料由用戶f18c0***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com