基于生成式模型的零樣本圖像分類
發(fā)布時(shí)間:2021-08-10 21:46
零樣本學(xué)習(xí)(零樣本圖像分類)主要研究利用屬性或詞向量等額外信息充當(dāng)語義空間,在訓(xùn)練類別與測(cè)試類別沒有交集的情況下,如何對(duì)測(cè)試類樣本進(jìn)行正確分類的問題,以及如何減小由于訓(xùn)練樣本和測(cè)試樣本之間的分布差異導(dǎo)致的領(lǐng)域偏移問題。本文主要圍繞基于生成式模型的零樣本圖像分類展開研究,主要研究?jī)?nèi)容如下:1.針對(duì)零樣本學(xué)習(xí)中圖像特征到語義屬性映射會(huì)發(fā)生領(lǐng)域偏移問題,提出了一種自動(dòng)編碼器和類特征原型相結(jié)合的生成式零樣本學(xué)習(xí)模型。首先構(gòu)建圖像特征的類特征原型,并作為每個(gè)類別的標(biāo)記,利用核函數(shù)構(gòu)建屬性向量核矩陣;其次利用自動(dòng)編碼器對(duì)訓(xùn)練類別的類特征原型和屬性核矩陣進(jìn)行模型構(gòu)建,自動(dòng)編碼器對(duì)圖像特征進(jìn)行重構(gòu),先編碼后解碼,兩次映射可以減少圖像特征與語義屬性之間的信息丟失;然后將測(cè)試類的屬性核矩陣應(yīng)用到自動(dòng)編碼器模型以生成測(cè)試類的類特征原型,再利用測(cè)試類的類特征原型附近的K個(gè)近鄰樣本對(duì)生成的測(cè)試類特征原型進(jìn)行修正;最后在圖像特征空間對(duì)修正后類特征原型利用最近鄰分類器進(jìn)行零樣本分類。2.針對(duì)大多數(shù)基于生成式模型的零樣本圖像分類中沒有考慮到生成測(cè)試類樣本中存在噪聲,以及與真實(shí)測(cè)試類特征分布不一致的問題。提出一種基于條...
【文章來源】:中國礦業(yè)大學(xué)江蘇省 211工程院校 教育部直屬院校
【文章頁數(shù)】:76 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
屬性學(xué)習(xí)示意圖
4基于條件變分編碼器與領(lǐng)域自適應(yīng)的零樣本學(xué)習(xí)45圖4-8N的取值對(duì)實(shí)驗(yàn)分類結(jié)果的影響Figure4-8TheinfluenceofNontheresultsofclassification同理由圖可知對(duì)于AWA1和AWA2數(shù)據(jù)集,當(dāng)N取值為200時(shí)分類效果最好。因?yàn)檫@兩個(gè)數(shù)據(jù)集的測(cè)試類類別相對(duì)較少,所以訓(xùn)練類中的樣本相比CUB數(shù)據(jù)集較多,有利于模型能夠深層次的挖掘樣本數(shù)據(jù)的特征分布規(guī)律,同時(shí)也能學(xué)習(xí)到訓(xùn)練類別特征與語義屬性之間的內(nèi)在聯(lián)系,因此生成模型不需要生成太多測(cè)試類樣本就可以充分的表達(dá)測(cè)試類的特征,故能夠很快收斂。4.3.4損失函數(shù)收斂性分析損失函數(shù)是衡量評(píng)估一個(gè)模型好壞最直觀的方法,如果預(yù)測(cè)值與實(shí)際值偏離較遠(yuǎn),損失函數(shù)值越大;反之,損失函數(shù)值越小,所以損失函數(shù)在模型訓(xùn)練分析中必不可少。圖4-9、圖4-10、圖4-11分別為三個(gè)不同數(shù)據(jù)集的損失函數(shù)trainloss曲線,其中圖像橫坐標(biāo)為模型迭代次數(shù),縱坐標(biāo)為損失函數(shù)值。圖4-9AWA1數(shù)據(jù)集損失曲線Figure4-9theLosscurveofAWA1datasets圖4-10AWA2數(shù)據(jù)集損失曲線Figure4-10theLosscurveofAWA2datasets
4基于條件變分編碼器與領(lǐng)域自適應(yīng)的零樣本學(xué)習(xí)45圖4-8N的取值對(duì)實(shí)驗(yàn)分類結(jié)果的影響Figure4-8TheinfluenceofNontheresultsofclassification同理由圖可知對(duì)于AWA1和AWA2數(shù)據(jù)集,當(dāng)N取值為200時(shí)分類效果最好。因?yàn)檫@兩個(gè)數(shù)據(jù)集的測(cè)試類類別相對(duì)較少,所以訓(xùn)練類中的樣本相比CUB數(shù)據(jù)集較多,有利于模型能夠深層次的挖掘樣本數(shù)據(jù)的特征分布規(guī)律,同時(shí)也能學(xué)習(xí)到訓(xùn)練類別特征與語義屬性之間的內(nèi)在聯(lián)系,因此生成模型不需要生成太多測(cè)試類樣本就可以充分的表達(dá)測(cè)試類的特征,故能夠很快收斂。4.3.4損失函數(shù)收斂性分析損失函數(shù)是衡量評(píng)估一個(gè)模型好壞最直觀的方法,如果預(yù)測(cè)值與實(shí)際值偏離較遠(yuǎn),損失函數(shù)值越大;反之,損失函數(shù)值越小,所以損失函數(shù)在模型訓(xùn)練分析中必不可少。圖4-9、圖4-10、圖4-11分別為三個(gè)不同數(shù)據(jù)集的損失函數(shù)trainloss曲線,其中圖像橫坐標(biāo)為模型迭代次數(shù),縱坐標(biāo)為損失函數(shù)值。圖4-9AWA1數(shù)據(jù)集損失曲線Figure4-9theLosscurveofAWA1datasets圖4-10AWA2數(shù)據(jù)集損失曲線Figure4-10theLosscurveofAWA2datasets
【參考文獻(xiàn)】:
期刊論文
[1]基于生成對(duì)抗網(wǎng)絡(luò)的零樣本圖像分類[J]. 魏宏喜,張?jiān)? 北京航空航天大學(xué)學(xué)報(bào). 2019(12)
[2]用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的設(shè)計(jì)[J]. 王紅霞,周家奇,辜承昊,林泓. 浙江大學(xué)學(xué)報(bào)(工學(xué)版). 2019(07)
[3]一種卷積神經(jīng)網(wǎng)絡(luò)的稀疏性Dropout正則化方法[J]. 周安眾,羅可. 小型微型計(jì)算機(jī)系統(tǒng). 2018(08)
[4]一種基于直推判別字典學(xué)習(xí)的零樣本分類方法[J]. 冀中,孫濤,于云龍. 軟件學(xué)報(bào). 2017(11)
[5]基于KL散度的用戶相似性協(xié)同過濾算法[J]. 王永,鄧江洲. 北京郵電大學(xué)學(xué)報(bào). 2017(02)
[6]基于最大分布加權(quán)均值嵌入的領(lǐng)域適應(yīng)學(xué)習(xí)[J]. 臧紹飛,程玉虎,王雪松. 控制與決策. 2016(11)
[7]基于樣本局部判別權(quán)重的加權(quán)遷移成分分析[J]. 臧紹飛,程玉虎,王雪松. 中國礦業(yè)大學(xué)學(xué)報(bào). 2016(05)
[8]基于屬性關(guān)系圖正則化特征選擇的零樣本分類[J]. 鞏萍,程玉虎,王雪松. 中國礦業(yè)大學(xué)學(xué)報(bào). 2015(06)
[9]聚類算法研究[J]. 孫吉貴,劉杰,趙連宇. 軟件學(xué)報(bào). 2008(01)
碩士論文
[1]基于屬性學(xué)習(xí)的零樣本圖像分類研究[D]. 喬雪.中國礦業(yè)大學(xué) 2016
本文編號(hào):3334836
【文章來源】:中國礦業(yè)大學(xué)江蘇省 211工程院校 教育部直屬院校
【文章頁數(shù)】:76 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
屬性學(xué)習(xí)示意圖
4基于條件變分編碼器與領(lǐng)域自適應(yīng)的零樣本學(xué)習(xí)45圖4-8N的取值對(duì)實(shí)驗(yàn)分類結(jié)果的影響Figure4-8TheinfluenceofNontheresultsofclassification同理由圖可知對(duì)于AWA1和AWA2數(shù)據(jù)集,當(dāng)N取值為200時(shí)分類效果最好。因?yàn)檫@兩個(gè)數(shù)據(jù)集的測(cè)試類類別相對(duì)較少,所以訓(xùn)練類中的樣本相比CUB數(shù)據(jù)集較多,有利于模型能夠深層次的挖掘樣本數(shù)據(jù)的特征分布規(guī)律,同時(shí)也能學(xué)習(xí)到訓(xùn)練類別特征與語義屬性之間的內(nèi)在聯(lián)系,因此生成模型不需要生成太多測(cè)試類樣本就可以充分的表達(dá)測(cè)試類的特征,故能夠很快收斂。4.3.4損失函數(shù)收斂性分析損失函數(shù)是衡量評(píng)估一個(gè)模型好壞最直觀的方法,如果預(yù)測(cè)值與實(shí)際值偏離較遠(yuǎn),損失函數(shù)值越大;反之,損失函數(shù)值越小,所以損失函數(shù)在模型訓(xùn)練分析中必不可少。圖4-9、圖4-10、圖4-11分別為三個(gè)不同數(shù)據(jù)集的損失函數(shù)trainloss曲線,其中圖像橫坐標(biāo)為模型迭代次數(shù),縱坐標(biāo)為損失函數(shù)值。圖4-9AWA1數(shù)據(jù)集損失曲線Figure4-9theLosscurveofAWA1datasets圖4-10AWA2數(shù)據(jù)集損失曲線Figure4-10theLosscurveofAWA2datasets
4基于條件變分編碼器與領(lǐng)域自適應(yīng)的零樣本學(xué)習(xí)45圖4-8N的取值對(duì)實(shí)驗(yàn)分類結(jié)果的影響Figure4-8TheinfluenceofNontheresultsofclassification同理由圖可知對(duì)于AWA1和AWA2數(shù)據(jù)集,當(dāng)N取值為200時(shí)分類效果最好。因?yàn)檫@兩個(gè)數(shù)據(jù)集的測(cè)試類類別相對(duì)較少,所以訓(xùn)練類中的樣本相比CUB數(shù)據(jù)集較多,有利于模型能夠深層次的挖掘樣本數(shù)據(jù)的特征分布規(guī)律,同時(shí)也能學(xué)習(xí)到訓(xùn)練類別特征與語義屬性之間的內(nèi)在聯(lián)系,因此生成模型不需要生成太多測(cè)試類樣本就可以充分的表達(dá)測(cè)試類的特征,故能夠很快收斂。4.3.4損失函數(shù)收斂性分析損失函數(shù)是衡量評(píng)估一個(gè)模型好壞最直觀的方法,如果預(yù)測(cè)值與實(shí)際值偏離較遠(yuǎn),損失函數(shù)值越大;反之,損失函數(shù)值越小,所以損失函數(shù)在模型訓(xùn)練分析中必不可少。圖4-9、圖4-10、圖4-11分別為三個(gè)不同數(shù)據(jù)集的損失函數(shù)trainloss曲線,其中圖像橫坐標(biāo)為模型迭代次數(shù),縱坐標(biāo)為損失函數(shù)值。圖4-9AWA1數(shù)據(jù)集損失曲線Figure4-9theLosscurveofAWA1datasets圖4-10AWA2數(shù)據(jù)集損失曲線Figure4-10theLosscurveofAWA2datasets
【參考文獻(xiàn)】:
期刊論文
[1]基于生成對(duì)抗網(wǎng)絡(luò)的零樣本圖像分類[J]. 魏宏喜,張?jiān)? 北京航空航天大學(xué)學(xué)報(bào). 2019(12)
[2]用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的設(shè)計(jì)[J]. 王紅霞,周家奇,辜承昊,林泓. 浙江大學(xué)學(xué)報(bào)(工學(xué)版). 2019(07)
[3]一種卷積神經(jīng)網(wǎng)絡(luò)的稀疏性Dropout正則化方法[J]. 周安眾,羅可. 小型微型計(jì)算機(jī)系統(tǒng). 2018(08)
[4]一種基于直推判別字典學(xué)習(xí)的零樣本分類方法[J]. 冀中,孫濤,于云龍. 軟件學(xué)報(bào). 2017(11)
[5]基于KL散度的用戶相似性協(xié)同過濾算法[J]. 王永,鄧江洲. 北京郵電大學(xué)學(xué)報(bào). 2017(02)
[6]基于最大分布加權(quán)均值嵌入的領(lǐng)域適應(yīng)學(xué)習(xí)[J]. 臧紹飛,程玉虎,王雪松. 控制與決策. 2016(11)
[7]基于樣本局部判別權(quán)重的加權(quán)遷移成分分析[J]. 臧紹飛,程玉虎,王雪松. 中國礦業(yè)大學(xué)學(xué)報(bào). 2016(05)
[8]基于屬性關(guān)系圖正則化特征選擇的零樣本分類[J]. 鞏萍,程玉虎,王雪松. 中國礦業(yè)大學(xué)學(xué)報(bào). 2015(06)
[9]聚類算法研究[J]. 孫吉貴,劉杰,趙連宇. 軟件學(xué)報(bào). 2008(01)
碩士論文
[1]基于屬性學(xué)習(xí)的零樣本圖像分類研究[D]. 喬雪.中國礦業(yè)大學(xué) 2016
本文編號(hào):3334836
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3334836.html
最近更新
教材專著