基于蒸餾遷移網(wǎng)絡(luò)的無監(jiān)督圖像分類方法研究
發(fā)布時間:2022-11-01 20:28
隨著智能監(jiān)控,自動駕駛等計算機視覺應(yīng)用的普及,圖像分類作為這類應(yīng)用的底層支持,近幾年來獲得了快速的發(fā)展。然而在現(xiàn)實生活及生產(chǎn)活動中,獲取的圖像大部分都是沒有標(biāo)簽的,由于傳統(tǒng)圖像分類方法無法處理互聯(lián)網(wǎng)級別的無標(biāo)簽數(shù)據(jù),無監(jiān)督域適應(yīng)技術(shù)的提出很好地解決了這一問題。深度遷移網(wǎng)絡(luò)作為無監(jiān)督域適應(yīng)領(lǐng)域最新的技術(shù)成果之一,成功地將深度神經(jīng)網(wǎng)絡(luò)在特征提取上的優(yōu)勢與域適應(yīng)技術(shù)在分布匹配上的能力相結(jié)合,通過匹配源域與目標(biāo)域之間的深層特征,相比傳統(tǒng)域適應(yīng)技術(shù)大幅地提高了分類準(zhǔn)確率。然而,深度遷移網(wǎng)絡(luò)由于其復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),在遷移訓(xùn)練過程中噪聲數(shù)據(jù)產(chǎn)生的復(fù)雜關(guān)系易導(dǎo)致網(wǎng)絡(luò)模型過擬合。通常源數(shù)據(jù)集和目標(biāo)數(shù)據(jù)集之間存在較大差異,使用標(biāo)準(zhǔn)dropout難以確定模型參數(shù)縮放的最優(yōu)尺度。而且深度遷移網(wǎng)絡(luò)在域遷移訓(xùn)練時缺乏足夠的泛化能力,雖然使用類別概率向量作為訓(xùn)練的軟目標(biāo),但還是會偏向于正確類別的概率匹配而忽略類別間的相似信息,影響最終模型的匹配性能。本文在深度遷移網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)一步實現(xiàn)了蒸餾遷移網(wǎng)絡(luò),其主要改進(jìn)部分為在條件分布匹配階段嵌入蒸餾操作,蒸餾的主要原理是隨著溫度參數(shù)的增加,會使類別間概率向量分布更均勻,提升...
【文章頁數(shù)】:62 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 研究背景及意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 遷移學(xué)習(xí)
1.2.2 域適應(yīng)
1.2.3 正則化
1.3 研究問題與本文工作
1.3.1 研究動機與改進(jìn)
1.3.2 論文結(jié)構(gòu)安排
第2章 多尺度融合dropout優(yōu)化算法
2.1 dropout原理
2.2 dropout訓(xùn)練
2.2.1 激活函數(shù)的選擇
2.2.2 優(yōu)化函數(shù)的選擇
2.2.3 訓(xùn)練過程
2.3 傳統(tǒng)dropout
2.3.1 標(biāo)準(zhǔn)dropout
2.3.2 蒙特卡洛dropout(MC dropout)
2.4 遺傳算法求取最優(yōu)尺度
2.4.1 遺傳算法原理
2.4.2 求解最優(yōu)尺度過程
2.4.3 算法評價
2.5 多尺度融合
2.5.1 softmax原理
2.5.2 多尺度融合過程
2.5.3 算法評價
2.6 實驗及分析
2.6.1 數(shù)據(jù)集
2.6.2 模型結(jié)構(gòu)
2.6.3 實驗設(shè)置
2.6.4 實驗結(jié)果及分析
2.6.5 參數(shù)分析
2.7 本章小結(jié)
第3章 蒸餾遷移網(wǎng)絡(luò)
3.1 無監(jiān)督域適應(yīng)
3.2 卷積神經(jīng)網(wǎng)絡(luò)
3.3 深度遷移網(wǎng)絡(luò)
3.3.1 批數(shù)據(jù)集及分布表示
3.3.2 匹配邊緣分布
3.3.3 匹配條件分布
3.3.4 確立目標(biāo)函數(shù)
3.3.5 DTN的優(yōu)化過程
3.4 蒸餾(Distillation)原理
3.5 蒸餾遷移網(wǎng)絡(luò)實現(xiàn)
3.5.1 改進(jìn)動機
3.5.2 蒸餾法提取相似性特征原理
3.5.3 蒸餾遷移網(wǎng)絡(luò)訓(xùn)練細(xì)節(jié)
3.5.4 算法評價
3.6 實驗及分析
3.6.1 數(shù)據(jù)集
3.6.2 評價指標(biāo)
3.6.3 對比方法
3.6.4 實驗結(jié)果及分析
3.6.5 參數(shù)分析
3.7 本章小結(jié)
第4章 整合模型
4.1 整合動機
4.2 整合過程
4.3 實驗及分析
4.4 本章小結(jié)
第5章 全文總結(jié)與展望
5.1 總結(jié)
5.2 展望
致謝
參考文獻(xiàn)
攻讀學(xué)位期間發(fā)表的學(xué)術(shù)論文及參與項目
【參考文獻(xiàn)】:
期刊論文
[1]多尺度融合dropout優(yōu)化算法[J]. 鐘忺,陳恩曉,羅瑞奇,盧炎生. 華中科技大學(xué)學(xué)報(自然科學(xué)版). 2018(09)
[2]一種基于混淆矩陣的分類器選擇方法[J]. 米愛中,張盼. 河南理工大學(xué)學(xué)報(自然科學(xué)版). 2017(02)
[3]Dropout Rademacher complexity of deep neural networks[J]. Wei GAO,Zhi-Hua ZHOU. Science China(Information Sciences). 2016(07)
本文編號:3700048
【文章頁數(shù)】:62 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 研究背景及意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 遷移學(xué)習(xí)
1.2.2 域適應(yīng)
1.2.3 正則化
1.3 研究問題與本文工作
1.3.1 研究動機與改進(jìn)
1.3.2 論文結(jié)構(gòu)安排
第2章 多尺度融合dropout優(yōu)化算法
2.1 dropout原理
2.2 dropout訓(xùn)練
2.2.1 激活函數(shù)的選擇
2.2.2 優(yōu)化函數(shù)的選擇
2.2.3 訓(xùn)練過程
2.3 傳統(tǒng)dropout
2.3.1 標(biāo)準(zhǔn)dropout
2.3.2 蒙特卡洛dropout(MC dropout)
2.4 遺傳算法求取最優(yōu)尺度
2.4.1 遺傳算法原理
2.4.2 求解最優(yōu)尺度過程
2.4.3 算法評價
2.5 多尺度融合
2.5.1 softmax原理
2.5.2 多尺度融合過程
2.5.3 算法評價
2.6 實驗及分析
2.6.1 數(shù)據(jù)集
2.6.2 模型結(jié)構(gòu)
2.6.3 實驗設(shè)置
2.6.4 實驗結(jié)果及分析
2.6.5 參數(shù)分析
2.7 本章小結(jié)
第3章 蒸餾遷移網(wǎng)絡(luò)
3.1 無監(jiān)督域適應(yīng)
3.2 卷積神經(jīng)網(wǎng)絡(luò)
3.3 深度遷移網(wǎng)絡(luò)
3.3.1 批數(shù)據(jù)集及分布表示
3.3.2 匹配邊緣分布
3.3.3 匹配條件分布
3.3.4 確立目標(biāo)函數(shù)
3.3.5 DTN的優(yōu)化過程
3.4 蒸餾(Distillation)原理
3.5 蒸餾遷移網(wǎng)絡(luò)實現(xiàn)
3.5.1 改進(jìn)動機
3.5.2 蒸餾法提取相似性特征原理
3.5.3 蒸餾遷移網(wǎng)絡(luò)訓(xùn)練細(xì)節(jié)
3.5.4 算法評價
3.6 實驗及分析
3.6.1 數(shù)據(jù)集
3.6.2 評價指標(biāo)
3.6.3 對比方法
3.6.4 實驗結(jié)果及分析
3.6.5 參數(shù)分析
3.7 本章小結(jié)
第4章 整合模型
4.1 整合動機
4.2 整合過程
4.3 實驗及分析
4.4 本章小結(jié)
第5章 全文總結(jié)與展望
5.1 總結(jié)
5.2 展望
致謝
參考文獻(xiàn)
攻讀學(xué)位期間發(fā)表的學(xué)術(shù)論文及參與項目
【參考文獻(xiàn)】:
期刊論文
[1]多尺度融合dropout優(yōu)化算法[J]. 鐘忺,陳恩曉,羅瑞奇,盧炎生. 華中科技大學(xué)學(xué)報(自然科學(xué)版). 2018(09)
[2]一種基于混淆矩陣的分類器選擇方法[J]. 米愛中,張盼. 河南理工大學(xué)學(xué)報(自然科學(xué)版). 2017(02)
[3]Dropout Rademacher complexity of deep neural networks[J]. Wei GAO,Zhi-Hua ZHOU. Science China(Information Sciences). 2016(07)
本文編號:3700048
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3700048.html
最近更新
教材專著