基于生成對(duì)抗網(wǎng)絡(luò)的遮擋目標(biāo)識(shí)別
發(fā)布時(shí)間:2021-07-20 10:38
遮擋目標(biāo)識(shí)別在人工智能領(lǐng)域扮演著極其重要的角色,而解決遮擋目標(biāo)識(shí)別問題中最關(guān)鍵的一步是圖像修復(fù)。圖像修復(fù)是一項(xiàng)艱巨的任務(wù),是圖像研究領(lǐng)域中能夠改善圖像質(zhì)量的一種處理技術(shù),它需要根據(jù)圖像已有數(shù)據(jù)去還原圖像中損壞的區(qū)域。在實(shí)際的圖像獲取中,由于多種受損噪聲,光線強(qiáng)暗及實(shí)物遮擋等因素,造成了圖片質(zhì)量嚴(yán)重下降。因此圖像修復(fù)研究意義極為重要。生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)是一種借用對(duì)抗思想提出的神經(jīng)網(wǎng)絡(luò)架構(gòu),是人工智能時(shí)代最有發(fā)展前景的無監(jiān)督學(xué)習(xí)模型之一。本文借助GAN的對(duì)抗思想,設(shè)計(jì)受損圖像的修復(fù)方法,融合擠壓激勵(lì)塊(Squeeze-and-Excitation Networks,SENet)和自注意力機(jī)制(Self-Attentive,SA)在特征提取上的優(yōu)勢,對(duì)圖像修復(fù)的細(xì)節(jié)進(jìn)行探究,使得在整個(gè)圖像修復(fù)的過程中計(jì)算效率和修復(fù)結(jié)果更好。本文主要完成以下工作:首先,提出了一種基于擠壓激勵(lì)塊的深度卷積生成對(duì)抗網(wǎng)絡(luò)遮擋圖像修復(fù)模型(Occlusion Image Recognition by Deep Convolution Generati...
【文章來源】:中國礦業(yè)大學(xué)江蘇省 211工程院校 教育部直屬院校
【文章頁數(shù)】:79 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
遮擋類型檢測Figure1-1Occlusiontypedetection在圖1-1中,展示了四種遮擋類型:手部遮擋、身體遮擋、眼鏡遮擋和口罩
P偷男閱?產(chǎn)生影響,因此研究者們會(huì)對(duì)判別模型的方法給予更高的關(guān)注。GAN主要通過D和G的博弈來訓(xùn)練網(wǎng)絡(luò)模型,訓(xùn)練過程中通過D和G的相互競爭讓這兩個(gè)模型分別得到增強(qiáng)。由于判別模型D的博弈,讓生成模型G在沒有大量先驗(yàn)知識(shí)和先驗(yàn)分布的前提下,也能很好的學(xué)習(xí)真實(shí)的數(shù)據(jù)分布規(guī)律并逼近真實(shí)數(shù)據(jù),最終生成模型產(chǎn)生的數(shù)據(jù)可以欺騙判別模型,讓生成的圖片達(dá)到以假亂真的效果(即D無法將G生成的圖片與真實(shí)圖片區(qū)別開來,這樣,G和D就達(dá)到了納什均衡)。迄今為止,判別模型在深度學(xué)習(xí)乃至機(jī)器學(xué)習(xí)領(lǐng)域取得了巨大成功,其模型如圖1-2所示:圖1-2生成對(duì)抗網(wǎng)絡(luò)原理Figure1-2GenerativeadversarialnetworkprincipleGAN在發(fā)展時(shí)期,產(chǎn)生了廣泛流行的架構(gòu),如DCGAN[51]、BigGAN[52]、StackGAN[53]、CycleGAN[54]、CGAN[55]、WGAN[56]等。這些架構(gòu)展示了非常好的效果。深度卷積生成對(duì)抗網(wǎng)絡(luò)(DeepConvolutionalGenerativeAdversarialNetworks:DCGAN)是AlecRadford等人[51]在2016年提出的改進(jìn)GAN模型,
碩士學(xué)位論文102相關(guān)算法與理論2RelatedAlgorithmandTheory2.1生成對(duì)抗網(wǎng)絡(luò)概述(SummarizeofGenerativeAdversarialNetworks)2.1.1自編碼器(Autoencoder)自編碼器[57]其實(shí)是一種利用反向傳播算法[58]的神經(jīng)網(wǎng)絡(luò)(NeuralNetwork)模型,輸入值和輸出值都是無監(jiān)督學(xué)習(xí),主要包括兩個(gè)部分:編碼器(Encoder)和解碼器(Decoder)。圖2-1給出了一種最簡單的自編碼器架構(gòu)。圖2-1簡單自編碼器架構(gòu)Figure2-1SimpleAutoencoderarchitecture首先,編碼器(Encoder)主要是將音頻、向量或者圖片作為輸入并做降維操作轉(zhuǎn)換成中間變量,此中間變量遠(yuǎn)小于輸入,因?yàn)樽詣?dòng)編碼器與數(shù)據(jù)高度相關(guān),所以它經(jīng)常被用于生成與現(xiàn)有數(shù)據(jù)集類似的數(shù)據(jù)。比如,編碼器能將輸入大小為128*128的圖像轉(zhuǎn)換128*1的輸出h,即為了使圖像更節(jié)省空間對(duì)其壓縮。編碼器是將個(gè)輸轉(zhuǎn)換成個(gè)背景變量c,下列公式中輸是12,,,Txxx,編碼器網(wǎng)絡(luò)將輸Tx個(gè)特征向量和上個(gè)時(shí)間的狀態(tài)t1h,用函數(shù)f表示編碼器的轉(zhuǎn)換公式如式(2-1)所示:1(,)ttthfxh(2-1)接著編碼器通過函數(shù)q將th轉(zhuǎn)換為背景變量c
【參考文獻(xiàn)】:
期刊論文
[1]基于欠完備自編碼器的用戶用電行為分類分析方法[J]. 黃奇峰,楊世海,鄧欣宇,陳海文,王守相. 電力工程技術(shù). 2019(06)
[2]基于Keras的MNIST數(shù)據(jù)集識(shí)別模型[J]. 郭夢潔,楊夢卓,馬京九. 現(xiàn)代信息科技. 2019(14)
[3]基于VAE和GAN融合網(wǎng)絡(luò)的mnist手寫體數(shù)字圖像生成方法[J]. 陳麗芳,蘆國軍. 廊坊師范學(xué)院學(xué)報(bào)(自然科學(xué)版). 2019(02)
[4]基于時(shí)空雙流卷積與LSTM的人體動(dòng)作識(shí)別[J]. 毛志強(qiáng),馬翠紅,崔金龍,王毅. 軟件. 2018(09)
[5]圖像質(zhì)量評(píng)價(jià):融合視覺特性與結(jié)構(gòu)相似性指標(biāo)[J]. 朱新山,姚思如,孫彪,錢永軍. 哈爾濱工業(yè)大學(xué)學(xué)報(bào). 2018(05)
[6]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別算法研究[J]. 張榮磊,田愛奎,譚浩,鄭睿. 山東理工大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(01)
[7]低秩魯棒性主成分分析的遮擋人臉識(shí)別[J]. 唐嫻,黃軍偉. 南京理工大學(xué)學(xué)報(bào). 2017(04)
[8]有遮擋人臉識(shí)別綜述:從子空間回歸到深度學(xué)習(xí)[J]. 李小薪,梁榮華. 計(jì)算機(jī)學(xué)報(bào). 2018(01)
[9]不同池化模型的卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)性能研究[J]. 劉萬軍,梁雪劍,曲海成. 中國圖象圖形學(xué)報(bào). 2016(09)
[10]稀疏表示分類中遮擋字典構(gòu)造方法的改進(jìn)[J]. 朱明旱,李樹濤,葉華. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2014(11)
碩士論文
[1]基于低秩稀疏分解的遮擋人臉識(shí)別研究[D]. 虞濤.南京郵電大學(xué) 2019
[2]基于生成式對(duì)抗網(wǎng)絡(luò)的圖像風(fēng)格遷移方法研究[D]. 陳光啟.北京郵電大學(xué) 2019
[3]面向局部遮擋的人臉識(shí)別方法研究及實(shí)現(xiàn)[D]. 林勝光.電子科技大學(xué) 2018
[4]高魯棒性視頻人臉表情識(shí)別系統(tǒng)的研究與實(shí)現(xiàn)[D]. 生夢林.大連理工大學(xué) 2018
[5]基于深度多級(jí)殘差網(wǎng)絡(luò)的圖像分類研究[D]. 郭麗茹.華北電力大學(xué) 2018
[6]有遮擋人臉識(shí)別的特征選擇與提取[D]. 李晶晶.浙江工業(yè)大學(xué) 2017
[7]基于Django框架的圖書管理系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 王兆媛.吉林大學(xué) 2016
本文編號(hào):3292668
【文章來源】:中國礦業(yè)大學(xué)江蘇省 211工程院校 教育部直屬院校
【文章頁數(shù)】:79 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
遮擋類型檢測Figure1-1Occlusiontypedetection在圖1-1中,展示了四種遮擋類型:手部遮擋、身體遮擋、眼鏡遮擋和口罩
P偷男閱?產(chǎn)生影響,因此研究者們會(huì)對(duì)判別模型的方法給予更高的關(guān)注。GAN主要通過D和G的博弈來訓(xùn)練網(wǎng)絡(luò)模型,訓(xùn)練過程中通過D和G的相互競爭讓這兩個(gè)模型分別得到增強(qiáng)。由于判別模型D的博弈,讓生成模型G在沒有大量先驗(yàn)知識(shí)和先驗(yàn)分布的前提下,也能很好的學(xué)習(xí)真實(shí)的數(shù)據(jù)分布規(guī)律并逼近真實(shí)數(shù)據(jù),最終生成模型產(chǎn)生的數(shù)據(jù)可以欺騙判別模型,讓生成的圖片達(dá)到以假亂真的效果(即D無法將G生成的圖片與真實(shí)圖片區(qū)別開來,這樣,G和D就達(dá)到了納什均衡)。迄今為止,判別模型在深度學(xué)習(xí)乃至機(jī)器學(xué)習(xí)領(lǐng)域取得了巨大成功,其模型如圖1-2所示:圖1-2生成對(duì)抗網(wǎng)絡(luò)原理Figure1-2GenerativeadversarialnetworkprincipleGAN在發(fā)展時(shí)期,產(chǎn)生了廣泛流行的架構(gòu),如DCGAN[51]、BigGAN[52]、StackGAN[53]、CycleGAN[54]、CGAN[55]、WGAN[56]等。這些架構(gòu)展示了非常好的效果。深度卷積生成對(duì)抗網(wǎng)絡(luò)(DeepConvolutionalGenerativeAdversarialNetworks:DCGAN)是AlecRadford等人[51]在2016年提出的改進(jìn)GAN模型,
碩士學(xué)位論文102相關(guān)算法與理論2RelatedAlgorithmandTheory2.1生成對(duì)抗網(wǎng)絡(luò)概述(SummarizeofGenerativeAdversarialNetworks)2.1.1自編碼器(Autoencoder)自編碼器[57]其實(shí)是一種利用反向傳播算法[58]的神經(jīng)網(wǎng)絡(luò)(NeuralNetwork)模型,輸入值和輸出值都是無監(jiān)督學(xué)習(xí),主要包括兩個(gè)部分:編碼器(Encoder)和解碼器(Decoder)。圖2-1給出了一種最簡單的自編碼器架構(gòu)。圖2-1簡單自編碼器架構(gòu)Figure2-1SimpleAutoencoderarchitecture首先,編碼器(Encoder)主要是將音頻、向量或者圖片作為輸入并做降維操作轉(zhuǎn)換成中間變量,此中間變量遠(yuǎn)小于輸入,因?yàn)樽詣?dòng)編碼器與數(shù)據(jù)高度相關(guān),所以它經(jīng)常被用于生成與現(xiàn)有數(shù)據(jù)集類似的數(shù)據(jù)。比如,編碼器能將輸入大小為128*128的圖像轉(zhuǎn)換128*1的輸出h,即為了使圖像更節(jié)省空間對(duì)其壓縮。編碼器是將個(gè)輸轉(zhuǎn)換成個(gè)背景變量c,下列公式中輸是12,,,Txxx,編碼器網(wǎng)絡(luò)將輸Tx個(gè)特征向量和上個(gè)時(shí)間的狀態(tài)t1h,用函數(shù)f表示編碼器的轉(zhuǎn)換公式如式(2-1)所示:1(,)ttthfxh(2-1)接著編碼器通過函數(shù)q將th轉(zhuǎn)換為背景變量c
【參考文獻(xiàn)】:
期刊論文
[1]基于欠完備自編碼器的用戶用電行為分類分析方法[J]. 黃奇峰,楊世海,鄧欣宇,陳海文,王守相. 電力工程技術(shù). 2019(06)
[2]基于Keras的MNIST數(shù)據(jù)集識(shí)別模型[J]. 郭夢潔,楊夢卓,馬京九. 現(xiàn)代信息科技. 2019(14)
[3]基于VAE和GAN融合網(wǎng)絡(luò)的mnist手寫體數(shù)字圖像生成方法[J]. 陳麗芳,蘆國軍. 廊坊師范學(xué)院學(xué)報(bào)(自然科學(xué)版). 2019(02)
[4]基于時(shí)空雙流卷積與LSTM的人體動(dòng)作識(shí)別[J]. 毛志強(qiáng),馬翠紅,崔金龍,王毅. 軟件. 2018(09)
[5]圖像質(zhì)量評(píng)價(jià):融合視覺特性與結(jié)構(gòu)相似性指標(biāo)[J]. 朱新山,姚思如,孫彪,錢永軍. 哈爾濱工業(yè)大學(xué)學(xué)報(bào). 2018(05)
[6]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別算法研究[J]. 張榮磊,田愛奎,譚浩,鄭睿. 山東理工大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(01)
[7]低秩魯棒性主成分分析的遮擋人臉識(shí)別[J]. 唐嫻,黃軍偉. 南京理工大學(xué)學(xué)報(bào). 2017(04)
[8]有遮擋人臉識(shí)別綜述:從子空間回歸到深度學(xué)習(xí)[J]. 李小薪,梁榮華. 計(jì)算機(jī)學(xué)報(bào). 2018(01)
[9]不同池化模型的卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)性能研究[J]. 劉萬軍,梁雪劍,曲海成. 中國圖象圖形學(xué)報(bào). 2016(09)
[10]稀疏表示分類中遮擋字典構(gòu)造方法的改進(jìn)[J]. 朱明旱,李樹濤,葉華. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2014(11)
碩士論文
[1]基于低秩稀疏分解的遮擋人臉識(shí)別研究[D]. 虞濤.南京郵電大學(xué) 2019
[2]基于生成式對(duì)抗網(wǎng)絡(luò)的圖像風(fēng)格遷移方法研究[D]. 陳光啟.北京郵電大學(xué) 2019
[3]面向局部遮擋的人臉識(shí)別方法研究及實(shí)現(xiàn)[D]. 林勝光.電子科技大學(xué) 2018
[4]高魯棒性視頻人臉表情識(shí)別系統(tǒng)的研究與實(shí)現(xiàn)[D]. 生夢林.大連理工大學(xué) 2018
[5]基于深度多級(jí)殘差網(wǎng)絡(luò)的圖像分類研究[D]. 郭麗茹.華北電力大學(xué) 2018
[6]有遮擋人臉識(shí)別的特征選擇與提取[D]. 李晶晶.浙江工業(yè)大學(xué) 2017
[7]基于Django框架的圖書管理系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 王兆媛.吉林大學(xué) 2016
本文編號(hào):3292668
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3292668.html
最近更新
教材專著