天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 碩博論文 > 信息類碩士論文 >

基于改進(jìn)GAN網(wǎng)絡(luò)的圖像去噪及圖像超分辨方法研究

發(fā)布時(shí)間:2020-12-13 17:16
  近年來,隨著深度學(xué)習(xí)理論的成功應(yīng)用,很多研究者對相關(guān)內(nèi)容越來越感興趣,大量的計(jì)算資源和設(shè)計(jì)人員投入到了相關(guān)理論及應(yīng)用的研究中去,自2014年Ian Goodfellow提出生成對抗網(wǎng)絡(luò)理論(GAN)以來,人們對于它的理論思想及其在各個(gè)場景中的應(yīng)用研究越來越感興趣,人們將具有深度結(jié)構(gòu)的卷積網(wǎng)絡(luò)與GAN相結(jié)合起來,做出了令人驚訝的探究。GAN網(wǎng)絡(luò)的核心思想是兩人互博的游戲,這種對抗的思想類似于人的行為,從某種程度上來說,研究GAN網(wǎng)絡(luò)的理論及其應(yīng)用,實(shí)際上是在研究人類的決策行為。以往的數(shù)字圖像的處理大多依賴于傳統(tǒng)的方法,如均方誤差,高斯去噪,邊緣提取等,這些方法在對質(zhì)量要求不是很高的應(yīng)用場景下確實(shí)能夠完成大多數(shù)圖像處理任務(wù),圖像增強(qiáng),高分辨,圖像的去噪,圖像的生成等。但是這些傳統(tǒng)的處理算法最明顯的難點(diǎn)在于設(shè)計(jì)時(shí)的人為性,這些算法太過于依賴人們提出的算法,而沒有新時(shí)代深度學(xué)習(xí)中的自主學(xué)習(xí)的能力,這就導(dǎo)致了在很多復(fù)雜的應(yīng)用場景下,難以再用傳統(tǒng)的方法進(jìn)行處理。但GAN網(wǎng)絡(luò)的誕生為這些問題提供了新的解決思路,GAN網(wǎng)絡(luò)在處理圖像過程中不像傳統(tǒng)的算法那樣依賴人為設(shè)計(jì)參數(shù),而是能夠自主的學(xué)習(xí)并更新參數(shù)... 

【文章來源】:西南大學(xué)重慶市 211工程院校 教育部直屬院校

【文章頁數(shù)】:63 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于改進(jìn)GAN網(wǎng)絡(luò)的圖像去噪及圖像超分辨方法研究


DCGAN網(wǎng)絡(luò)在celebA數(shù)據(jù)集上生成的人臉圖像

生成圖像,真實(shí)性,圖像


癓argeScaleGANTrainingforHighFidelityNaturalImageSynthesis”。圖1.2展示的這些圖片都是利用BigGAN網(wǎng)絡(luò)來生成的,實(shí)驗(yàn)結(jié)果展示了生成的圖像質(zhì)量很高,足以以假亂真。這是GAN首次生成具有高保真度(InceptionScore)和低品種差距(FrechetInceptionDistance)的圖像。在BigGAN提出以前,其他網(wǎng)路生成圖像的最高得分是52.52,而其出現(xiàn)后的得分是166.3,比以往的技術(shù)(SOTA)要高100%。此外,他們還把Frechet初始距離(FID)得分從18.65提高到了9.6。這些都是非常令人驚艷的結(jié)果。它主要的貢獻(xiàn)是改進(jìn)了生成器的正交正則化。圖1.2BigGAN生成的具有高度真實(shí)性的圖像StyleGAN是GAN研究領(lǐng)域的另一項(xiàng)重大突破。StyleGAN由Nvidia在題為“AStyle-BasedGeneratorArchitectureforGenerativeAdversarialNetwork”的論文中介紹。StykleGAN在生成人類面部圖像的任務(wù)里面創(chuàng)造了新的記錄。它的核心算法是風(fēng)格轉(zhuǎn)移的技術(shù)或者風(fēng)格的混合技術(shù)。這種網(wǎng)絡(luò)不僅可以用來生成人臉圖像,還能用來生成很清晰的汽車圖像、臥室的圖像等等。這是GAN領(lǐng)域取得的有一個(gè)重大的改進(jìn)網(wǎng)絡(luò),也是許多深度學(xué)習(xí)研究者的靈感來源。由HanZhang,TaoXu,HongshengLi還有其他人在題為“StackGAN:TexttoPhoto-realisticImageSynthesiswithStackedGenerativeAdversarialNetworks”的論文中提出了StackGAN,StackGAN本質(zhì)上就是兩個(gè)CGAN的堆疊。如圖1.3所示是其網(wǎng)絡(luò)結(jié)構(gòu),如果我們沒辦法一次生成高分辨率又plausible的圖片,那么可以分兩次生成。第一階段的ConditionalGAN利用文本描述提取出的嵌入向量(textembedding)粗略勾畫物體主要的形狀和顏色,生成低分辨率的圖片。第二階段的對抗生成網(wǎng)絡(luò)將第一階段的低分辨率圖片和文本描述提取出的嵌入向量(textembedding)作為輸入,生成細(xì)節(jié)豐富的高

網(wǎng)絡(luò)結(jié)構(gòu)圖,網(wǎng)絡(luò)結(jié)構(gòu),圖像


西南大學(xué)碩士學(xué)位論文8兩個(gè)網(wǎng)絡(luò)構(gòu)成,給一個(gè)文本的描述,就可以通過學(xué)習(xí)訓(xùn)練,生成相應(yīng)的逼真圖像。圖1.4給出了這種網(wǎng)絡(luò)的一個(gè)應(yīng)用示例,給定一些對鳥類的文本描述時(shí),它生成了非常逼真的圖像,而且這種圖像和所給定的文本描述非常類似。根據(jù)文本生成圖像的應(yīng)用存在著許多的實(shí)際應(yīng)用,例如把文本描述的故事轉(zhuǎn)換成相應(yīng)的漫畫內(nèi)容,根據(jù)一段文字的描述,來生成某個(gè)犯罪嫌疑人的照片等。圖1.3StackGAN的網(wǎng)絡(luò)結(jié)構(gòu)圖1.4StackGAN根據(jù)文本描述生成的圖像CycleGAN由Jun-YanZhu,TaesungPark,PhillipIsola和AlexeiA.Efros在“UnpairedImage-to-ImageTranslationusingCycle-ConsistentAdversarialNetworks”的論文中提出。這個(gè)網(wǎng)絡(luò)是環(huán)形結(jié)構(gòu),它有兩個(gè)生成器和兩個(gè)判別器,如圖1.5所示。用X來代表X域的圖像,Y代表Y域的圖像。利用生成器G可以把X域的圖像生成Y域的圖像,然后通過另一個(gè)生成器F可以把Y域的圖像重構(gòu)成X

【參考文獻(xiàn)】:
期刊論文
[1]基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建[J]. 周登文,趙麗娟,段然,柴曉亮.  自動(dòng)化學(xué)報(bào). 2019(06)
[2]基于對抗訓(xùn)練策略的語言模型數(shù)據(jù)增強(qiáng)技術(shù)[J]. 張一珂,張鵬遠(yuǎn),顏永紅.  自動(dòng)化學(xué)報(bào). 2018(05)
[3]基于條件深度卷積生成對抗網(wǎng)絡(luò)的圖像識(shí)別方法[J]. 唐賢倫,杜一銘,劉雨微,李佳歆,馬藝瑋.  自動(dòng)化學(xué)報(bào). 2018(05)
[4]面向自然語言處理的深度學(xué)習(xí)研究[J]. 奚雪峰,周國棟.  自動(dòng)化學(xué)報(bào). 2016(10)
[5]空間移不變系統(tǒng)圖像超分辨復(fù)原的快速解耦算法[J]. 黃麗麗,肖亮,韋志輝,張軍.  自動(dòng)化學(xué)報(bào). 2010(02)
[6]圖像超分辨率重建技術(shù)與方法綜述[J]. 沈煥鋒,李平湘,張良培,王毅.  光學(xué)技術(shù). 2009(02)
[7]基于PSNR與SSIM聯(lián)合的圖像質(zhì)量評價(jià)模型[J]. 佟雨兵,張其善,祁云平.  中國圖象圖形學(xué)報(bào). 2006(12)



本文編號(hào):2914890

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2914890.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶74005***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com