天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于生成對(duì)抗網(wǎng)絡(luò)的美學(xué)圖像生成研究

發(fā)布時(shí)間:2020-04-21 04:40
【摘要】:圖像作為蘊(yùn)含大量信息的載體,在學(xué)術(shù)研究以及生產(chǎn)生活的各個(gè)方面發(fā)揮著不可替代的重要作用。隨著生活水平的提高,人們?cè)桨l(fā)關(guān)注圖像的審美效果,傾向于選擇具有美學(xué)吸引力的圖像。圖像美學(xué)通過(guò)模擬人類(lèi)視覺(jué)系統(tǒng),構(gòu)建高美學(xué)質(zhì)量的圖像,是圖像研究領(lǐng)域富有挑戰(zhàn)性的課題。本文利用對(duì)抗式學(xué)習(xí)的規(guī)則,就生成美學(xué)圖像方面展開(kāi)了探索,完成了自動(dòng)生成具有美學(xué)屬性的圖像和圖像美學(xué)增強(qiáng)的相關(guān)研究。本文的主要工作如下:1.本文提出了一種能夠自動(dòng)生成美學(xué)圖像的深度模型。現(xiàn)有的生成對(duì)抗網(wǎng)絡(luò)模型大多基于簡(jiǎn)單的數(shù)據(jù)集訓(xùn)練,生成的圖像在視覺(jué)和語(yǔ)義內(nèi)容方面不夠合理,不符合人們的審美需求。為了改善生成圖像的美學(xué)效果,本工作基于先進(jìn)的深度卷積生成對(duì)抗網(wǎng)絡(luò)(DCGAN)模型,引入了美學(xué)損失函數(shù)和視覺(jué)內(nèi)容損失函數(shù),其中美學(xué)損失試圖最大化圖像的視覺(jué)美感,而視覺(jué)內(nèi)容損失根據(jù)高級(jí)視覺(jué)內(nèi)容特征最小化生成的圖像與真實(shí)圖像之間的語(yǔ)義差異。本工作在兩個(gè)公開(kāi)的標(biāo)準(zhǔn)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),定性和定量結(jié)果證明了兩種損失函數(shù)的有效性。2.本文優(yōu)化了一種能夠增強(qiáng)圖像美學(xué)質(zhì)量的深度模型。手機(jī)等智能工具的普及導(dǎo)致了圖像數(shù)據(jù)呈現(xiàn)爆炸式增長(zhǎng),但是由于拍攝方法和拍攝工具等因素的影響,用戶(hù)上傳分享的圖像存在不夠美觀的現(xiàn)象。為了增強(qiáng)圖像的美學(xué)效果,該模型探索了一種能夠自動(dòng)的端到端的提升圖像美學(xué)質(zhì)量的方法,利用增強(qiáng)網(wǎng)絡(luò)的逆映射網(wǎng)絡(luò)減弱了對(duì)于訓(xùn)練中要求成對(duì)數(shù)據(jù)集的限制,同時(shí)設(shè)計(jì)了有效的損失函數(shù),即通過(guò)生成對(duì)抗規(guī)則構(gòu)建在訓(xùn)練中主動(dòng)學(xué)習(xí)的顏色和紋理?yè)p失,增強(qiáng)生成圖像平滑性的總變分損失,這些損失在一定程度上改善了圖像的美學(xué)質(zhì)量。本文在此基礎(chǔ)上改進(jìn)了內(nèi)容一致性損失的設(shè)計(jì)思路,在多個(gè)公開(kāi)數(shù)據(jù)集上的實(shí)驗(yàn)驗(yàn)證了優(yōu)化方法的有效性。
【圖文】:

網(wǎng)絡(luò)結(jié)構(gòu)圖,網(wǎng)絡(luò)結(jié)構(gòu),詳細(xì)地,原理


圖 2.1AlexNet 的網(wǎng)絡(luò)結(jié)構(gòu)[39]Fig 2.1 The structure of AlexNet network[39]為了更深入地了解 CNN 網(wǎng)絡(luò)的原理,下面以 AlexNet 為例,詳細(xì)地?cái)?

激活函數(shù),欠采樣,下采樣


ReLU激活函數(shù)
【學(xué)位授予單位】:合肥工業(yè)大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類(lèi)號(hào)】:TP391.41;TP183

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 李昂;宋曉瑩;;基于生成對(duì)抗網(wǎng)絡(luò)的遙感圖像超分辨率重建[J];光學(xué)與光電技術(shù);2019年06期

2 孫旭;李曉光;李嘉鋒;卓力;;基于深度學(xué)習(xí)的圖像超分辨率復(fù)原研究進(jìn)展[J];自動(dòng)化學(xué)報(bào);2017年05期

3 曾凱;丁世飛;;圖像超分辨率重建的研究進(jìn)展[J];計(jì)算機(jī)工程與應(yīng)用;2017年16期

4 沈煥鋒;李平湘;張良培;王毅;;圖像超分辨率重建技術(shù)與方法綜述[J];光學(xué)技術(shù);2009年02期

5 丁海勇;卞正富;;數(shù)字圖像超分辨率重構(gòu)技術(shù)研究[J];計(jì)算機(jī)與數(shù)字工程;2007年10期

6 孔玲莉,黃華,齊春,劉美娟;圖像超分辨率研究的最新進(jìn)展[J];光學(xué)技術(shù);2004年03期

7 謝雪晴;;基于殘差密集網(wǎng)絡(luò)的單幅圖像超分辨率重建[J];計(jì)算機(jī)應(yīng)用與軟件;2019年10期

8 李昂;;基于對(duì)抗神經(jīng)網(wǎng)絡(luò)和語(yǔ)義分割技術(shù)的圖像超分辨率系統(tǒng)的研發(fā)和應(yīng)用[J];有線(xiàn)電視技術(shù);2019年11期

9 張清勇;陳智勇;駱瀟原;;基于生成網(wǎng)絡(luò)的遙感圖像超分辨率的研究[J];實(shí)驗(yàn)室研究與探索;2019年03期

10 王威;張彤;王新;;用于圖像超分辨率重構(gòu)的深度學(xué)習(xí)方法綜述[J];小型微型計(jì)算機(jī)系統(tǒng);2019年09期

相關(guān)會(huì)議論文 前10條

1 林國(guó)強(qiáng);王博;孔英會(huì);胡啟楊;;基于壓縮感知的變電站巡檢圖像超分辨率重建[A];第37屆中國(guó)控制會(huì)議論文集(F)[C];2018年

2 姜倩茹;白煌;;基于雙字典設(shè)計(jì)的圖像超分辨率重構(gòu)[A];信號(hào)處理在生儀2014學(xué)術(shù)年會(huì)論文集[C];2014年

3 楊浩;高建坡;陳向東;吳鎮(zhèn)揚(yáng);;利用示例圖像獲取先驗(yàn)知識(shí)的圖像超分辨率重建算法[A];第一屆中國(guó)高校通信類(lèi)院系學(xué)術(shù)研討會(huì)論文集[C];2007年

4 張東;韓軍;;圖像超分辨率重建算法研究[A];2010年西部光子學(xué)學(xué)術(shù)會(huì)議摘要集[C];2010年

5 阮小燕;陳向?qū)?高孟男;;基于相位相關(guān)法與小波變換的圖像超分辨率重建[A];中國(guó)電子學(xué)會(huì)第十六屆信息論學(xué)術(shù)年會(huì)論文集[C];2009年

6 張煜東;吳樂(lè)南;奚吉;王水花;;變長(zhǎng)小生境算法用于圖像超分辨率復(fù)原[A];2009年通信理論與信號(hào)處理學(xué)術(shù)年會(huì)論文集[C];2009年

7 閆允一;郭寶龍;;基于小波的圖像超分辨率重建算法研究[A];第三屆全國(guó)數(shù)字成像技術(shù)及相關(guān)材料發(fā)展與應(yīng)用學(xué)術(shù)研討會(huì)論文摘要集[C];2004年

8 張瓊;付懷正;沈民奮;;基于稀疏表示的彩色圖像超分辨率重建算法[A];第十五屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2010年

9 姚林;;基于雙邊濾波插值圖像超分辨率重建算法研究[A];云南省測(cè)繪地理信息學(xué)會(huì)2015年學(xué)術(shù)年會(huì)論文集[C];2015年

10 韓玉兵;殷瑋瑋;吳樂(lè)南;;基于Wavelet-HMM的圖像超分辨率重建[A];第一屆建立和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會(huì)議(HHME2005)論文集[C];2005年

相關(guān)重要報(bào)紙文章 前2條

1 記者 劉肖勇 蔡敏霞 通訊員 嚴(yán)PrPr;一套算法讓模糊低清小視頻變高清[N];廣東科技報(bào);2019年

2 本報(bào)見(jiàn)習(xí)記者 丁寧寧 通訊員 嚴(yán)PrPr;一套算法奪四項(xiàng)冠軍[N];中國(guó)科學(xué)報(bào);2019年

相關(guān)博士學(xué)位論文 前10條

1 邱康;基于機(jī)器學(xué)習(xí)的圖像超分辨率重建關(guān)鍵技術(shù)研究[D];武漢大學(xué);2018年

2 張鳳珍;分離字典優(yōu)化及其在圖像處理中的應(yīng)用[D];北京交通大學(xué);2018年

3 肖斐;圖像超分辨率與基于目標(biāo)模型的目標(biāo)識(shí)別方法研究[D];華中科技大學(xué);2017年

4 唐永亮;單幅圖像超分辨率重建方法研究[D];重慶大學(xué);2018年

5 岳波;基于學(xué)習(xí)的圖像超分辨率重建方法研究[D];西安電子科技大學(xué);2018年

6 孫鐿誠(chéng);基于壓縮感知的圖像超分辨率重建方法研究[D];南京理工大學(xué);2018年

7 魏燁;單幅圖像超分辨率重建方法及其視覺(jué)位移測(cè)量應(yīng)用研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2019年

8 翟海天;圖像超分辨率重建關(guān)鍵技術(shù)研究[D];西北工業(yè)大學(xué);2016年

9 查志遠(yuǎn);基于稀疏表示與低秩模型的圖像復(fù)原算法研究[D];南京大學(xué);2018年

10 徐向陽(yáng);RGB-D圖像內(nèi)容分析關(guān)鍵技術(shù)研究[D];南京大學(xué);2018年

相關(guān)碩士學(xué)位論文 前10條

1 李超;基于卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率重建研究[D];安徽理工大學(xué);2019年

2 王博琛;基于稀疏字典學(xué)習(xí)的遙感圖像超分辨率重建研究[D];西北大學(xué);2019年

3 房W汌,

本文編號(hào):2635376


資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2635376.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)1cf13***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com