天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

對(duì)抗生成網(wǎng)絡(luò)表情生成研究

發(fā)布時(shí)間:2021-04-15 11:47
  臉部表情生成技術(shù)持續(xù)的研究,在圖形、視頻、動(dòng)畫方面取得了長久的進(jìn)步。人的臉部特征提供了大量豐富的信息,是身份識(shí)別與情感表達(dá)的重要關(guān)注部分。在實(shí)際生活中臉部表情生成技術(shù)有廣泛的應(yīng)用,如娛樂影視制作、計(jì)算機(jī)動(dòng)畫合成,以及醫(yī)療美容模擬等,得益于圖像變形技術(shù)的發(fā)展,以及深度神經(jīng)網(wǎng)絡(luò)模型的發(fā)展,只需要建立生成式模型就可以減少人工建模的繁雜操作,所以臉部表情生成技術(shù)有著廣闊的發(fā)展前景。本文的主要工作圍繞表情生成技術(shù)研究中存在難點(diǎn)展開,本論文的研究對(duì)表情生成的三個(gè)方面進(jìn)行了改進(jìn)。一是連續(xù)性的表情生成控制方法;二是支持類別間轉(zhuǎn)化(不同表情)和不同類型轉(zhuǎn)化(不同風(fēng)格)的方法;三是圖像效果評(píng)價(jià)的量化方法與生成質(zhì)量的優(yōu)化策略。對(duì)于傳統(tǒng)臉部動(dòng)畫表情生成技術(shù)金錢人力成本高,后期修改維護(hù)困難的問題。在框架中采用類似于對(duì)抗生成網(wǎng)絡(luò)中的CycleGAN的結(jié)構(gòu),并在其結(jié)構(gòu)的不同部分加入表情參數(shù)的控制。在模型參數(shù)上設(shè)計(jì)的結(jié)構(gòu)較為簡單,運(yùn)行速度快。生成對(duì)抗網(wǎng)絡(luò)開創(chuàng)性地結(jié)合生成式網(wǎng)絡(luò)和生成式網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)生成,但生成對(duì)抗網(wǎng)絡(luò)的生成方式限制較少,導(dǎo)致大量圖像像素的情況下網(wǎng)絡(luò)易失控。對(duì)于這一問題,本文設(shè)計(jì)了一種弱監(jiān)督的控制的機(jī)制,... 

【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校

【文章頁數(shù)】:68 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

對(duì)抗生成網(wǎng)絡(luò)表情生成研究


本論文研究表情生成問題的框圖表達(dá)

網(wǎng)絡(luò)結(jié)構(gòu)圖,生成模型,模型,圖像


喑ぁD怯媒鷯?先生的武俠技法,就是左右互搏。從概率統(tǒng)計(jì)的角度解釋就是在這個(gè)對(duì)抗生成的訓(xùn)練過程中,使得生成器的輸出分布與真實(shí)原始域的分布一致。從常見的判別模型和生成模型,理解對(duì)抗生成網(wǎng)絡(luò)。判別模型較多見,比如二分類器會(huì)有一個(gè)判別分界線,通過這個(gè)判別分界線去區(qū)分樣本的屬性。從概率角度分析就是獲得樣本屬于類別的概率,即是一個(gè)條件概率(|)。而生成模型代表的是在搜索空間內(nèi)去學(xué)習(xí)一個(gè)數(shù)據(jù)的分布,就像正太分布一樣,通過訓(xùn)練擬合整個(gè)分布,就是樣本數(shù)據(jù)集在整個(gè)分布中的產(chǎn)生的概率,即是聯(lián)合概率()。圖2-1基礎(chǔ)對(duì)抗生成網(wǎng)絡(luò)結(jié)構(gòu)圖[8]基于判別模型和生成模型,對(duì)抗網(wǎng)絡(luò)只是提出了一種對(duì)抗訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu)。用兩個(gè)模型,一個(gè)生成模型和一個(gè)判別模型形成對(duì)抗。判別模型用于判斷一個(gè)輸入的圖像是不是真實(shí)的圖像(來自真實(shí)數(shù)據(jù)集的采樣圖像),生成模型的任務(wù)是去模擬出一個(gè)似真的圖像。而在剛開始兩模型都是沒有經(jīng)過訓(xùn)練的,這兩個(gè)模型一起交替對(duì)抗訓(xùn)練,生成模型生成一張圖像去測試判別模型,然后判別模型去判斷這張圖像是真是假,最終在這兩個(gè)模型訓(xùn)練的過程中,兩個(gè)模型的判別抑或生成的能力越來越顯著,最終達(dá)到穩(wěn)態(tài)。GAN在計(jì)算機(jī)視覺方面的應(yīng)用豐富,當(dāng)然不單單是圖像,其他方向,譬如文本、語音,或者任何只要含有規(guī)律的數(shù)據(jù)合成,都能可以用GAN實(shí)現(xiàn)。見DavidFoster的這本[36]教程,教機(jī)器來學(xué)畫畫、寫作、譜曲、游戲。

表情,進(jìn)程


sedModel)的認(rèn)知方法,對(duì)于GAN的認(rèn)知還有另外一個(gè)角度,即從能量角度來展開。那就是把GAN視作一種EBM(EnergyBasedModel)模型,如EBGAN[37]。本文中將按照概率模型的這個(gè)認(rèn)識(shí)的視角來對(duì)各個(gè)模型展開說明,其他視角這里就不展開了。2.2基于對(duì)抗生成網(wǎng)絡(luò)的表情生成的發(fā)展進(jìn)程2014年GAN提出以來,GAN出現(xiàn)了爆發(fā)式的增長,文獻(xiàn)[30]中回顧了對(duì)抗生成網(wǎng)絡(luò)的算法、理論應(yīng)用,文中給出了一個(gè)對(duì)抗生成網(wǎng)絡(luò)的時(shí)間表。本文對(duì)此時(shí)間表刪去本文無關(guān)的算法,同時(shí)添加與本文相關(guān)且最新的方法,畫出了表情生成相關(guān)的對(duì)抗生成網(wǎng)絡(luò)的歷史進(jìn)程圖2-2。本文將對(duì)抗生成網(wǎng)絡(luò),按主題分為三個(gè)方向,一個(gè)是圖像的控制生成,包括CGAN[10]、Pix2Pix[10]、StarGAN[20]、GANimation[22]、UFDN[24],一個(gè)是圖像的高清生成,包括DCGAN[40]、CycleGAN[19]、PGGAN[16]、StyleGAN[17]、StyleGAN2[18],最后一個(gè)是對(duì)抗生成網(wǎng)絡(luò)的優(yōu)化問題。其中還有控制以及高清生成的合并分支,包括StackGAN[14]、StackGAN++[15]。這些網(wǎng)絡(luò)會(huì)在本文的第二、三章結(jié)合本文的課題進(jìn)行說明。在圖2-2中,我們也梳理了上面框架之間的繼承關(guān)系,方便我們了解現(xiàn)在主流的進(jìn)展。圖2-2表情生成相關(guān)的對(duì)抗生成網(wǎng)絡(luò)的歷史進(jìn)程對(duì)抗生成網(wǎng)絡(luò)的常用優(yōu)化。對(duì)于判別器來說,問題是在原始的GAN損失和結(jié)構(gòu)下,其得到的真實(shí)數(shù)據(jù)和生成數(shù)據(jù)之間的分布差異,等效于生成分布與真實(shí)分布的JS散度,而JS散度存在嚴(yán)重的梯度彌散問題,當(dāng)達(dá)到這一狀態(tài)的時(shí)候,判別器就不能對(duì)生成器給出明確的優(yōu)化方向。JS散度只有兩個(gè)分布重合時(shí)才能度量分布距離的大校針對(duì)上面的問題,WGAN[41]中提出Wassertein距離,有些文獻(xiàn)也稱EM距離去取代JS距離,能更好的衡量兩個(gè)分布之間的距離,且處處連

【參考文獻(xiàn)】:
期刊論文
[1]無參考圖像質(zhì)量評(píng)價(jià)綜述[J]. 王志明.  自動(dòng)化學(xué)報(bào). 2015(06)

碩士論文
[1]人臉表情遷移與分析方法研究[D]. 蒲倩.西安電子科技大學(xué) 2014



本文編號(hào):3139276

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/wenyilunwen/dongmansheji/3139276.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶da559***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com