最大間隔生成式對抗網(wǎng)絡及其在圖像生成和修復中的應用
發(fā)布時間:2021-11-03 11:39
圖像生成技術作為計算機視覺領域難度最高、最具有挑戰(zhàn)性的研究課題之一,需要計算機對圖像語義信息有較強的理解能力。而傳統(tǒng)的生成式模型受制于模型復雜度制約,無法利用較高層的語義信息。近年來基于深度神經(jīng)網(wǎng)絡(Deep Neural Nwtworks,DNN)的方法在圖像生成領域發(fā)展迅速,目前典型的算法有深度信念網(wǎng)絡(Deep Belief Nwtworks,DBN)、變分自編碼模型(Variational Auto-Encoder,VAE)和生成式對抗網(wǎng)絡(Generative Adversarial Nets,GAN)。這些方法展現(xiàn)了深度模型強大的特征學習和表達能力。然而盡管這類方法在圖像生成領域取得較大進展,目前其生成的圖片仍然分辨率較低,且生成圖片質量距離真實圖片仍有較大差距。這說明圖像生成技術仍然面臨很大挑戰(zhàn)。圖像修復技術的目的是自動對圖像缺損區(qū)域進行填充,使得整張圖片看起來較為完整。圖像修復技術可被應用于修復損壞圖片或者去除目標物體。早期的相關工作沒有利用高層語義信息,因此效果也受到限制。為了對待修復圖片的高層語義信息有更深刻的理解,基于深度學習的方法開始被應用到圖像修復中。本文首先...
【文章來源】:上海交通大學上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:105 頁
【學位級別】:碩士
【部分圖文】:
–1神經(jīng)網(wǎng)絡結構示意圖[6]
它具有一個可見層 (Visible Layer) 和一個隱藏層 (Hidden Layer),可見層由可見單元 (Visible Units) 組成,隱藏層由由隱單元 (Hidden Units) 組成,層內神經(jīng)元之間無連接,層間神經(jīng)元之間全連接,如圖1–2所示, 圖中 h 和 v 分別代表隱單元和可見單元。在 RBM 中可見層用于輸入訓練數(shù)據(jù),輸入信號通過可見層進入網(wǎng)絡并傳播到隱藏層,各隱藏層神經(jīng)元的激活狀態(tài)相互獨立。隱藏層用于特征檢測,其信號通過反向傳播到可見層,可見層神經(jīng)元的激活狀態(tài)同樣相互獨立。RBM 利用隱變量來表達描述輸入數(shù)據(jù)的特征分布,該過程沒有用到數(shù)據(jù)的標簽信息,因此 RBM 是一個無監(jiān)督生成模型。單層 RBM 網(wǎng)絡的目的是以無監(jiān)督的方式訓練網(wǎng)絡,使得可見層節(jié)點v的分布p v盡可能地擬合真實樣本空間的分布q v。訓練過程中 RBM 的權值通過計算 p v 的對數(shù)似然 logp v 的梯度來更新,該計算過程關系到求解 RBM 所確定分布的期望。從理論上可以證明,對于 RBM網(wǎng)絡結構只要隱藏層的隱藏神經(jīng)元節(jié)點足夠多
卷積層大大降低了網(wǎng)絡參數(shù)的規(guī)模,且可以很好地保留圖像的局部特征,每個卷積核一般只學習一種特征,且越高層的卷積核學習到的特征也越抽象,其工作原理如圖1–3所示。CNN 由于其卷積核的優(yōu)越性能可以勝任大部分計算機視覺任務,是現(xiàn)在最為流行的 DNN 模型。圖 1–3 CNN 結構示意圖 [21]Fig 1–3 The structure of CNN[21]目前 DNN 在計算機視覺各個領域都取得了遠超傳統(tǒng)方法的效果,DBN 作為較早期的 DNN 模型最先展示了深度模型的巨大潛力。后來 CNN 引入后相較于 DBN 表現(xiàn)出非常大的優(yōu)勢,包括參數(shù)規(guī)模小,容易訓練,保留局部特征等,因此迅速取代 DBN 成為研究熱度最高的深度神經(jīng)網(wǎng)絡。CNN 最初處理的是有監(jiān)督的判別式任務,在分類,檢測等任務上表現(xiàn)出色,之后也被推廣到無監(jiān)督領域,并和生成式模型相結合來進行圖像生成,Ranzato[22] 和 Dosovitskiy[23]提出 CNN 可以用來生成某一個具體的域的圖片(如椅子,人臉等),但是需要大— 8 —
本文編號:3473615
【文章來源】:上海交通大學上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:105 頁
【學位級別】:碩士
【部分圖文】:
–1神經(jīng)網(wǎng)絡結構示意圖[6]
它具有一個可見層 (Visible Layer) 和一個隱藏層 (Hidden Layer),可見層由可見單元 (Visible Units) 組成,隱藏層由由隱單元 (Hidden Units) 組成,層內神經(jīng)元之間無連接,層間神經(jīng)元之間全連接,如圖1–2所示, 圖中 h 和 v 分別代表隱單元和可見單元。在 RBM 中可見層用于輸入訓練數(shù)據(jù),輸入信號通過可見層進入網(wǎng)絡并傳播到隱藏層,各隱藏層神經(jīng)元的激活狀態(tài)相互獨立。隱藏層用于特征檢測,其信號通過反向傳播到可見層,可見層神經(jīng)元的激活狀態(tài)同樣相互獨立。RBM 利用隱變量來表達描述輸入數(shù)據(jù)的特征分布,該過程沒有用到數(shù)據(jù)的標簽信息,因此 RBM 是一個無監(jiān)督生成模型。單層 RBM 網(wǎng)絡的目的是以無監(jiān)督的方式訓練網(wǎng)絡,使得可見層節(jié)點v的分布p v盡可能地擬合真實樣本空間的分布q v。訓練過程中 RBM 的權值通過計算 p v 的對數(shù)似然 logp v 的梯度來更新,該計算過程關系到求解 RBM 所確定分布的期望。從理論上可以證明,對于 RBM網(wǎng)絡結構只要隱藏層的隱藏神經(jīng)元節(jié)點足夠多
卷積層大大降低了網(wǎng)絡參數(shù)的規(guī)模,且可以很好地保留圖像的局部特征,每個卷積核一般只學習一種特征,且越高層的卷積核學習到的特征也越抽象,其工作原理如圖1–3所示。CNN 由于其卷積核的優(yōu)越性能可以勝任大部分計算機視覺任務,是現(xiàn)在最為流行的 DNN 模型。圖 1–3 CNN 結構示意圖 [21]Fig 1–3 The structure of CNN[21]目前 DNN 在計算機視覺各個領域都取得了遠超傳統(tǒng)方法的效果,DBN 作為較早期的 DNN 模型最先展示了深度模型的巨大潛力。后來 CNN 引入后相較于 DBN 表現(xiàn)出非常大的優(yōu)勢,包括參數(shù)規(guī)模小,容易訓練,保留局部特征等,因此迅速取代 DBN 成為研究熱度最高的深度神經(jīng)網(wǎng)絡。CNN 最初處理的是有監(jiān)督的判別式任務,在分類,檢測等任務上表現(xiàn)出色,之后也被推廣到無監(jiān)督領域,并和生成式模型相結合來進行圖像生成,Ranzato[22] 和 Dosovitskiy[23]提出 CNN 可以用來生成某一個具體的域的圖片(如椅子,人臉等),但是需要大— 8 —
本文編號:3473615
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3473615.html
最近更新
教材專著