基于深度學習的圖像復原技術研究
發(fā)布時間:2021-01-17 13:20
近年來,隨著深度學習技術的出現(xiàn),為圖像復原領域提供了技術上的新方向,出現(xiàn)了眾多基于深度學習技術的圖像復原算法。已有研究主要關注圖像復原中的圖像去噪和圖像超分辨重構兩個領域。這兩個領域本質上屬于同一研究目標,即對圖像丟失的信息進行重建。圖像去噪主要針對高斯白噪聲的去噪問題,已有的基于先驗或者基于學習的方法,存在圖像細節(jié)或邊緣模糊,算法時耗高等問題。圖像超分辨重構主要是對固定尺度的單張圖像進行放大重構,已有的基于重構模型或者基于學習的方法,存在圖像細節(jié)重構不完整,算法參數量大等問題。從深度學習技術的角度解決兩個領域的問題,根本上是一致的,就是提取更有效的圖像特征。在對兩個方向進行了深入調研后,圍繞兩個領域中各自的研究熱點和難點,分別進行了研究和改進。對于圖像去噪領域,已有的卷積神經網絡方法,存在收斂速度慢,測試速度慢,不能采用同一網絡完成灰度圖和彩色圖去噪等問題。本文提出了一種基于多尺度特征的圖像去噪算法,利用不同大小的卷積核提取不同尺度的特征,結合標準化的擴張卷積設計方法,加入殘差學習,PReLU等常用的深度學習技術,訓練了一個端到端的深度去噪網絡。采用多個模型消融實驗確定了網絡結構。實...
【文章來源】:重慶大學重慶市 211工程院校 985工程院校 教育部直屬院校
【文章頁數】:69 頁
【學位級別】:碩士
【部分圖文】:
圖像復原流程
重慶大學碩士學位論文2圖像復原的相關理論與方法9圖2.2神經元模型Figure.2.2Neuronmodel模型。左側的0,1,2表示信息輸入,可以擴展到多個。0,1,2表示各輸入信息對應的權重。神經元模型中間的公式表示輸入信息和權重的乘積累加。f則對應于激活函數。這里的激活函數是一個閾值控制,如公式2.11所示。公式里面的θ代表的是閾值,超過這個閾值則為0,相當于不激活該信號,低于這個閾值,則為1,相當于激活該信號。={0∑>()1∑≤()(2.11)卷積神經網絡一般包括輸入層、卷積層、池化層、激活函數層和全連接層[88],如圖2.3所示。卷積神經網絡區(qū)別于其他傳統(tǒng)神經網絡主要是因為稀疏連接和權重共享兩個特點。稀疏連接帶來的好處就是讓模型有更好的表征力,并且不需要手動選擇或設計特征,權重共享使得卷積神經網絡能處理高維的數據,降低了網絡的復雜性。這些特點使得卷積神經網絡非常適合處理圖像相關的任務。在圖像復原的任務里面,本文也是采用的卷積神經網絡來進行處理。2.3.1激活函數在前面提到的神經元模型中,如果沒有激活函數f,那么剩余部分組成的就是一個線性模型。很顯然,僅依靠線性模型難以解決現(xiàn)實生活中的絕大多數問題。而人腦的處理機制也并非一種線性關系。因此,引入激活函數的最初目的是為了增加模型的非線性,使得神經網絡模型可以去逼近任意的非線性函數,增強模型的泛化能力。這里重點介紹幾種在深度學習技術中常用的激活函數。第一種是sigmoid函數[53],如公式2.12所示。它來源于統(tǒng)計學,模型非常簡
重慶大學碩士學位論文2圖像復原的相關理論與方法10圖2.3卷積神經網絡模型示例圖Figure.2.3Examplediagramofconvolutionalneuralnetworkmodel()=11+(2.12)單,并且在機器學習的很多模型中表現(xiàn)優(yōu)異。Sigmoid在坐標軸上的圖像曲線形似一個S曲線,值域在[0,1]之間。神經網絡很長一段時間就是選用sigmoid作為激活函數,因為其有易求導、穩(wěn)定等優(yōu)點。不管在大小數據集上,只要經過較長時間的訓練學習,都能取得不錯的結果。但是也有不足的地方,由于函數的輸出都是正值,導致權重更新的速度降低,并且在神經網絡的反向傳播過程中,遠離原點坐標的值趨于穩(wěn)定,易產生梯度消失的問題。第二種激活函數是雙曲正切函數,其表達式如公式2.13所示。雙曲正切函數()=sinhcosh=121+2(2.13)也是常用的激活函數之一,它的曲線圖也是S型,值域在[1,1]之間,雙曲函數更加適用于特征區(qū)分度很好的情況,在不斷的迭代中能擴大這種區(qū)分度。對于特征之間相差不多或區(qū)別不明顯時,sigmoid的效果會更好。由于雙曲正切函數也是S曲線之一,在訓練時同樣會產生梯度彌漫的情況,不利于模型優(yōu)化。第三種是現(xiàn)在常用的線性整流激活函數ReLU[54],表達式如公式2.14所示。它的提出主要是為了緩解sigmoid函數帶來的梯度彌散問題。在實驗中發(fā)現(xiàn),經過ReLU處理的數據具有非常好的稀疏性,并且能降低計算量,加速模型訓練,由于其函數表達式的特點,求出來的梯度是常數,有助于網絡收斂。但是ReLU()=(0,)={0≤0>0(2.14)也有缺點,在曲線圖里,左半部分均為0,導致在訓練時會出現(xiàn)神經元“死亡”的現(xiàn)象。在實驗中發(fā)現(xiàn),當學習率很大時,極易出現(xiàn)神經元“死亡”現(xiàn)象。設置一個較小的學習率,能降低神經元的“死亡率”。第四種要介紹的激活函數是?
【參考文獻】:
期刊論文
[1]基于改進K-SVD和非局部正則化的圖像去噪[J]. 楊愛萍,田玉針,何宇清,董翠翠. 計算機工程. 2015(05)
[2]煤礦井下視頻監(jiān)控圖像噪聲消除算法的研究[J]. 孫永,賀廣強,黃興,張立剛. 科技信息. 2011(09)
[3]煤礦工業(yè)電視圖像增強技術的應用研究[J]. Yuan XiaopingQian JianshengFu HuishengLiu Fuqiang (China University of Mining and Technology). 煤炭學報. 1999(02)
博士論文
[1]基于集成學習的人臉識別研究[D]. 李艷秋.合肥工業(yè)大學 2018
碩士論文
[1]基于深度學習的圖像去噪算法研究[D]. 鄧正林.電子科技大學 2018
[2]基于隨機森林的單幅圖像超分辨重建算法研究[D]. 盧歡.中國地質大學(北京) 2017
本文編號:2982964
【文章來源】:重慶大學重慶市 211工程院校 985工程院校 教育部直屬院校
【文章頁數】:69 頁
【學位級別】:碩士
【部分圖文】:
圖像復原流程
重慶大學碩士學位論文2圖像復原的相關理論與方法9圖2.2神經元模型Figure.2.2Neuronmodel模型。左側的0,1,2表示信息輸入,可以擴展到多個。0,1,2表示各輸入信息對應的權重。神經元模型中間的公式表示輸入信息和權重的乘積累加。f則對應于激活函數。這里的激活函數是一個閾值控制,如公式2.11所示。公式里面的θ代表的是閾值,超過這個閾值則為0,相當于不激活該信號,低于這個閾值,則為1,相當于激活該信號。={0∑>()1∑≤()(2.11)卷積神經網絡一般包括輸入層、卷積層、池化層、激活函數層和全連接層[88],如圖2.3所示。卷積神經網絡區(qū)別于其他傳統(tǒng)神經網絡主要是因為稀疏連接和權重共享兩個特點。稀疏連接帶來的好處就是讓模型有更好的表征力,并且不需要手動選擇或設計特征,權重共享使得卷積神經網絡能處理高維的數據,降低了網絡的復雜性。這些特點使得卷積神經網絡非常適合處理圖像相關的任務。在圖像復原的任務里面,本文也是采用的卷積神經網絡來進行處理。2.3.1激活函數在前面提到的神經元模型中,如果沒有激活函數f,那么剩余部分組成的就是一個線性模型。很顯然,僅依靠線性模型難以解決現(xiàn)實生活中的絕大多數問題。而人腦的處理機制也并非一種線性關系。因此,引入激活函數的最初目的是為了增加模型的非線性,使得神經網絡模型可以去逼近任意的非線性函數,增強模型的泛化能力。這里重點介紹幾種在深度學習技術中常用的激活函數。第一種是sigmoid函數[53],如公式2.12所示。它來源于統(tǒng)計學,模型非常簡
重慶大學碩士學位論文2圖像復原的相關理論與方法10圖2.3卷積神經網絡模型示例圖Figure.2.3Examplediagramofconvolutionalneuralnetworkmodel()=11+(2.12)單,并且在機器學習的很多模型中表現(xiàn)優(yōu)異。Sigmoid在坐標軸上的圖像曲線形似一個S曲線,值域在[0,1]之間。神經網絡很長一段時間就是選用sigmoid作為激活函數,因為其有易求導、穩(wěn)定等優(yōu)點。不管在大小數據集上,只要經過較長時間的訓練學習,都能取得不錯的結果。但是也有不足的地方,由于函數的輸出都是正值,導致權重更新的速度降低,并且在神經網絡的反向傳播過程中,遠離原點坐標的值趨于穩(wěn)定,易產生梯度消失的問題。第二種激活函數是雙曲正切函數,其表達式如公式2.13所示。雙曲正切函數()=sinhcosh=121+2(2.13)也是常用的激活函數之一,它的曲線圖也是S型,值域在[1,1]之間,雙曲函數更加適用于特征區(qū)分度很好的情況,在不斷的迭代中能擴大這種區(qū)分度。對于特征之間相差不多或區(qū)別不明顯時,sigmoid的效果會更好。由于雙曲正切函數也是S曲線之一,在訓練時同樣會產生梯度彌漫的情況,不利于模型優(yōu)化。第三種是現(xiàn)在常用的線性整流激活函數ReLU[54],表達式如公式2.14所示。它的提出主要是為了緩解sigmoid函數帶來的梯度彌散問題。在實驗中發(fā)現(xiàn),經過ReLU處理的數據具有非常好的稀疏性,并且能降低計算量,加速模型訓練,由于其函數表達式的特點,求出來的梯度是常數,有助于網絡收斂。但是ReLU()=(0,)={0≤0>0(2.14)也有缺點,在曲線圖里,左半部分均為0,導致在訓練時會出現(xiàn)神經元“死亡”的現(xiàn)象。在實驗中發(fā)現(xiàn),當學習率很大時,極易出現(xiàn)神經元“死亡”現(xiàn)象。設置一個較小的學習率,能降低神經元的“死亡率”。第四種要介紹的激活函數是?
【參考文獻】:
期刊論文
[1]基于改進K-SVD和非局部正則化的圖像去噪[J]. 楊愛萍,田玉針,何宇清,董翠翠. 計算機工程. 2015(05)
[2]煤礦井下視頻監(jiān)控圖像噪聲消除算法的研究[J]. 孫永,賀廣強,黃興,張立剛. 科技信息. 2011(09)
[3]煤礦工業(yè)電視圖像增強技術的應用研究[J]. Yuan XiaopingQian JianshengFu HuishengLiu Fuqiang (China University of Mining and Technology). 煤炭學報. 1999(02)
博士論文
[1]基于集成學習的人臉識別研究[D]. 李艷秋.合肥工業(yè)大學 2018
碩士論文
[1]基于深度學習的圖像去噪算法研究[D]. 鄧正林.電子科技大學 2018
[2]基于隨機森林的單幅圖像超分辨重建算法研究[D]. 盧歡.中國地質大學(北京) 2017
本文編號:2982964
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/2982964.html
最近更新
教材專著