基于深度學(xué)習(xí)的低照度圖像增強(qiáng)算法研究
發(fā)布時間:2021-02-23 08:12
在低照度環(huán)境下,成像設(shè)備捕獲的圖像常常存在細(xì)節(jié)信息丟失、對比度較低、動態(tài)范圍較差、噪聲嚴(yán)重等諸多問題。這類圖像不但會影響人類的視覺感知能力,同時會影響基于視覺信息的人工智能算法的性能。通過圖像增強(qiáng)技術(shù),可以有效的提高低照度圖像的質(zhì)量,使圖像擁有更好的清晰度、更豐富的紋理細(xì)節(jié)信息以及較低的圖像噪聲。由于低照度圖像增強(qiáng)算法目前仍面臨諸多挑戰(zhàn),且在人類生活中具有廣泛的用途,因此這個問題無論是從科學(xué)研究的角度,還是從實(shí)際應(yīng)用的角度來看都是意義重大的。本文關(guān)注于如何增強(qiáng)低照度環(huán)境下圖像質(zhì)量的問題,結(jié)合目前在計(jì)算機(jī)視覺領(lǐng)域取得諸多進(jìn)步的深度神經(jīng)網(wǎng)絡(luò)算法,以及多粒度分析的思想,展開了一系列的研究。文章的主要工作包括:首先,本文在第一章和第二章介紹了相關(guān)的背景知識。在第三章中通過對深度神經(jīng)網(wǎng)絡(luò)中不同大小感受野的卷積核對深度神經(jīng)網(wǎng)絡(luò)性能影響的分析,受多粒度分析的啟發(fā),結(jié)合殘差網(wǎng)絡(luò)和密集網(wǎng)絡(luò)的思想,提出了多粒度殘差密集卷積塊。本方法在一個模塊中使用不同感受野大小的卷積核對深度卷積神經(jīng)網(wǎng)絡(luò)上一層輸出的特征提取不同粒度的信息,在模塊的最后通過對不同粒度下的特征信息進(jìn)行融合生成新的特征;诙嗔6葰埐蠲芗矸e塊...
【文章來源】:山西大學(xué)山西省
【文章頁數(shù)】:72 頁
【學(xué)位級別】:碩士
【圖文】:
MCP模型示意圖
第二章相關(guān)內(nèi)容(a)Sigmoid(b)Tanh(c)ReLu圖2.2不同激活函數(shù)曲線示意圖網(wǎng)絡(luò)中常用的激活函數(shù)有Sigmoid函數(shù)、Tanh函數(shù)、Relu函數(shù),其數(shù)學(xué)表達(dá)式如公式2.2所示,圖2.2展示了這三個函數(shù)的曲線形狀。sigmoid(x)=11+ex,tanh(x)=21+e2x1,relu(x)=max(0,x)(2.2)如圖2.3所示,是一個簡單的四分類深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由多個簡單神經(jīng)元組成的多層深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),每一層神經(jīng)元的輸入都是上一層神經(jīng)元的輸出。深度神經(jīng)網(wǎng)絡(luò)的輸入為待分類樣本,輸出為屬于四個類別中每個類別的概率值,一般情況下取最大的概率值作為該樣本屬于的類別。圖2.3多層深度神經(jīng)網(wǎng)絡(luò)示意圖2.2.2深度神經(jīng)網(wǎng)絡(luò)參數(shù)優(yōu)化深度神經(jīng)網(wǎng)絡(luò)通過學(xué)習(xí)的方法學(xué)習(xí)從x到y(tǒng)的映射函數(shù),其中x是網(wǎng)絡(luò)的輸入信息,y是期望得到的結(jié)果,這個函數(shù)的參數(shù)便是需要通過數(shù)據(jù)訓(xùn)練得到的深度11
第二章相關(guān)內(nèi)容(a)Sigmoid(b)Tanh(c)ReLu圖2.2不同激活函數(shù)曲線示意圖網(wǎng)絡(luò)中常用的激活函數(shù)有Sigmoid函數(shù)、Tanh函數(shù)、Relu函數(shù),其數(shù)學(xué)表達(dá)式如公式2.2所示,圖2.2展示了這三個函數(shù)的曲線形狀。sigmoid(x)=11+ex,tanh(x)=21+e2x1,relu(x)=max(0,x)(2.2)如圖2.3所示,是一個簡單的四分類深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由多個簡單神經(jīng)元組成的多層深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),每一層神經(jīng)元的輸入都是上一層神經(jīng)元的輸出。深度神經(jīng)網(wǎng)絡(luò)的輸入為待分類樣本,輸出為屬于四個類別中每個類別的概率值,一般情況下取最大的概率值作為該樣本屬于的類別。圖2.3多層深度神經(jīng)網(wǎng)絡(luò)示意圖2.2.2深度神經(jīng)網(wǎng)絡(luò)參數(shù)優(yōu)化深度神經(jīng)網(wǎng)絡(luò)通過學(xué)習(xí)的方法學(xué)習(xí)從x到y(tǒng)的映射函數(shù),其中x是網(wǎng)絡(luò)的輸入信息,y是期望得到的結(jié)果,這個函數(shù)的參數(shù)便是需要通過數(shù)據(jù)訓(xùn)練得到的深度11
本文編號:3047282
【文章來源】:山西大學(xué)山西省
【文章頁數(shù)】:72 頁
【學(xué)位級別】:碩士
【圖文】:
MCP模型示意圖
第二章相關(guān)內(nèi)容(a)Sigmoid(b)Tanh(c)ReLu圖2.2不同激活函數(shù)曲線示意圖網(wǎng)絡(luò)中常用的激活函數(shù)有Sigmoid函數(shù)、Tanh函數(shù)、Relu函數(shù),其數(shù)學(xué)表達(dá)式如公式2.2所示,圖2.2展示了這三個函數(shù)的曲線形狀。sigmoid(x)=11+ex,tanh(x)=21+e2x1,relu(x)=max(0,x)(2.2)如圖2.3所示,是一個簡單的四分類深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由多個簡單神經(jīng)元組成的多層深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),每一層神經(jīng)元的輸入都是上一層神經(jīng)元的輸出。深度神經(jīng)網(wǎng)絡(luò)的輸入為待分類樣本,輸出為屬于四個類別中每個類別的概率值,一般情況下取最大的概率值作為該樣本屬于的類別。圖2.3多層深度神經(jīng)網(wǎng)絡(luò)示意圖2.2.2深度神經(jīng)網(wǎng)絡(luò)參數(shù)優(yōu)化深度神經(jīng)網(wǎng)絡(luò)通過學(xué)習(xí)的方法學(xué)習(xí)從x到y(tǒng)的映射函數(shù),其中x是網(wǎng)絡(luò)的輸入信息,y是期望得到的結(jié)果,這個函數(shù)的參數(shù)便是需要通過數(shù)據(jù)訓(xùn)練得到的深度11
第二章相關(guān)內(nèi)容(a)Sigmoid(b)Tanh(c)ReLu圖2.2不同激活函數(shù)曲線示意圖網(wǎng)絡(luò)中常用的激活函數(shù)有Sigmoid函數(shù)、Tanh函數(shù)、Relu函數(shù),其數(shù)學(xué)表達(dá)式如公式2.2所示,圖2.2展示了這三個函數(shù)的曲線形狀。sigmoid(x)=11+ex,tanh(x)=21+e2x1,relu(x)=max(0,x)(2.2)如圖2.3所示,是一個簡單的四分類深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由多個簡單神經(jīng)元組成的多層深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),每一層神經(jīng)元的輸入都是上一層神經(jīng)元的輸出。深度神經(jīng)網(wǎng)絡(luò)的輸入為待分類樣本,輸出為屬于四個類別中每個類別的概率值,一般情況下取最大的概率值作為該樣本屬于的類別。圖2.3多層深度神經(jīng)網(wǎng)絡(luò)示意圖2.2.2深度神經(jīng)網(wǎng)絡(luò)參數(shù)優(yōu)化深度神經(jīng)網(wǎng)絡(luò)通過學(xué)習(xí)的方法學(xué)習(xí)從x到y(tǒng)的映射函數(shù),其中x是網(wǎng)絡(luò)的輸入信息,y是期望得到的結(jié)果,這個函數(shù)的參數(shù)便是需要通過數(shù)據(jù)訓(xùn)練得到的深度11
本文編號:3047282
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3047282.html
最近更新
教材專著