基于GAN的手機(jī)拍攝圖像增強(qiáng)算法研究
發(fā)布時(shí)間:2021-01-04 01:32
智能手機(jī)的拍照功能十分便捷,與人們?nèi)粘I蠲懿豢煞?隨著科技的發(fā)展和人們生活水平的日益提升,人們對(duì)手機(jī)拍照質(zhì)量的要求也逐漸提高,但是由于智能手機(jī)體積較小,必然導(dǎo)致其內(nèi)置相機(jī)的物理限制——鏡頭的光學(xué)參數(shù)、傳感器的尺寸以及缺乏特定硬件支持等,對(duì)其拍照質(zhì)量大有影響,無(wú)法達(dá)到單反相機(jī)的拍照質(zhì)量。物理上的限制無(wú)法完全克服,但可以通過(guò)后期處理進(jìn)行圖像增強(qiáng),從而提升照片質(zhì)量。目前后期處理的方法通常是通過(guò)專業(yè)的修圖軟件進(jìn)行手動(dòng)調(diào)整,費(fèi)時(shí)費(fèi)力且需具備一定的專業(yè)技能。因此論文提出一種全自動(dòng)端到端的基于深度學(xué)習(xí)的方法,其目標(biāo)是利用神經(jīng)網(wǎng)絡(luò)直接學(xué)習(xí)手機(jī)照片到單反照片的映射,常見(jiàn)的處理圖像到圖像轉(zhuǎn)換問(wèn)題的深度學(xué)習(xí)方法是利用均方誤差損失函數(shù)加卷積神經(jīng)網(wǎng)絡(luò)。論文主要工作包括以下方面:(1)對(duì)損失函數(shù)與網(wǎng)絡(luò)架構(gòu)進(jìn)行優(yōu)化,在傳統(tǒng)的均方誤差損失函數(shù)上加上對(duì)抗損失和內(nèi)容損失組成一個(gè)多項(xiàng)損失函數(shù)使生成圖像更真實(shí),替換標(biāo)準(zhǔn)的卷積神經(jīng)網(wǎng)絡(luò)為生成對(duì)抗網(wǎng)絡(luò),并在其中引入殘差網(wǎng)絡(luò)的跳躍連接使圖像細(xì)節(jié)信息更好的保留。(2)開(kāi)發(fā)一個(gè)基于Web端的手機(jī)照片增強(qiáng)系統(tǒng),將訓(xùn)練好的網(wǎng)絡(luò)模型移植到服務(wù)器上以提供一種服務(wù),用戶可以通過(guò)網(wǎng)頁(yè)端上傳手機(jī)照...
【文章來(lái)源】:云南大學(xué)云南省 211工程院校
【文章頁(yè)數(shù)】:70 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1?MP模型神經(jīng)元結(jié)構(gòu)示意圖??
2.2前饋神經(jīng)網(wǎng)絡(luò)??前饋神經(jīng)網(wǎng)絡(luò)(Feedforward?Neural?Network,FNN)是人工神經(jīng)網(wǎng)絡(luò)中最簡(jiǎn)單??也最為基礎(chǔ)的一種神經(jīng)網(wǎng)絡(luò)。前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2-2所示,網(wǎng)絡(luò)中大體可以??分為3種類層,將第一層稱為輸入層,最后一層為輸出層,其他中間層稱為隱藏??層,每層包含若干個(gè)神經(jīng)元。每一個(gè)神經(jīng)元都只接受上一層神經(jīng)元的輸出,然后??傳遞給下一層神經(jīng)元,以此類推,直至輸出層輸出整個(gè)網(wǎng)絡(luò)的結(jié)果,整個(gè)網(wǎng)絡(luò)都??沿一個(gè)方向傳播,其間沒(méi)有任何反饋。??圖2-2前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??前饋神經(jīng)網(wǎng)絡(luò)的傳播過(guò)程為,假設(shè)輸入層有n個(gè)輸入;c,,對(duì)應(yīng)有n個(gè)權(quán)重??b為偏置項(xiàng),將其加權(quán)和傳遞給下一層中的神經(jīng)元,然后通過(guò)神??/=1??經(jīng)元中的激活函數(shù)笑(;〇后得到輸出yU):??a??y(x)=尺?U(jv))?=?g([<y,jr,?+?A)?(2-1)??/=!??對(duì)于第/層網(wǎng)絡(luò)
輸入值的加權(quán)和進(jìn)行非線性變換。如果沒(méi)有激活函數(shù),每個(gè)神經(jīng)元節(jié)點(diǎn)只能進(jìn)行??線性變換,即使增加再多的神經(jīng)元和網(wǎng)絡(luò)層,最終的輸出也只是輸入的線性變換??的疊加,這是無(wú)法處理現(xiàn)實(shí)世界中大多數(shù)情形下線性不可分?jǐn)?shù)據(jù)的。如圖2-3為??幾種常用的激活函數(shù):??y?個(gè)?y??0?x?0?x??Sigmoid?RcLu??y個(gè)?,??0?X??^?0?X??_J??tanh?Leaky?Re?I^U??圖2-3常用激活函數(shù)圖??(1)?Sigmoid函數(shù):表達(dá)式為(2-3)式,函數(shù)輸出范圍在[0,1]之間,總是??非負(fù)值,函數(shù)單調(diào)遞增,當(dāng)取一個(gè)較大負(fù)值時(shí)輸出為0,當(dāng)取一個(gè)較大正值時(shí)輸??10??
本文編號(hào):2955880
【文章來(lái)源】:云南大學(xué)云南省 211工程院校
【文章頁(yè)數(shù)】:70 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1?MP模型神經(jīng)元結(jié)構(gòu)示意圖??
2.2前饋神經(jīng)網(wǎng)絡(luò)??前饋神經(jīng)網(wǎng)絡(luò)(Feedforward?Neural?Network,FNN)是人工神經(jīng)網(wǎng)絡(luò)中最簡(jiǎn)單??也最為基礎(chǔ)的一種神經(jīng)網(wǎng)絡(luò)。前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2-2所示,網(wǎng)絡(luò)中大體可以??分為3種類層,將第一層稱為輸入層,最后一層為輸出層,其他中間層稱為隱藏??層,每層包含若干個(gè)神經(jīng)元。每一個(gè)神經(jīng)元都只接受上一層神經(jīng)元的輸出,然后??傳遞給下一層神經(jīng)元,以此類推,直至輸出層輸出整個(gè)網(wǎng)絡(luò)的結(jié)果,整個(gè)網(wǎng)絡(luò)都??沿一個(gè)方向傳播,其間沒(méi)有任何反饋。??圖2-2前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??前饋神經(jīng)網(wǎng)絡(luò)的傳播過(guò)程為,假設(shè)輸入層有n個(gè)輸入;c,,對(duì)應(yīng)有n個(gè)權(quán)重??b為偏置項(xiàng),將其加權(quán)和傳遞給下一層中的神經(jīng)元,然后通過(guò)神??/=1??經(jīng)元中的激活函數(shù)笑(;〇后得到輸出yU):??a??y(x)=尺?U(jv))?=?g([<y,jr,?+?A)?(2-1)??/=!??對(duì)于第/層網(wǎng)絡(luò)
輸入值的加權(quán)和進(jìn)行非線性變換。如果沒(méi)有激活函數(shù),每個(gè)神經(jīng)元節(jié)點(diǎn)只能進(jìn)行??線性變換,即使增加再多的神經(jīng)元和網(wǎng)絡(luò)層,最終的輸出也只是輸入的線性變換??的疊加,這是無(wú)法處理現(xiàn)實(shí)世界中大多數(shù)情形下線性不可分?jǐn)?shù)據(jù)的。如圖2-3為??幾種常用的激活函數(shù):??y?個(gè)?y??0?x?0?x??Sigmoid?RcLu??y個(gè)?,??0?X??^?0?X??_J??tanh?Leaky?Re?I^U??圖2-3常用激活函數(shù)圖??(1)?Sigmoid函數(shù):表達(dá)式為(2-3)式,函數(shù)輸出范圍在[0,1]之間,總是??非負(fù)值,函數(shù)單調(diào)遞增,當(dāng)取一個(gè)較大負(fù)值時(shí)輸出為0,當(dāng)取一個(gè)較大正值時(shí)輸??10??
本文編號(hào):2955880
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/2955880.html
最近更新
教材專著