基于深度學(xué)習(xí)的無參圖像質(zhì)量評估
發(fā)布時間:2021-11-19 20:47
隨著互聯(lián)網(wǎng)技術(shù)的不斷發(fā)展,網(wǎng)絡(luò)中存在著大量以圖像為主體的多媒體資源。對圖像的質(zhì)量進(jìn)行準(zhǔn)確地預(yù)測對于信息傳播的效率尤為重要;谏疃葘W(xué)習(xí)的無參圖像質(zhì)量評估(No-reference Image Quality Assessment,NR-IQA)最近吸引了研究者們較多的關(guān)注,特別是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)在NR-IQA上的應(yīng)用使得預(yù)測的準(zhǔn)確率取得了很大的提升,但其中依然存在一些可以改進(jìn)的地方。本文提出了兩種基于CNN的NR-IQA方法。對于這些方法的研究一方面可以推動圖像質(zhì)量評估領(lǐng)域的發(fā)展,另一方面,可以讓我們更好地掌握CNN在計算機視覺領(lǐng)域的應(yīng)用,并不斷地改善網(wǎng)絡(luò)。本文首先介紹了該研究的背景及研究意義,接著從機器學(xué)習(xí)與深度學(xué)習(xí)、圖像處理和圖像質(zhì)量評估三方面作理論基礎(chǔ)的簡介。后面則提出了兩種新的基于深度學(xué)習(xí)的無參圖像質(zhì)量評估的方法。在第一種方法中,我們提出了基于質(zhì)量區(qū)分和區(qū)域加權(quán)的方法(QDRW-CNN)。通過所提出的兩個機制:質(zhì)量區(qū)分算法和區(qū)域回歸,預(yù)測的準(zhǔn)確率得到了提高。質(zhì)量區(qū)分算法使用數(shù)據(jù)庫的不同子集訓(xùn)練出多個模型,接著根據(jù)被...
【文章來源】:重慶大學(xué)重慶市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:57 頁
【學(xué)位級別】:碩士
【部分圖文】:
神經(jīng)元示意圖
重慶大學(xué)碩士學(xué)位論文2相關(guān)理論基礎(chǔ)7圖2.1神經(jīng)元示意圖。Fig2.1Theexamplepictureofneure.其基本形式為:a=g(z)=g(wx+b)=g(11+22+++b),這里的1,2等表示輸入向量,1,2等表示權(quán)重,b表示該神經(jīng)節(jié)點的偏置,g為激活函數(shù),a為該節(jié)點的最終輸出。卷積神經(jīng)網(wǎng)絡(luò)是神經(jīng)網(wǎng)絡(luò)中的一種,其核心概念為卷積,以圖像上的操作為例,卷積核(一個矩陣)會在一張圖像上按照固定的步長進(jìn)行遍歷,每次會與圖像上對應(yīng)位置同等大小的區(qū)域像素作內(nèi)積,得到的值則替換掉圖像上該區(qū)域的中心像素值。卷積操作的示意圖如圖2.2所示。圖2.2卷積操作示意圖。Fig2.2Theexamplepictureofconvolutionaloperation.
重慶大學(xué)碩士學(xué)位論文2相關(guān)理論基礎(chǔ)8對于一張大小為m×m的圖像,使用M個大小為k×k的卷積核,假設(shè)步長為s,經(jīng)過卷積后,就會得到M個大小為+1的特征映射。具體的一個卷積層示例如圖2.3所示。圖2.3卷積層示意圖。Fig2.3Theexamplepictureofconvlayer.在卷積神經(jīng)網(wǎng)絡(luò)中,除了卷積層,還有一種比較重要的組成部分為池化層。池化的過程就是取某個區(qū)域的最大值或平均值,如圖2.4所示。圖2.4池化操作示意圖。Fig2.4Theexampleofpoolingoperation.CNN結(jié)構(gòu)通常由許多的卷積層、池化層、全連接層和激活函數(shù)組成。激活函數(shù)簡單來說,就是將該函數(shù)應(yīng)用到某個層輸出的所有像素上。目前比較常見且應(yīng)用較為廣泛的CNN包括孿生神經(jīng)網(wǎng)絡(luò)[33](SiameseNetwork,Siamese)、殘差網(wǎng)絡(luò)[34](ResidualNetwork,ResNet)和RCNN系列等等。下面對
本文編號:3505838
【文章來源】:重慶大學(xué)重慶市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:57 頁
【學(xué)位級別】:碩士
【部分圖文】:
神經(jīng)元示意圖
重慶大學(xué)碩士學(xué)位論文2相關(guān)理論基礎(chǔ)7圖2.1神經(jīng)元示意圖。Fig2.1Theexamplepictureofneure.其基本形式為:a=g(z)=g(wx+b)=g(11+22+++b),這里的1,2等表示輸入向量,1,2等表示權(quán)重,b表示該神經(jīng)節(jié)點的偏置,g為激活函數(shù),a為該節(jié)點的最終輸出。卷積神經(jīng)網(wǎng)絡(luò)是神經(jīng)網(wǎng)絡(luò)中的一種,其核心概念為卷積,以圖像上的操作為例,卷積核(一個矩陣)會在一張圖像上按照固定的步長進(jìn)行遍歷,每次會與圖像上對應(yīng)位置同等大小的區(qū)域像素作內(nèi)積,得到的值則替換掉圖像上該區(qū)域的中心像素值。卷積操作的示意圖如圖2.2所示。圖2.2卷積操作示意圖。Fig2.2Theexamplepictureofconvolutionaloperation.
重慶大學(xué)碩士學(xué)位論文2相關(guān)理論基礎(chǔ)8對于一張大小為m×m的圖像,使用M個大小為k×k的卷積核,假設(shè)步長為s,經(jīng)過卷積后,就會得到M個大小為+1的特征映射。具體的一個卷積層示例如圖2.3所示。圖2.3卷積層示意圖。Fig2.3Theexamplepictureofconvlayer.在卷積神經(jīng)網(wǎng)絡(luò)中,除了卷積層,還有一種比較重要的組成部分為池化層。池化的過程就是取某個區(qū)域的最大值或平均值,如圖2.4所示。圖2.4池化操作示意圖。Fig2.4Theexampleofpoolingoperation.CNN結(jié)構(gòu)通常由許多的卷積層、池化層、全連接層和激活函數(shù)組成。激活函數(shù)簡單來說,就是將該函數(shù)應(yīng)用到某個層輸出的所有像素上。目前比較常見且應(yīng)用較為廣泛的CNN包括孿生神經(jīng)網(wǎng)絡(luò)[33](SiameseNetwork,Siamese)、殘差網(wǎng)絡(luò)[34](ResidualNetwork,ResNet)和RCNN系列等等。下面對
本文編號:3505838
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3505838.html
最近更新
教材專著