天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動(dòng)化論文 >

基于多特征融合的圖像質(zhì)量評價(jià)深度學(xué)習(xí)模型

發(fā)布時(shí)間:2021-06-11 20:48
  在現(xiàn)代科學(xué)技術(shù)迅猛發(fā)展的背景下,人們對圖像的要求越來越高。高清晰度和高質(zhì)量的圖像是現(xiàn)代視覺信息數(shù)字化所追求的基本目標(biāo)。但是,在圖像的采集、處理、傳輸和存儲(chǔ)的過程中,由于采集方法、處理手段、傳輸介質(zhì)以及存儲(chǔ)設(shè)備的不夠完善,加上采集時(shí)物體的運(yùn)動(dòng)性和傳輸過程中的噪聲污染等一系列因素,給圖像造成一定程度的失真。因此,圖像質(zhì)量的正確評價(jià)具有非常重要的應(yīng)用價(jià)值,并且,圖像質(zhì)量評價(jià)(Image Quality Assessment,IQA)的廣泛應(yīng)用,對個(gè)人服務(wù)、科學(xué)研究和工程應(yīng)用等相關(guān)行業(yè)的發(fā)展產(chǎn)生深遠(yuǎn)的影響。在傳統(tǒng)的圖像質(zhì)量評價(jià)模型中,人工提取了各種視覺特征用來預(yù)測圖像的視覺質(zhì)量。然而,在深度學(xué)習(xí)模型中,深度特征是通過卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)的。因此,如何融合這兩種特征以獲得更好的圖像質(zhì)量評價(jià)模型是一項(xiàng)非常有意義的研究。在本文中,提出了一種基于多特征融合的深度學(xué)習(xí)模型(MFNet),該模型同時(shí)考慮了人工特征和深度學(xué)習(xí)特征。人工特征提取圖像的一些基本視覺特征,然后將其放在深度學(xué)習(xí)模型中,從而使模型可以進(jìn)一步提取更深入的人眼視覺特性信息。在提出的模型中,除了在學(xué)習(xí)過程中提取視覺特征外,還提出了使用視覺顯... 

【文章來源】:青島大學(xué)山東省

【文章頁數(shù)】:47 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于多特征融合的圖像質(zhì)量評價(jià)深度學(xué)習(xí)模型


SSIM模型框架圖

示例,圖像,視覺,區(qū)域


青島大學(xué)碩士學(xué)位論文92.4基于顯著性特征算法視覺顯著性(VisualSaliency,VS)是指對于現(xiàn)實(shí)世界中的場景,人們會(huì)自動(dòng)識別出場景中感興趣的區(qū)域,并忽略不感興趣的區(qū)域。這些人類感興趣的區(qū)域則被稱為顯著性區(qū)域。視覺顯著性檢測是指通過計(jì)算機(jī)算法模擬人眼視覺系統(tǒng)中有關(guān)的視覺特性,對圖像的區(qū)域進(jìn)行顯著性的判斷,從而在圖像中提取出顯著性區(qū)域(即人類感興趣的區(qū)域)[21]。在過去的十幾年中,心理學(xué)家、神經(jīng)生物學(xué)家和計(jì)算機(jī)科學(xué)家針對視覺顯著性進(jìn)行了廣泛的研究,研究了圖像的哪些區(qū)域?qū)⒏祟愐曈X系統(tǒng)的注意,且提出了人類視覺的注意力機(jī)制可以分為兩個(gè)策略:自底向上和自頂向下。自底向上的方法是由圖像的本質(zhì)特征引起的視覺顯著,它是由底層感知數(shù)據(jù)驅(qū)動(dòng)的,將人的視覺注意應(yīng)用到自然場景中的顯著區(qū)域,通常顯著區(qū)域與周圍具有較強(qiáng)的對比度或與周圍有明顯不同的區(qū)域注意力[22]。因此,人們可以通過區(qū)域與區(qū)域之間的差異性來判斷圖像區(qū)域的顯著性,而這些差異性又體現(xiàn)在諸如圖像的顏色、亮度以及方向等圖像特征方面。而自頂向下的方法是由任務(wù)經(jīng)驗(yàn)引導(dǎo)到視覺注意力的,它是一種以任務(wù)為中心的突出注意力機(jī)制,并利用先驗(yàn)知識來預(yù)測當(dāng)前圖像區(qū)域的顯著性。如圖2.2中所示,(a)(b)表示為自底向上的方法,(c)表示自頂向下的方法。(a)自底向上(b)自底向上(c)自頂向下圖2.2圖像的顯著性示例

模型圖,網(wǎng)絡(luò)結(jié)構(gòu),模型,圖像質(zhì)量


青島大學(xué)碩士學(xué)位論文12算法在LIVE數(shù)據(jù)庫中展現(xiàn)了驚人的預(yù)測準(zhǔn)確性,并展示了其在交叉數(shù)據(jù)集中優(yōu)秀的魯棒性。但該算法仍然存在一定的缺陷,首先將訓(xùn)練集中圖像塊的標(biāo)簽(質(zhì)量分?jǐn)?shù))直接標(biāo)定為圖像的質(zhì)量分?jǐn)?shù),這在日常實(shí)際中并不成立;其次直接將圖像塊的均值作為整體質(zhì)量分?jǐn)?shù),也忽略了人眼視覺特性的因素。由于深度學(xué)習(xí)在圖像質(zhì)量評價(jià)中具有廣闊的應(yīng)用前景,也是一個(gè)充滿困難和挑戰(zhàn)的課題,因此,研究人員針對深度學(xué)習(xí)的研究,又提出了更高效更穩(wěn)定的模型。例如,Hou等人將人工提取的特征向量放入具有三個(gè)隱藏層的深度置信網(wǎng)絡(luò)中,以學(xué)習(xí)圖像中的中高級信息內(nèi)容[29]。Gao等人設(shè)計(jì)了一個(gè)模型,該模型使用VGGnet提取圖像特征,然后計(jì)算相似度以給出最終分?jǐn)?shù)[30]。Kim等人提出了一個(gè)無參考圖像質(zhì)量評價(jià)模型,其中訓(xùn)練集的標(biāo)簽是通過傳統(tǒng)的全參考模型生成的(BIECON)[31]。Kim提出了一種新的深度學(xué)習(xí)框架,稱為DeepQA[32],該模型可以學(xué)習(xí)到人類的視覺敏感度,并將其與客觀誤差圖結(jié)合起來以生成預(yù)測的質(zhì)量分?jǐn)?shù)。圖2.3Kang等人提出的網(wǎng)絡(luò)結(jié)構(gòu)模型2.6本章小結(jié)本章針對前人在圖像質(zhì)量評價(jià)領(lǐng)域所做的研究工作進(jìn)行總結(jié),分別從結(jié)構(gòu)相似性,梯度相似性,顯著性特征以及深度學(xué)習(xí)四個(gè)方面來對圖像質(zhì)量評價(jià)的算法進(jìn)行簡要介紹,通過典型算法的分析,可以看出基于結(jié)構(gòu)相似性的算法較為簡單快捷,但評價(jià)準(zhǔn)確性較低,而隨著梯度和顯著性等視覺特性的加入,質(zhì)量評價(jià)結(jié)果得到進(jìn)一步提高,從而進(jìn)一步論證了梯度特征和顯著性特征對圖像質(zhì)量評價(jià)預(yù)測結(jié)果的積極作用。而深度學(xué)習(xí)的使用使得評價(jià)的結(jié)果與人眼視覺主觀感受保持更高的一致性。

【參考文獻(xiàn)】:
期刊論文
[1]基于顯著性圖像邊緣的全參考圖像質(zhì)量評價(jià)[J]. 閆鈞華,朱可,張婉怡,汪竟成,肖勇旗.  儀器儀表學(xué)報(bào). 2016(09)
[2]No-Reference Quality Assessment of Enhanced Images[J]. Leida Li,Wei Shen,Ke Gu,Jinjian Wu,Beijing Chen,Jianying Zhang.  中國通信. 2016(09)
[3]圖像偽造中模糊操作的異常色調(diào)率取證技術(shù)[J]. 王波,孫璐璐,孔祥維,尤新剛.  電子學(xué)報(bào). 2006(S1)



本文編號:3225257

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3225257.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a0864***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com