基于深度學(xué)習(xí)的端到端圖像視頻壓縮框架
發(fā)布時(shí)間:2024-11-10 19:52
圖像和視頻壓縮一直是學(xué)術(shù)界和工業(yè)界研究的熱點(diǎn)之一。近年來(lái),隨著深度學(xué)習(xí)技術(shù)的發(fā)展,尤其是卷積神經(jīng)網(wǎng)絡(luò)在圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域的成功應(yīng)用,利用深度學(xué)習(xí)技術(shù)來(lái)對(duì)圖像和視頻高效壓縮成為可能。目前深度學(xué)習(xí)技術(shù)在高層視覺(jué)領(lǐng)域,如圖像分類,目標(biāo)檢測(cè),目標(biāo)跟蹤,圖像分割,人臉識(shí)別等,已經(jīng)取得了突破性的研究成果,然而在低層視覺(jué)上,如圖像壓縮,圖像復(fù)原等領(lǐng)域的應(yīng)用還具有很大的研究潛力和價(jià)值。本文以深度學(xué)習(xí)技術(shù)為基礎(chǔ),主要研究工作分為以下兩個(gè)部分:一、提出了基于深度學(xué)習(xí)的端到端圖像壓縮框架,將深度學(xué)習(xí)技術(shù)與傳統(tǒng)的圖像編解碼器(如JPEG,JPEG2000和BPG等)無(wú)縫的銜接起來(lái),進(jìn)一步提高編解碼器的壓縮性能。二、著眼于視頻幀率轉(zhuǎn)換中的插幀技術(shù),提出了基于運(yùn)動(dòng)補(bǔ)償模型的深度學(xué)習(xí)插幀網(wǎng)絡(luò)模型。為了能提高壓縮圖像質(zhì)量的同時(shí)提高壓縮比,我們將兩個(gè)卷積神經(jīng)網(wǎng)絡(luò)和傳統(tǒng)編解碼器整合到一個(gè)端到端的圖像壓縮框架中。第一個(gè)卷積神經(jīng)網(wǎng)絡(luò)Com CNN在編碼器前端,用來(lái)學(xué)習(xí)原圖像的緊湊表示,學(xué)習(xí)到的緊湊表示被送到傳統(tǒng)編碼器進(jìn)行編碼。第二個(gè)卷積神經(jīng)網(wǎng)絡(luò)Rec CNN在解碼器后端,通過(guò)解碼后的緊湊表示來(lái)高質(zhì)量的重建原圖像。為了讓這...
【文章頁(yè)數(shù)】:62 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
第1章 緒論
1.1 課題研究背景及意義
1.1.1 圖像和視頻中的冗余
1.1.2 深度學(xué)習(xí)在圖像和視頻編碼中應(yīng)用的關(guān)鍵問(wèn)題
1.2 國(guó)內(nèi)外研究現(xiàn)狀
1.2.1 圖像壓縮的研究現(xiàn)狀
1.2.2 視頻幀率轉(zhuǎn)換的研究現(xiàn)狀
1.3 論文內(nèi)容及結(jié)構(gòu)安排
第2章 深度學(xué)習(xí)基礎(chǔ)及其在低層視覺(jué)領(lǐng)域的應(yīng)用
2.1 深度學(xué)習(xí)基礎(chǔ)
2.1.1 卷積神經(jīng)網(wǎng)絡(luò)
2.2 深度學(xué)習(xí)在圖像壓縮復(fù)原上的應(yīng)用
2.3 深度學(xué)習(xí)在視頻幀率轉(zhuǎn)換上的應(yīng)用
2.4 本章小結(jié)
第3章 基于卷積神經(jīng)網(wǎng)絡(luò)的端到端圖像壓縮框架
3.1 問(wèn)題的提出以及提出的圖像壓縮框架
3.1.1 ComCNN網(wǎng)絡(luò)結(jié)構(gòu)
3.1.2 RecCNN網(wǎng)絡(luò)結(jié)構(gòu)
3.2 學(xué)習(xí)算法
3.2.1更新RecCNN的參數(shù)θ2
3.2.2更新ComCNN的參數(shù)θ1
3.3 損失函數(shù)
3.4 實(shí)驗(yàn)數(shù)據(jù)和實(shí)驗(yàn)結(jié)果
3.4.1 實(shí)驗(yàn)數(shù)據(jù)和參數(shù)設(shè)置
3.4.2 實(shí)驗(yàn)結(jié)果
3.5 本章小結(jié)
第4章 基于深度學(xué)習(xí)的視頻幀率轉(zhuǎn)換技術(shù)
4.1 問(wèn)題的提出以及本文提出的方法
4.2 前后幀融合的深度學(xué)習(xí)插幀算法
4.3 基于運(yùn)動(dòng)補(bǔ)償?shù)纳疃葘W(xué)習(xí)插幀算法
4.3.1 多尺度運(yùn)動(dòng)補(bǔ)償網(wǎng)絡(luò)(MC-subnet)
4.3.2 質(zhì)量增強(qiáng)網(wǎng)絡(luò)(QE-subnet)
4.4 損失函數(shù)
4.5 實(shí)驗(yàn)配置及實(shí)驗(yàn)結(jié)果
4.5.1 實(shí)驗(yàn)配置及數(shù)據(jù)集
4.5.2 實(shí)驗(yàn)結(jié)果
4.6 本章小結(jié)
結(jié)論
參考文獻(xiàn)
攻讀碩士學(xué)位期間發(fā)表的論文及其他成果
致謝
本文編號(hào):4011872
【文章頁(yè)數(shù)】:62 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
ABSTRACT
第1章 緒論
1.1 課題研究背景及意義
1.1.1 圖像和視頻中的冗余
1.1.2 深度學(xué)習(xí)在圖像和視頻編碼中應(yīng)用的關(guān)鍵問(wèn)題
1.2 國(guó)內(nèi)外研究現(xiàn)狀
1.2.1 圖像壓縮的研究現(xiàn)狀
1.2.2 視頻幀率轉(zhuǎn)換的研究現(xiàn)狀
1.3 論文內(nèi)容及結(jié)構(gòu)安排
第2章 深度學(xué)習(xí)基礎(chǔ)及其在低層視覺(jué)領(lǐng)域的應(yīng)用
2.1 深度學(xué)習(xí)基礎(chǔ)
2.1.1 卷積神經(jīng)網(wǎng)絡(luò)
2.2 深度學(xué)習(xí)在圖像壓縮復(fù)原上的應(yīng)用
2.3 深度學(xué)習(xí)在視頻幀率轉(zhuǎn)換上的應(yīng)用
2.4 本章小結(jié)
第3章 基于卷積神經(jīng)網(wǎng)絡(luò)的端到端圖像壓縮框架
3.1 問(wèn)題的提出以及提出的圖像壓縮框架
3.1.1 ComCNN網(wǎng)絡(luò)結(jié)構(gòu)
3.1.2 RecCNN網(wǎng)絡(luò)結(jié)構(gòu)
3.2 學(xué)習(xí)算法
3.2.1更新RecCNN的參數(shù)θ2
3.2.2更新ComCNN的參數(shù)θ1
3.3 損失函數(shù)
3.4 實(shí)驗(yàn)數(shù)據(jù)和實(shí)驗(yàn)結(jié)果
3.4.1 實(shí)驗(yàn)數(shù)據(jù)和參數(shù)設(shè)置
3.4.2 實(shí)驗(yàn)結(jié)果
3.5 本章小結(jié)
第4章 基于深度學(xué)習(xí)的視頻幀率轉(zhuǎn)換技術(shù)
4.1 問(wèn)題的提出以及本文提出的方法
4.2 前后幀融合的深度學(xué)習(xí)插幀算法
4.3 基于運(yùn)動(dòng)補(bǔ)償?shù)纳疃葘W(xué)習(xí)插幀算法
4.3.1 多尺度運(yùn)動(dòng)補(bǔ)償網(wǎng)絡(luò)(MC-subnet)
4.3.2 質(zhì)量增強(qiáng)網(wǎng)絡(luò)(QE-subnet)
4.4 損失函數(shù)
4.5 實(shí)驗(yàn)配置及實(shí)驗(yàn)結(jié)果
4.5.1 實(shí)驗(yàn)配置及數(shù)據(jù)集
4.5.2 實(shí)驗(yàn)結(jié)果
4.6 本章小結(jié)
結(jié)論
參考文獻(xiàn)
攻讀碩士學(xué)位期間發(fā)表的論文及其他成果
致謝
本文編號(hào):4011872
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/4011872.html
上一篇:基于扭曲微結(jié)構(gòu)的模式干涉光纖傳感技術(shù)研究
下一篇:沒(méi)有了
下一篇:沒(méi)有了
最近更新
教材專著