3D-HEVC深度圖編碼的率失真優(yōu)化方法研究
本文關(guān)鍵詞:3D-HEVC深度圖編碼的率失真優(yōu)化方法研究,,由筆耕文化傳播整理發(fā)布。
【摘要】:三維視頻因其提供生動(dòng)的視頻體驗(yàn)受到人們大量關(guān)注。為了迎合市場(chǎng)需求,視頻標(biāo)準(zhǔn)化組織運(yùn)動(dòng)圖像專家組(Moving Picture Experts Group,MPEG)于2011年著手制定支持三維視頻應(yīng)用的新一代視頻編碼標(biāo)準(zhǔn)的擴(kuò)展標(biāo)準(zhǔn)(High Efficient Video Coding based 3D video coding standard,3D-HEVC)。多視點(diǎn)視頻加深度格式因具有良好的兼容性和優(yōu)秀的靈活性被選為3D-HEVC的通用數(shù)據(jù)格式。該數(shù)據(jù)格式支持解碼端合成一定范圍內(nèi)的虛擬視頻,同時(shí)也對(duì)編碼器的編碼性能提出更高的要求。視頻編碼系統(tǒng)的率失真優(yōu)化指的是基于率失真優(yōu)化理論選擇最優(yōu)的編碼參數(shù)。3D-HEVC重建深度圖用于合成虛擬視圖而非直接觀看,因此深度編碼時(shí)采用基于虛擬視圖失真的率失真優(yōu)化技術(shù)選取最優(yōu)編碼參數(shù)。合成視圖失真變化量是一種典型的虛擬視圖失真計(jì)算準(zhǔn)則,其具有失真計(jì)算準(zhǔn)確和高計(jì)算復(fù)雜度的特點(diǎn)。為了降低深度圖編碼復(fù)雜度,本文探索并提出兩個(gè)解決方法。論文提出一種基于模型的虛擬視圖失真預(yù)測(cè)方法。此方法首先使用原始紋理圖和原始深度圖合成虛擬視圖,將像素點(diǎn)分為非第一被遮擋點(diǎn)、第一被遮擋點(diǎn)、空洞點(diǎn)和插值點(diǎn)共四種類別;然后在編碼深度圖時(shí)根據(jù)記錄的像素點(diǎn)類別采用不同的虛擬視圖失真計(jì)算模型;最后疊加所有像素點(diǎn)的失真作為當(dāng)前虛擬視圖的失真。在3D-HEVC參考軟件HTM11.0中實(shí)現(xiàn)所提方法,相比于編碼復(fù)雜度相近的虛擬視圖失真預(yù)測(cè)方法,所提方法編碼效率有所提升。論文針對(duì)基于合成的虛擬視圖失真計(jì)算方法提出一種漸進(jìn)式的率失真優(yōu)化方法。本文將深度圖率失真代價(jià)計(jì)算分為比特?cái)?shù)代價(jià)、深度圖自身失真代價(jià)和虛擬視圖失真代價(jià)三個(gè)階段。每個(gè)階段的累計(jì)率失真代價(jià)都與臨時(shí)最小率失真代價(jià)比較,若小于,則計(jì)算后續(xù)階段的率失真代價(jià);若大于或等于,則立刻淘汰此模式。在虛擬視圖失真代價(jià)計(jì)算階段,需計(jì)算多個(gè)位置的虛擬視圖失真,每得到一個(gè)虛擬視圖失真便與臨時(shí)最小率失真代價(jià)進(jìn)行比較。所提方法與3D-HEVC參考軟件HTM11.0相比,可提前截止非最佳模式率失真代價(jià)的計(jì)算以降低復(fù)雜度,在引入0.1%的碼率增加量的同時(shí)降低36.9%的深度圖編碼復(fù)雜度。
【關(guān)鍵詞】:三維視頻編碼 率失真優(yōu)化 深度圖編碼 合成視點(diǎn) 失真估計(jì)
【學(xué)位授予單位】:西安電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2015
【分類號(hào)】:TN919.81
【目錄】:
- 摘要5-6
- ABSTRACT6-10
- 符號(hào)對(duì)照表10-11
- 縮略語(yǔ)對(duì)照表11-14
- 第一章 緒論14-18
- 1.1 研究背景與意義14-16
- 1.2 論文的主要工作16
- 1.3 論文的組織結(jié)構(gòu)16-18
- 第二章 HEVC關(guān)鍵編碼及優(yōu)化技術(shù)18-28
- 2.1 HEVC劃分結(jié)構(gòu)18-20
- 2.2 預(yù)測(cè)編碼技術(shù)20-23
- 2.2.1 幀內(nèi)預(yù)測(cè)編碼20
- 2.2.2 幀間預(yù)測(cè)編碼20-23
- 2.3 率失真優(yōu)化技術(shù)介紹23-26
- 2.3.1 率失真理論23-24
- 2.3.2 視頻編碼系統(tǒng)中率失真優(yōu)化方法24-26
- 2.4 率失真優(yōu)化技術(shù)在模式選擇方面的應(yīng)用26-27
- 2.5 本章小結(jié)27-28
- 第三章 3D-HEVC的關(guān)鍵編碼及優(yōu)化技術(shù)28-34
- 3.1 3D-HEVC編碼結(jié)構(gòu)28
- 3.2 虛擬視圖合成方法28-32
- 3.2.1 快速一維視點(diǎn)合成方法29-30
- 3.2.2 可選擇視點(diǎn)合成方法30-32
- 3.3 基于虛擬視圖失真的率失真優(yōu)化32
- 3.4 本章小結(jié)32-34
- 第四章 基于模型的虛擬視圖失真預(yù)測(cè)及改進(jìn)34-46
- 4.1 引言34
- 4.2 虛擬視圖失真分析34-38
- 4.2.1 深度圖特性分析34-35
- 4.2.2 虛擬視圖失真預(yù)測(cè)模型分析35-38
- 4.3 基于像素點(diǎn)分類的失真預(yù)測(cè)模型38-42
- 4.3.1 像素點(diǎn)分類39-40
- 4.3.2 不同類型的像素點(diǎn)對(duì)應(yīng)的計(jì)算方法40-41
- 4.3.3 失真預(yù)測(cè)方法流程41-42
- 4.4 實(shí)驗(yàn)結(jié)果與性能分析42-45
- 4.5 本章小結(jié)45-46
- 第五章 基于合成的虛擬視圖失真計(jì)算及優(yōu)化46-56
- 5.1 引言46
- 5.2 深度圖編碼的率失真優(yōu)化方法及改進(jìn)46-51
- 5.2.1 基于合成的虛擬視圖失真計(jì)算方法46-48
- 5.2.2 深度圖編碼的率失真優(yōu)化48-49
- 5.2.3 漸進(jìn)式率失真優(yōu)化方法49-51
- 5.3 實(shí)驗(yàn)結(jié)果和性能分析51-54
- 5.3.1 分析性能51-53
- 5.3.2 分析視點(diǎn)合成方法跳出率53
- 5.3.3 分析錯(cuò)誤跳出率53-54
- 5.4 本章小結(jié)54-56
- 第六章 總結(jié)與展望56-58
- 參考文獻(xiàn)58-62
- 致謝62-64
- 作者介紹64-65
【相似文獻(xiàn)】
中國(guó)期刊全文數(shù)據(jù)庫(kù) 前10條
1 左一帆;安平;張兆楊;;基于圖割的高質(zhì)量深度圖獲取方法[J];電視技術(shù);2011年15期
2 張艷;安平;張秋聞;王奎;張兆楊;;恰可察覺(jué)深度差異模型的深度圖優(yōu)化方法[J];光電子.激光;2012年07期
3 左宇鵬;;基于深度圖壓縮的邊界自適應(yīng)上采樣方案[J];計(jì)算機(jī)與現(xiàn)代化;2014年05期
4 楊超;安平;何宛文;王健鑫;張兆楊;;一種用于深度圖編碼的虛擬視失真估計(jì)模型[J];光電子.激光;2014年07期
5 溫宇強(qiáng),李德華;多視角深度圖融合方法綜述[J];計(jì)算機(jī)與數(shù)字工程;2003年04期
6 葉長(zhǎng)明;蔣建國(guó);詹曙;S.Ando;;不同姿態(tài)人臉深度圖識(shí)別的研究[J];電子測(cè)量與儀器學(xué)報(bào);2011年10期
7 左一帆;安平;馬然;沈禮權(quán);張兆楊;;深度圖時(shí)域一致性增強(qiáng)[J];光電子.激光;2014年01期
8 朱波;蔣剛毅;張?jiān)?郁梅;;面向虛擬視點(diǎn)圖像繪制的深度圖編碼算法[J];光電子.激光;2010年05期
9 周娟;李勇平;黃躍峰;;基于強(qiáng)度圖和深度圖的多模態(tài)人臉識(shí)別[J];計(jì)算機(jī)工程與應(yīng)用;2012年25期
10 李思宇;李勝;王衡;汪國(guó)平;;利用深度圖優(yōu)化的自然光束體構(gòu)建與繪制[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2011年07期
中國(guó)重要會(huì)議論文全文數(shù)據(jù)庫(kù) 前3條
1 陳東;楊生鵬;莊嚴(yán);王偉;;基于視覺(jué)信息的三維激光點(diǎn)云渲染與深度圖構(gòu)建[A];第二十九屆中國(guó)控制會(huì)議論文集[C];2010年
2 劉偉鋒;張卓;王延江;;基于光線衰減的深度獲取方法[A];中國(guó)自動(dòng)化學(xué)會(huì)控制理論專業(yè)委員會(huì)B卷[C];2011年
3 張帥;付宏杰;;基于Kinect的多點(diǎn)觸控系統(tǒng)研究與實(shí)現(xiàn)[A];第六屆全國(guó)信號(hào)和智能信息處理與應(yīng)用學(xué)術(shù)會(huì)議論文集[C];2012年
中國(guó)博士學(xué)位論文全文數(shù)據(jù)庫(kù) 前10條
1 李賀建;三維視頻中基于FPGA的實(shí)時(shí)深度估計(jì)研究與應(yīng)用[D];上海大學(xué);2015年
2 馬祥;提高三維視頻深度編碼性能的技術(shù)研究[D];西安電子科技大學(xué);2015年
3 葛川;三維視頻的高效壓縮及資源分配算法研究[D];山東大學(xué);2015年
4 鄧慧萍;3D視頻的深度圖優(yōu)化與深度編碼方法研究[D];華中科技大學(xué);2013年
5 高凱;立體視頻深度圖提取及深度序列編碼技術(shù)研究[D];吉林大學(xué);2013年
6 羅雷;基于深度圖繪制的三維視頻編碼技術(shù)研究[D];浙江大學(xué);2013年
7 霍智勇;自由視點(diǎn)視頻深度圖估計(jì)的關(guān)鍵技術(shù)研究[D];南京郵電大學(xué);2013年
8 韋虎;三維外形測(cè)量系統(tǒng)中的數(shù)據(jù)處理關(guān)鍵技術(shù)研究[D];南京航空航天大學(xué);2010年
9 張秋聞;自由視點(diǎn)視頻深度編碼關(guān)鍵技術(shù)研究[D];上海大學(xué);2012年
10 程光;人機(jī)交互系統(tǒng)中手勢(shì)和姿勢(shì)識(shí)別算法的研究[D];清華大學(xué);2014年
中國(guó)碩士學(xué)位論文全文數(shù)據(jù)庫(kù) 前10條
1 宋劍軍;三維視頻深度圖優(yōu)化編碼的研究[D];電子科技大學(xué);2015年
2 祝風(fēng)翔;基于圖像的深度獲取方法研究[D];浙江大學(xué);2016年
3 吳潔;面向鐵路線路視頻的三維場(chǎng)景理解[D];北京交通大學(xué);2016年
4 劉瑞珍;3D視頻的深度圖編碼研究[D];太原科技大學(xué);2015年
5 趙利軍;3D視頻中深度圖編碼及濾波技術(shù)研究[D];太原科技大學(xué);2015年
6 羅志丹;陣列相機(jī)成像的深度估計(jì)問(wèn)題研究[D];北方工業(yè)大學(xué);2016年
7 楊狄;基于深度圖的三維內(nèi)窺鏡圖像處理軟件研發(fā)[D];浙江大學(xué);2016年
8 程時(shí)文;兩視點(diǎn)的深度圖合成算法研究[D];福州大學(xué);2014年
9 陳悅;基于快速圖像匹配的深度圖獲取與虛擬視點(diǎn)繪制[D];福州大學(xué);2014年
10 賈陸洋;基于深度線索的深度圖生成技術(shù)研究[D];華南理工大學(xué);2016年
本文關(guān)鍵詞:3D-HEVC深度圖編碼的率失真優(yōu)化方法研究,由筆耕文化傳播整理發(fā)布。
本文編號(hào):429927
本文鏈接:http://sikaile.net/kejilunwen/wltx/429927.html