天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于3D-HEVC質(zhì)量優(yōu)化和高效視頻編碼方法研究

發(fā)布時間:2017-12-13 07:10

  本文關(guān)鍵詞:基于3D-HEVC質(zhì)量優(yōu)化和高效視頻編碼方法研究


  更多相關(guān)文章: 三維視頻 多紋理多深度視頻編碼 質(zhì)量優(yōu)化 相鄰視差獲取 深度圖快速編碼


【摘要】:多紋理多深度視頻包含拍攝對象的景深信息,可以實現(xiàn)任意三維場景的重建,對拍攝對象的表征上更具有真實感和立體感,滿足了人們對于自由視點視頻臨場感和交互性的需求,是目前最有效的三維視頻表現(xiàn)方式?蓮V泛應(yīng)用于自由視點電視、增強現(xiàn)實、醫(yī)學手術(shù)導(dǎo)航、自然用戶界面等領(lǐng)域,但其實際應(yīng)用依賴于視頻質(zhì)量優(yōu)化以及高效編碼等關(guān)鍵技術(shù)的突破與發(fā)展。目前JCT-3V小組正致力于三維視頻編碼的標準化工作,提出了3D-HEVC的多紋理多深度三維視頻編碼標準并發(fā)布了測試平臺HTM。在3D-HEVC帶來高壓縮率的同時,也帶來了較高的編碼復(fù)雜度,其編碼質(zhì)量也有待進一步提升。所以本文對其中廣泛使用且影響編碼性能的紋理圖視差矢量獲取以及深度圖編碼進行研究,實現(xiàn)質(zhì)量優(yōu)化和高效快速的壓縮編碼方法,以滿足未來在應(yīng)用方面的需求。本論文深入研究基于3D-HEVC質(zhì)量優(yōu)化和高效視頻編碼方法,主要研究內(nèi)容與成果如下:1.提出一種基于分級化小搜索窗的相鄰視差矢量修正算法。通過對候選塊位置的視差矢量的出現(xiàn)率展開分析,探索最有可能出現(xiàn)視差矢量的候選塊位置,對這些優(yōu)先候選塊位置的視差矢量進一步做出分析,找到其在獨立視點紋理圖中的視差矢量參考塊;在視差矢量參考塊的周圍建立一種分級化的小搜索窗,通過小搜索窗內(nèi)的參考塊對初步獲取的相鄰視差矢量進行分級修正,并根據(jù)最后得到視差矢量率失真代價指標修正小搜索窗大小。實驗結(jié)果證明該算法能夠在維持現(xiàn)有編碼時間的情況下提升紋理視頻編碼質(zhì)量。2.提出一種利用多重虛擬深度圖參考塊修正的相鄰視差矢量質(zhì)量優(yōu)化算法。通過對初步獲取的相鄰視差矢量進行分析,找到其在獨立視點紋理圖中的視差矢量參考塊,并通過此參考塊的視差矢量計算與當前編碼單元相關(guān)的虛擬深度圖參考塊;對虛擬深度圖參考塊以及其周圍虛擬深度圖參考塊的深度值進行分析,將所有虛擬深度圖參考塊的最大深度值進行范圍劃分,并用其轉(zhuǎn)化的視差矢量值對當前已獲取的相鄰視差矢量進行率失真優(yōu)化。最后可通過與于分級化小搜索窗的相鄰視差矢量修正算法的結(jié)合,實現(xiàn)聯(lián)合優(yōu)化。實驗結(jié)果證明該算法能夠在損失較小的編碼時間性能的情況下有效提升紋理視頻編碼質(zhì)量。3.提出一種基于分組搜索和比例組合的相鄰視差矢量快速獲取算法。通過對候選塊位置的視差矢量的采用率做出分析,找出視差矢量率失真代價最小的候選塊位置,并對候選塊位置進行刪減和優(yōu)化操作;針對刪減后的候選塊位置視差矢量相關(guān)度進行分析,提出按比例結(jié)合的方法,并根據(jù)率失真代價指標提出一種自適應(yīng)的結(jié)合比例調(diào)整策略,通過結(jié)合不同的量化參數(shù)指標將獲取的相鄰候選塊的視差矢量相結(jié)合來形成優(yōu)化后的視差矢量;并針對候選塊位置是否能獲取到視差矢量的情況進行分析,設(shè)計分組搜索策略,進一步實現(xiàn)相鄰視差矢量快速獲取;最后提出基于比例結(jié)合和分組搜索的相鄰視差矢量獲取算法,在視差矢量快速獲取的同時保證視差矢量準確性。4.提出一種基于方磚和模式?jīng)Q策集的深度圖的幀內(nèi)模式快速選擇算法。結(jié)合深度圖的自身空間結(jié)構(gòu)特性以及編碼模式分布特性,同時利用深度圖幀內(nèi)編碼模式的空間相關(guān)性以及對應(yīng)的紋理圖中參考塊的幀內(nèi)編碼模式的相關(guān)性,提出基于方磚(TILE)結(jié)構(gòu)的深度圖平坦區(qū)域快速劃分方法;然后根據(jù)深度圖的當前編碼單元、子劃分單元周邊相鄰的參考塊的幀內(nèi)預(yù)測模式,以及對應(yīng)紋理圖中的參考塊、周邊相鄰的參考塊的幀內(nèi)預(yù)測模式建立幀內(nèi)預(yù)測模式?jīng)Q策集;通過模式?jīng)Q策集對初始劃分后的結(jié)果進行再次幀內(nèi)模式判定,提前找出采用率最高的平坦幀內(nèi)模式的情況并提前跳出。實驗結(jié)果表明該方法能夠顯著提高三維深度視頻編碼效率。
【學位授予單位】:北京工業(yè)大學
【學位級別】:博士
【學位授予年份】:2016
【分類號】:TN919.81

【相似文獻】

中國期刊全文數(shù)據(jù)庫 前10條

1 宋曉煒;楊蕾;劉忠;廖亮;;基于視差矢量特點的視差估計快速算法[J];計算機應(yīng)用;2012年07期

2 安平,張兆揚;基于立體攝像幾何特性的視差匹配快速算法[J];上海大學學報(自然科學版);2000年05期

3 劉佳;安平;張兆揚;;基于對象的預(yù)測遞歸視差估計[J];中國圖象圖形學報;2005年11期

4 郭大波;盧朝陽;何華君;焦衛(wèi)東;;一種新的立體視差估計算法[J];西安電子科技大學學報;2007年03期

5 吳書凱;都思丹;李華;;基于半規(guī)則網(wǎng)格的視差估計算法[J];計算機應(yīng)用;2008年04期

6 陳文鑫;陳偉東;朱仲杰;白永強;;基于可變特征基元的視差估計新方法[J];計算機工程與應(yīng)用;2008年15期

7 莊克成;曾丹;陶江良;張之江;;基于視差估計的視圖生成[J];計算機仿真;2010年02期

8 張倩;安平;張兆楊;呂朝輝;;基于視差稠密化的視圖合成[J];高技術(shù)通訊;2010年08期

9 元輝;李志斌;劉微;;基于色度分割與圖割算法的視差估計算法[J];華南理工大學學報(自然科學版);2013年02期

10 胡波;戴萬長;肖志堅;吳建平;胡杰;;均值偏移的多視點視差估計新方法[J];計算機應(yīng)用;2013年08期

中國重要會議論文全文數(shù)據(jù)庫 前5條

1 郁梅;董海濤;蔣剛毅;;基于視差插值與相似度的多視點視差估計算法[A];第一屆建立和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2005)論文集[C];2005年

2 魏娜;張為冬;;3D電視視差舒適度客觀評價[A];中國新聞技術(shù)工作者聯(lián)合會第六次會員代表大會、2014年學術(shù)年會暨第七屆《王選新聞科學技術(shù)獎》和優(yōu)秀論文獎頒獎大會論文集(三等獎)[C];2014年

3 邱濤;郁梅;彭宗舉;李福翠;徐秋敏;蔣剛毅;;一種交互式多視點系統(tǒng)中的多分辨率視差估計算法[A];第三屆和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2007)論文集[C];2007年

4 陳毅濱;蔡燦輝;;基于運動和視差特性的立體視頻對象分割算法[A];第十四屆全國圖象圖形學學術(shù)會議論文集[C];2008年

5 李立春;周建亮;孫軍;尚德生;張偉;許穎慧;楊成;孟彥鵬;;應(yīng)用單應(yīng)誘導(dǎo)視差的探測器月面著陸平面選擇方法[A];中國宇航學會深空探測技術(shù)專業(yè)委員會第十屆學術(shù)年會論文集[C];2013年

中國博士學位論文全文數(shù)據(jù)庫 前1條

1 周作成;基于3D-HEVC質(zhì)量優(yōu)化和高效視頻編碼方法研究[D];北京工業(yè)大學;2016年

中國碩士學位論文全文數(shù)據(jù)庫 前10條

1 陳佃文;基于4D光場數(shù)據(jù)的深度信息獲取[D];北京信息科技大學;2016年

2 安瑞;基于視差變化調(diào)節(jié)的立體視頻舒適度增強方法研究[D];吉林大學;2016年

3 游寧;基于H.264的多視點視頻編碼快速算法的研究[D];福州大學;2013年

4 孔祥軍;基于多視點解碼流分析的視差預(yù)測方法研究[D];吉林大學;2015年

5 張耀;基礎(chǔ)矩陣計算及其在立體視差估計中的應(yīng)用[D];西安電子科技大學;2008年

6 龐耀華;多視角視頻編碼中視角合成技術(shù)研究[D];西安電子科技大學;2009年

7 劉小莉;雙目立體視覺稠密視差算法研究[D];重慶大學;2008年

8 張磊;多視點視頻編碼中運動與視差估計的研究[D];西安電子科技大學;2010年

9 呂小倩;沉浸式視頻中三維場景視差提取與精煉的研究[D];山東大學;2009年

10 張程風;立體視頻中視差估計研究[D];合肥工業(yè)大學;2010年



本文編號:1284240

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/1284240.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶3f3b0***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com