天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于視點(diǎn)合成的深度圖編碼技術(shù)研究

發(fā)布時(shí)間:2017-06-11 14:06

  本文關(guān)鍵詞:基于視點(diǎn)合成的深度圖編碼技術(shù)研究,,由筆耕文化傳播整理發(fā)布。


【摘要】:自由視點(diǎn)視頻(Free Viewpoint Video/Televison,FVV/FTV)能夠提供具有豐富沉浸感的立體視頻,并且允許用戶在一定范圍內(nèi)自由選擇觀看位置,因此,FTV已經(jīng)成為視頻信號(hào)處理領(lǐng)域的下一個(gè)重要研究方向。為了實(shí)現(xiàn)所期望的業(yè)務(wù),FTV除了傳輸傳統(tǒng)2D紋理視頻外還需要額外傳輸深度圖像來生成虛擬視點(diǎn)。與紋理視頻相比,深度圖像具有完全不同的性質(zhì)和用途,如果直接采用傳統(tǒng)紋理視頻的編碼方式對(duì)深度圖像進(jìn)行編碼會(huì)引起合成視點(diǎn)中的較大失真。所以,在保證虛擬視點(diǎn)合成質(zhì)量的前提下,對(duì)深度圖像進(jìn)行高效的編碼壓縮已經(jīng)成為當(dāng)前的研究熱點(diǎn)。本文首先對(duì)3D視頻編解碼國(guó)際標(biāo)準(zhǔn)平臺(tái)——HTM中深度圖像編碼關(guān)鍵技術(shù)的使用頻率進(jìn)行了統(tǒng)計(jì),確定了兩個(gè)主要研究方向:區(qū)域直流編碼(SDC)和深度建模模式(DMM)。然后,從提高視點(diǎn)合成質(zhì)量的角度,在SDC和DMM這兩個(gè)方向上分別探索高效的深度圖編解碼方案,本文的主要學(xué)術(shù)貢獻(xiàn)如下:1.搭建一個(gè)深度圖像區(qū)域直流編碼(SDC)的優(yōu)化框架第一步,針對(duì)SDC中深度查詢表引入的映射誤差,提出單樣本預(yù)測(cè)法代替原始的四樣本預(yù)測(cè)來降低映射誤差,建立一個(gè)SDC預(yù)測(cè)編碼優(yōu)化模型;第二步,為了提升虛擬視點(diǎn)的合成質(zhì)量,在編碼端搜索SDC的最優(yōu)殘差值時(shí),提出一個(gè)SDC殘差搜索的視點(diǎn)合成優(yōu)化方案。通過以上兩步搭建一個(gè)SDC預(yù)測(cè)編碼及殘差選擇的優(yōu)化框架,實(shí)驗(yàn)證明該優(yōu)化框架能帶來高達(dá)0.31%的編碼增益(標(biāo)準(zhǔn)研究中有0.10%的增益就可以進(jìn)行提案)。2.對(duì)深度建模模式(DMM)中的DMM1和DMM4模式進(jìn)行優(yōu)化處理一方面,DMM1的楔形模板查詢表中模板數(shù)目眾多,占用了較多的緩沖內(nèi)存。通過分析不同尺寸塊查詢表的生成流程,提出下采樣簡(jiǎn)化方法,建立一個(gè)基于上/下采樣的楔形模板查詢表簡(jiǎn)化模型來降低模板數(shù)目。實(shí)驗(yàn)結(jié)果表明,該簡(jiǎn)化模型能節(jié)省27.1%的緩沖內(nèi)存,且?guī)缀醪粫?huì)帶來編碼損失。另一方面,考慮到DMM1只適用于具有直線邊界的圖像塊,DMM4只適用于紋理和深度內(nèi)容高度匹配的圖像塊。為了彌補(bǔ)DMM1和DMM4模式對(duì)邊界預(yù)測(cè)的不足,針對(duì)具有非直線邊界、且紋理和深度內(nèi)容不匹配的圖像塊,提出二階楔波預(yù)測(cè)(Second-order Wedgelet Prediction),實(shí)驗(yàn)表明該預(yù)測(cè)能夠帶來0.05%的編碼增益。
【關(guān)鍵詞】:三維視頻 深度圖編碼 視點(diǎn)合成 SDC DMM
【學(xué)位授予單位】:電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2015
【分類號(hào)】:TN919.81
【目錄】:
  • 摘要5-6
  • ABSTRACT6-10
  • 第一章 緒論10-15
  • 1.1 研究背景10-11
  • 1.2 國(guó)內(nèi)外研究現(xiàn)狀11-13
  • 1.2.1 自由視點(diǎn)視頻發(fā)展歷史11-12
  • 1.2.2 深度圖編碼技術(shù)研究現(xiàn)狀12-13
  • 1.3 本文的主要研究?jī)?nèi)容與貢獻(xiàn)13-14
  • 1.4 本文的結(jié)構(gòu)安排14-15
  • 第二章 基于視點(diǎn)合成的深度圖編碼技術(shù)研究概述15-32
  • 2.1 3D視頻編解碼標(biāo)準(zhǔn)(3D-HEVC)15-18
  • 2.2 虛擬視點(diǎn)合成18-24
  • 2.2.1 基于DIBR的視點(diǎn)合成算法18-23
  • 2.2.2 視點(diǎn)合成參考軟件23-24
  • 2.3 3D-HEVC中深度圖編碼關(guān)鍵技術(shù)24-29
  • 2.3.1 深度圖像建模模式(DMM)25-28
  • 2.3.2 區(qū)域直流編碼(SDC)28-29
  • 2.3.3 其他編碼工具29
  • 2.4 深度圖像編碼關(guān)鍵技術(shù)的性能測(cè)試29-31
  • 2.5 本章小結(jié)31-32
  • 第三章 深度圖像區(qū)域直流編碼優(yōu)化模型32-54
  • 3.1 SDC預(yù)測(cè)編碼優(yōu)化模型32-45
  • 3.1.1 基于DLT的SDC過程32-36
  • 3.1.2 單樣本預(yù)測(cè)方法36-41
  • 3.1.3 實(shí)驗(yàn)及結(jié)果分析41-45
  • 3.2 SDC殘差搜索的視點(diǎn)合成優(yōu)化45-53
  • 3.2.1 SDC編碼端的視點(diǎn)合成優(yōu)化45-49
  • 3.2.2 實(shí)驗(yàn)及結(jié)果分析49-53
  • 3.3 本章小結(jié)53-54
  • 第四章 深度建模模式的優(yōu)化處理54-69
  • 4.1 基于上/下采樣的楔形模板查詢表簡(jiǎn)化模型54-65
  • 4.1.1 楔形模板查詢表的生成54-58
  • 4.1.2 基于下采樣的簡(jiǎn)化方法58-61
  • 4.1.3 基于上/下采樣的楔形模板查詢表簡(jiǎn)化模型61-63
  • 4.1.4 實(shí)驗(yàn)及結(jié)果分析63-65
  • 4.2 二階楔波預(yù)測(cè)探索65-68
  • 4.2.1 二階楔波預(yù)測(cè)算法65-67
  • 4.2.2 實(shí)驗(yàn)及結(jié)果分析67-68
  • 4.3 本章小結(jié)68-69
  • 第五章 全文總結(jié)與展望69-71
  • 5.1 全文總結(jié)69-70
  • 5.2 后續(xù)工作展望70-71
  • 致謝71-72
  • 參考文獻(xiàn)72-76
  • 攻碩期間的研究成果76-77

【相似文獻(xiàn)】

中國(guó)期刊全文數(shù)據(jù)庫 前10條

1 左一帆;安平;張兆楊;;基于圖割的高質(zhì)量深度圖獲取方法[J];電視技術(shù);2011年15期

2 張艷;安平;張秋聞;王奎;張兆楊;;恰可察覺深度差異模型的深度圖優(yōu)化方法[J];光電子.激光;2012年07期

3 左宇鵬;;基于深度圖壓縮的邊界自適應(yīng)上采樣方案[J];計(jì)算機(jī)與現(xiàn)代化;2014年05期

4 楊超;安平;何宛文;王健鑫;張兆楊;;一種用于深度圖編碼的虛擬視失真估計(jì)模型[J];光電子.激光;2014年07期

5 溫宇強(qiáng),李德華;多視角深度圖融合方法綜述[J];計(jì)算機(jī)與數(shù)字工程;2003年04期

6 葉長(zhǎng)明;蔣建國(guó);詹曙;S.Ando;;不同姿態(tài)人臉深度圖識(shí)別的研究[J];電子測(cè)量與儀器學(xué)報(bào);2011年10期

7 左一帆;安平;馬然;沈禮權(quán);張兆楊;;深度圖時(shí)域一致性增強(qiáng)[J];光電子.激光;2014年01期

8 朱波;蔣剛毅;張?jiān)?郁梅;;面向虛擬視點(diǎn)圖像繪制的深度圖編碼算法[J];光電子.激光;2010年05期

9 周娟;李勇平;黃躍峰;;基于強(qiáng)度圖和深度圖的多模態(tài)人臉識(shí)別[J];計(jì)算機(jī)工程與應(yīng)用;2012年25期

10 李思宇;李勝;王衡;汪國(guó)平;;利用深度圖優(yōu)化的自然光束體構(gòu)建與繪制[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2011年07期

中國(guó)重要會(huì)議論文全文數(shù)據(jù)庫 前3條

1 陳東;楊生鵬;莊嚴(yán);王偉;;基于視覺信息的三維激光點(diǎn)云渲染與深度圖構(gòu)建[A];第二十九屆中國(guó)控制會(huì)議論文集[C];2010年

2 劉偉鋒;張卓;王延江;;基于光線衰減的深度獲取方法[A];中國(guó)自動(dòng)化學(xué)會(huì)控制理論專業(yè)委員會(huì)B卷[C];2011年

3 張帥;付宏杰;;基于Kinect的多點(diǎn)觸控系統(tǒng)研究與實(shí)現(xiàn)[A];第六屆全國(guó)信號(hào)和智能信息處理與應(yīng)用學(xué)術(shù)會(huì)議論文集[C];2012年

中國(guó)博士學(xué)位論文全文數(shù)據(jù)庫 前7條

1 鄧慧萍;3D視頻的深度圖優(yōu)化與深度編碼方法研究[D];華中科技大學(xué);2013年

2 高凱;立體視頻深度圖提取及深度序列編碼技術(shù)研究[D];吉林大學(xué);2013年

3 羅雷;基于深度圖繪制的三維視頻編碼技術(shù)研究[D];浙江大學(xué);2013年

4 霍智勇;自由視點(diǎn)視頻深度圖估計(jì)的關(guān)鍵技術(shù)研究[D];南京郵電大學(xué);2013年

5 韋虎;三維外形測(cè)量系統(tǒng)中的數(shù)據(jù)處理關(guān)鍵技術(shù)研究[D];南京航空航天大學(xué);2010年

6 張秋聞;自由視點(diǎn)視頻深度編碼關(guān)鍵技術(shù)研究[D];上海大學(xué);2012年

7 程光;人機(jī)交互系統(tǒng)中手勢(shì)和姿勢(shì)識(shí)別算法的研究[D];清華大學(xué);2014年

中國(guó)碩士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 李海坤;基于彩色和深度的前景分割研究[D];山東大學(xué);2015年

2 張?jiān)罋g;3D視頻編碼中深度信息優(yōu)化及場(chǎng)景背景編碼技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2015年

3 曹廣昊;立體視頻系統(tǒng)中深度傳播算法的研究[D];山東大學(xué);2015年

4 丁焱;基于深度圖的虛擬視點(diǎn)繪制中空洞填補(bǔ)技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2015年

5 馬姝穎;基于視點(diǎn)合成的深度圖編碼技術(shù)研究[D];電子科技大學(xué);2015年

6 王旭;面向繪制質(zhì)量的深度圖壓縮感知研究[D];上海大學(xué);2015年

7 李濤;單目視圖與多目視圖的深度圖恢復(fù)方法研究[D];清華大學(xué);2009年

8 滕立偉;2D轉(zhuǎn)3D中深度圖提取的算法研究與硬件實(shí)現(xiàn)[D];中國(guó)海洋大學(xué);2013年

9 莫一鳴;基于非參數(shù)多線索融合的單目視頻深度圖估計(jì)研究[D];南京郵電大學(xué);2014年

10 周葳;二維視頻中靜態(tài)場(chǎng)景深度圖獲取的算法分析[D];哈爾濱工業(yè)大學(xué);2012年


  本文關(guān)鍵詞:基于視點(diǎn)合成的深度圖編碼技術(shù)研究,由筆耕文化傳播整理發(fā)布。



本文編號(hào):441741

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/wltx/441741.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶9f6d8***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com