基于3D-HEVC的三維視頻編碼快速算法研究
本文選題:3D-HEVC + 編碼單元; 參考:《浙江大學(xué)》2017年博士論文
【摘要】:3D視頻系統(tǒng)可以為觀眾提供身臨其境的視覺體驗(yàn)。近年來,隨著顯示技術(shù)的提升,3D視頻得到廣泛應(yīng)用,如3D電影、自由視點(diǎn)電視、3D家庭娛樂以及虛擬現(xiàn)實(shí)系統(tǒng)等。然而,相比于傳統(tǒng)的2D視頻,3D視頻往往包含多個(gè)視點(diǎn)的紋理圖和深度圖,以及一些輔助信息,數(shù)據(jù)量更大,給存儲空間和傳輸帶寬造成更大壓力。為了有效地壓縮3D視頻數(shù)據(jù),國際上的標(biāo)準(zhǔn)化組織成立了 3D視頻編碼擴(kuò)展聯(lián)合協(xié)作組,在2D高效率視頻編碼標(biāo)準(zhǔn)(High Efficiency Video Coding,HEVC)的基礎(chǔ)上推出了 3D擴(kuò)展版本3D-HEVC,較以前的多視點(diǎn)視頻編碼標(biāo)準(zhǔn)可以實(shí)現(xiàn)更高的壓縮比。3D-HEVC繼承了 HEVC的四叉樹劃分結(jié)構(gòu),通過引入一些新技術(shù),極大提高了壓縮效率,但同時(shí)也增加了計(jì)算復(fù)雜度。因此,如何充分利用3D-HEVC的新特性,降低其復(fù)雜度,推進(jìn)其實(shí)時(shí)化應(yīng)用成為一個(gè)亟待解決的重要問題。本文正是在這樣的背景下,展開了對3D-HEVC快速算法的研究,分別針對編碼單元尺寸選擇、深度圖幀內(nèi)預(yù)測和深度圖幀率提升進(jìn)行了優(yōu)化:為了降低編碼單元樹劃分的復(fù)雜度,本文對3D視頻中的基本視點(diǎn)和非基本視點(diǎn)提出一種基于時(shí)空和視點(diǎn)相關(guān)性的編碼單元尺寸選擇快速算法。最先被編碼的基本視點(diǎn),由于沒有可參考視點(diǎn),不進(jìn)行視差矢量預(yù)測,所以利用當(dāng)前視點(diǎn)內(nèi)編碼單元四叉樹分層劃分的時(shí)空相關(guān)性,跳過太大或太小的尺寸嘗試,從而降低了尺寸選擇耗時(shí)。當(dāng)基本視點(diǎn)編碼重建完成后,根據(jù)三維空間變換關(guān)系將其映射到待編碼的非基本視點(diǎn),在此過程中將生成空洞標(biāo)記圖。對于非基本視點(diǎn)中的深度視頻,可通過空洞標(biāo)記圖中對應(yīng)位置的空洞信息提前終止編碼單元樹的遞歸劃分;對于非基本視點(diǎn)中的紋理視頻,可結(jié)合空洞信息和視點(diǎn)間的相關(guān)性來加速編碼單元樹的劃分過程。針對深度圖的幀內(nèi)編碼,提出一種基于灰度共生矩陣的深度圖快速幀內(nèi)預(yù)測算法。該算法對深度圖中的每個(gè)編碼單元在進(jìn)行幀內(nèi)預(yù)測之前生成相應(yīng)的灰度共生矩陣。首先,通過計(jì)算灰度共生矩陣的協(xié)相關(guān)特征值,得到幀內(nèi)預(yù)測的主參考方向,只將主參考方向范圍內(nèi)的角度預(yù)測模式添加到粗略模式選擇候選列表中;然后,根據(jù)灰度共生矩陣的角二階矩特征值和鄰近塊是否使用了深度建模模型,判斷當(dāng)前深度編碼單元是否為平滑塊,對平滑塊省去將深度建模模型加入率失真候選列表中;最后,計(jì)算比較率失真候選列表中各候選模式的率失真代價(jià),得到最終的幀內(nèi)預(yù)測模式。該算法可以在保證編碼效率的同時(shí),有效降低深度圖幀內(nèi)編碼的計(jì)算復(fù)雜度。針對3D-HEVC低幀率編碼后的深度視頻提出一種基于圖割優(yōu)化運(yùn)動搜索的幀率提升算法。編號為奇數(shù)的訪問單元中的深度圖跳過不編碼,解碼后這些跳過的深度幀通過前后幀雙向運(yùn)動補(bǔ)償?shù)姆绞奖徊逯抵亟ǔ鰜。插值過程以編碼單元樹為基本單位進(jìn)行,具體插值塊的尺寸和搜索范圍是根據(jù)對應(yīng)紋理圖的運(yùn)動信息決定的。為了保證塊間運(yùn)動矢量場的平滑性,將一個(gè)編碼單元樹中所有塊的運(yùn)動搜索過程轉(zhuǎn)化為一個(gè)全局能量最小化方程的求解,其中的匹配代價(jià)項(xiàng)是衡量插值塊質(zhì)量的合成視點(diǎn)失真。最后,利用圖割優(yōu)化算法來解決這個(gè)能量最小化方程,得到最終的運(yùn)動矢量。用該算法重建出的深度圖合成的虛擬中間視點(diǎn),與用正常編碼的深度圖合成的虛擬視點(diǎn)相比,質(zhì)量損失很小,同時(shí)可以節(jié)省碼率和編碼時(shí)間。
[Abstract]:3D video system can provide the audience with visual experience. In recent years, with the improvement of display technology, 3D video has been widely used, such as 3D film, free view TV, 3D family entertainment and virtual reality system. However, compared to traditional 2D video, 3D visual frequency often contains multiple views of texture and depth map, and In order to effectively compress 3D video data, the international standard organization set up a 3D video coding extension joint collaboration group to effectively compress 3D video data. A 3D extended version 3D- is introduced on the basis of the 2D efficient video coding standard (High Efficiency Video Coding, HEVC). HEVC, compared with previous multi view video coding standards, a higher compression ratio can be achieved with a higher compression ratio, which inherits the four fork tree partition structure of HEVC. By introducing some new technologies, it greatly improves the compression efficiency, but also increases the computational complexity. Therefore, how to make full use of the new features of 3D-HEVC to reduce its complexity and promote the implementation of the 3D-HEVC It is an important problem to be solved urgently. In this context, the study of 3D-HEVC fast algorithm is carried out, which are optimized for the size selection of the coding unit, the intra prediction in the depth map and the frame rate lifting of the depth map. In order to reduce the complexity of the tree division of the coding unit, the basic view of the 3D video is presented in this paper. A fast algorithm for size selection of coding units based on spatiotemporal and view point correlation is proposed. The first coded basic view, because there is no reference point, does not predict the parallax vector, so uses the spatio-temporal correlation of the four forked tree in the current view point to skip too large or too small size tasting. When the basic view coding reconstruction is completed, it is mapped to the non basic view of the code to be coded according to the three-dimensional spatial transformation relationship, and the hole marking graph will be generated in this process. For the depth video in the non basic view, the hole information in the corresponding position in the hole mark map can be terminated ahead of time. The recursive partition of the code unit tree; for the texture video in the non basic viewpoint, it can accelerate the division process of the coding unit tree by combining the void information and the correlation between the points of view. In view of the intra coding of the depth map, a fast intra prediction method based on the gray symbiotic matrix is proposed. First, the corresponding gray symbiotic matrix is generated before the intra prediction. First, the main reference direction of intra prediction is obtained by calculating the coassociated eigenvalues of the grayscale symbiotic matrix, and only the angle prediction model in the main reference direction is added to the rough pattern selection candidate list; then, according to the angle two order of the grayscale symbiotic matrix, The moment eigenvalue and the adjacent block use the depth modeling model to determine whether the current depth coding unit is a smooth block, and the depth modeling model is added to the rate distortion candidate list for the flat block. Finally, the rate distortion cost of the candidate models in the ratio distortion candidate list is calculated, and the final intra prediction model is obtained. It can effectively reduce the computational complexity of the intra coding of the depth map while guaranteeing the coding efficiency. A frame rate lifting algorithm based on the graph cut optimization motion search is proposed for the depth video encoded by the low frame rate of 3D-HEVC. The depth graph in the number of odd number access units is not coded, and the depth frames of these skipped after decoding are passed through the decoding. The method of bidirectional motion compensation for front and back frames is reconstructed by interpolation. The interpolation process is based on the coding unit tree. The size and search range of the interpolated block are determined by the motion information of the corresponding texture. In order to ensure the smoothness of the motion vector field between blocks, the motion of all blocks in a coding unit tree is searched. The process is transformed into a global energy minimization equation, in which the matching cost term is the synthetic viewpoint distortion that measures the quality of the interpolating block. Finally, a graph cut optimization algorithm is used to solve the energy minimization equation, and the final motion vector is obtained. The virtual intermediate point of view synthesized by the depth graph is rebuilt with the algorithm. Compared with the virtual view, the depth map of the code can reduce the quality loss and save code rate and coding time.
【學(xué)位授予單位】:浙江大學(xué)
【學(xué)位級別】:博士
【學(xué)位授予年份】:2017
【分類號】:TN919.81
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 左一帆;安平;張兆楊;;基于圖割的高質(zhì)量深度圖獲取方法[J];電視技術(shù);2011年15期
2 張艷;安平;張秋聞;王奎;張兆楊;;恰可察覺深度差異模型的深度圖優(yōu)化方法[J];光電子.激光;2012年07期
3 左宇鵬;;基于深度圖壓縮的邊界自適應(yīng)上采樣方案[J];計(jì)算機(jī)與現(xiàn)代化;2014年05期
4 楊超;安平;何宛文;王健鑫;張兆楊;;一種用于深度圖編碼的虛擬視失真估計(jì)模型[J];光電子.激光;2014年07期
5 溫宇強(qiáng),李德華;多視角深度圖融合方法綜述[J];計(jì)算機(jī)與數(shù)字工程;2003年04期
6 葉長明;蔣建國;詹曙;S.Ando;;不同姿態(tài)人臉深度圖識別的研究[J];電子測量與儀器學(xué)報(bào);2011年10期
7 左一帆;安平;馬然;沈禮權(quán);張兆楊;;深度圖時(shí)域一致性增強(qiáng)[J];光電子.激光;2014年01期
8 朱波;蔣剛毅;張?jiān)?郁梅;;面向虛擬視點(diǎn)圖像繪制的深度圖編碼算法[J];光電子.激光;2010年05期
9 周娟;李勇平;黃躍峰;;基于強(qiáng)度圖和深度圖的多模態(tài)人臉識別[J];計(jì)算機(jī)工程與應(yīng)用;2012年25期
10 李思宇;李勝;王衡;汪國平;;利用深度圖優(yōu)化的自然光束體構(gòu)建與繪制[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2011年07期
相關(guān)會議論文 前3條
1 陳東;楊生鵬;莊嚴(yán);王偉;;基于視覺信息的三維激光點(diǎn)云渲染與深度圖構(gòu)建[A];第二十九屆中國控制會議論文集[C];2010年
2 劉偉鋒;張卓;王延江;;基于光線衰減的深度獲取方法[A];中國自動化學(xué)會控制理論專業(yè)委員會B卷[C];2011年
3 張帥;付宏杰;;基于Kinect的多點(diǎn)觸控系統(tǒng)研究與實(shí)現(xiàn)[A];第六屆全國信號和智能信息處理與應(yīng)用學(xué)術(shù)會議論文集[C];2012年
相關(guān)博士學(xué)位論文 前10條
1 李賀建;三維視頻中基于FPGA的實(shí)時(shí)深度估計(jì)研究與應(yīng)用[D];上海大學(xué);2015年
2 馬祥;提高三維視頻深度編碼性能的技術(shù)研究[D];西安電子科技大學(xué);2015年
3 葛川;三維視頻的高效壓縮及資源分配算法研究[D];山東大學(xué);2015年
4 葉昕辰;面向3DTV的深度計(jì)算重建[D];天津大學(xué);2015年
5 王來花;基于深度的虛擬視點(diǎn)繪制及其失真研究[D];天津大學(xué);2015年
6 郭莉琳;基于3D-HEVC的三維視頻編碼快速算法研究[D];浙江大學(xué);2017年
7 鄧慧萍;3D視頻的深度圖優(yōu)化與深度編碼方法研究[D];華中科技大學(xué);2013年
8 高凱;立體視頻深度圖提取及深度序列編碼技術(shù)研究[D];吉林大學(xué);2013年
9 羅雷;基于深度圖繪制的三維視頻編碼技術(shù)研究[D];浙江大學(xué);2013年
10 霍智勇;自由視點(diǎn)視頻深度圖估計(jì)的關(guān)鍵技術(shù)研究[D];南京郵電大學(xué);2013年
相關(guān)碩士學(xué)位論文 前10條
1 李海坤;基于彩色和深度的前景分割研究[D];山東大學(xué);2015年
2 張?jiān)罋g;3D視頻編碼中深度信息優(yōu)化及場景背景編碼技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2015年
3 曹廣昊;立體視頻系統(tǒng)中深度傳播算法的研究[D];山東大學(xué);2015年
4 丁焱;基于深度圖的虛擬視點(diǎn)繪制中空洞填補(bǔ)技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2015年
5 馬姝穎;基于視點(diǎn)合成的深度圖編碼技術(shù)研究[D];電子科技大學(xué);2015年
6 王旭;面向繪制質(zhì)量的深度圖壓縮感知研究[D];上海大學(xué);2015年
7 卞玲艷;基于深度圖的2D轉(zhuǎn)3D視頻算法的研究[D];電子科技大學(xué);2015年
8 王亞峰;3D-HEVC深度圖預(yù)處理與誤碼掩蓋技術(shù)研究[D];西安電子科技大學(xué);2014年
9 白樹斌;基于RGB-D圖像的深度圖增強(qiáng)問題研究[D];青島大學(xué);2015年
10 王玉峰;基于多視點(diǎn)的三維場景的低延遲遠(yuǎn)程繪制算法研究[D];浙江工商大學(xué);2015年
,本文編號:2018754
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/2018754.html