天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 軟件論文 >

視頻壓縮中的高效幀間編碼技術研究

發(fā)布時間:2018-04-10 10:12

  本文選題:視頻編碼 切入點:3D視頻編碼 引自:《哈爾濱工業(yè)大學》2017年博士論文


【摘要】:近年來高清及超高清視頻不斷出現(xiàn),使得以H.264/AVC和AVS為代表的第二代視頻編碼標準已無法滿足實際應用的需要。為了提高編碼效率,國際JCT-VC工作組于2013年完成新一代視頻編碼標準HEVC(High Efficiency Video Coding)的制定。HEVC較H.264/AVC在相同視頻質量下節(jié)省了一半左右的碼率。國內AVS工作組于2014年完成AVS2的制定,它與HEVC具有類似的編碼性能。然而隨著人們對視頻質量和視頻分辨率需求的不斷提高,對視頻編碼標準的壓縮效率又提出更高的要求。幀間預測因其能顯著改善編碼性能而在大多數(shù)視頻編碼標準中發(fā)揮了重要的作用。但是目前視頻編碼標準中普遍采用的幀間預測不能有效地處理復雜運動或者有些情況下不夠準確,因此,在現(xiàn)有視頻編碼標準基礎上通過增強幀間預測性能獲取更高的編碼效率具有重要的意義。3D視頻以其能夠給大家?guī)碚鎸嵉?D場景體驗和交互式地選擇觀看視角,引起了大家的廣泛關注。作為HEVC的一個擴展,3D-HEVC主要致力于3D視頻的有效壓縮。除了HEVC中現(xiàn)有的編碼工具,3D-HEVC引入了一些新的編碼工具來提高多視點視頻的編碼性能,新的編碼工具的引入導致編碼端復雜度顯著增加。因此,對3D-HEVC預測技術進行優(yōu)化、降低3D-HEVC編碼復雜度具有重要的意義。本文主要針對增強視頻編碼標準的幀間預測性能、優(yōu)化3D-HEVC預測技術、降低3D-HEVC編碼復雜度展開深入的研究。具體研究內容分為以下四個部分:第一,本文提出一個用于變形塊運動信息獲取的merge模式。運動估計因其能顯著改善編碼性能而在大多數(shù)視頻編碼標準中發(fā)揮了重要的作用。目前視頻編碼標準中普遍采用基于平移運動模型的塊匹配運動估計(Block Matching Motion Estimation,BMME),它假定一個塊內的所有像素都經歷相同的運動。然而,BMME不能準確地描述復雜運動,比如旋轉、縮放、變形。為了解決這個問題,本文提出了用于變形塊運動信息獲取的merge模式,它同時考慮了雙線性插值模型、六參數(shù)仿射模型和四參數(shù)仿射模型。最小絕對變換差值和(Sum of Absolute Transformed Differences,SATD)準則用于為一個塊選取最優(yōu)模型。對于提出的merge模式,當前塊的運動信息從其鄰近塊的運動信息獲取得到。它不需要進行運動估計和傳遞運動參數(shù),這有效地避免了以往解決變形運動的方案中估計和有效編碼復雜運動模型包含的增多的運動參數(shù)的問題。本文提出的merge模式在HM14.0上集成。實驗結果表明,與HM14.0相比,該方法以少量編解碼復雜度代價對變形序列平均帶來11%~18%的BD bitrate增益,對HEVC通測序列平均帶來1%~3%的BD bitrate增益。第二,本文提出一個自適應維納濾波,用于提高幀間預測準確性。幀間預測因其能顯著改善編碼性能而在大多數(shù)視頻編碼標準中發(fā)揮了重要的作用。幀間預測越準,編碼效率越高。然而目前的幀間預測可能不夠準確,尤其對于包含亮度變化、場景切換或者噪聲的場景。為了改善幀間預測性能,本文提出自適應維納濾波作為運動估計和運動補償過程的附加模塊。對于本文提出的自適應維納濾波方案,每個編碼單元(Coding Unit,CU)的濾波系數(shù)通過參考當前CU和其時域對應塊的空域鄰近重構像素在編、解碼端估計得到。對于一個編碼單元,只需要編碼和傳遞一個標志位來標識是否使用提出的自適應維納濾波。本文使用的自適應維納濾波相比之前用于提高幀間預測準確性的線性回歸模型和偏移模型,具有更強的描述能力。實驗結果表明,本文提出的自適應維納濾波方案可以進一步提升HEVC的編碼性能,同時對解碼復雜度的影響可以忽略。第三,本文提出一些改進方案用于優(yōu)化3D-HEVC的預測技術。視差矢量(Disparity Vector,DV)的獲取對視間運動預測、視間殘差預測、視差補償預測或者其它任何利用視間相關性的工具至關重要。DV用于定位當前塊在另一視點中的對應塊。在HTM5.0(3D-HEVC的測試版本5)中,DV從一些空域鄰近塊和時域鄰近塊獲取。本文為了降低視差矢量獲取過程的復雜度并獲取更好的編碼效率,對該過程做了一些改進。為了減少DV獲取過程的內存訪問帶寬和復雜度提出去掉第三個時域塊、對所有視點統(tǒng)一時域塊的搜索順序、對BR時域塊加以限制。由于時域鄰近塊的DV比空域鄰近塊的DV預測準確性高,為了獲取更好的編碼效率,提出先從時域鄰近塊搜索DV。視點合成預測(View Synthesis Prediction,VSP)將鄰近視點的圖片映射到當前視點用于預測,用來改善多視點視頻的編碼性能。由于后向視點合成預測(Backward View Synthesis Prediction,BVSP)可以實現(xiàn)更有效的基于塊的處理而被3D-HEVC所使用。為了簡化3D-HEVC的視點合成預測,本文做了兩個改動:統(tǒng)一深度圖調整的鄰近塊視差矢量(Depth Oriented Neighboring Block Disparity Vector,Do NBDV)和BVSP過程訪問的深度數(shù)據(jù)、減少鄰近塊視差矢量(Neighboring Block Disparity Vector,NBDV)和BVSP模式標志的存儲需求。這兩個改動在減少內存訪問帶寬和存儲需求的同時沒有引起總的編碼性能改變。第四,本文提出一個基于3D-HEVC的紋理編碼的快速編碼決策。3D-HEVC編碼效率的改善是以計算復雜度的增加為代價的。除了HEVC中現(xiàn)有的編碼工具,3D-HEVC引入了一些新的編碼工具來提高多視點視頻的編碼性能,新的編碼工具的引入導致編碼端復雜度顯著增加。如何降低編碼端復雜度成為應用中的一個關鍵問題。為此,本文提出一個編碼紋理依賴視的快速編碼決策方法,采用了兩個利用視間相關性的策略加速編碼決策。第一個策略是merge模式提前決策方法,第二個策略是CU劃分提前終止方法。Merge模式提前決策包括兩個條件:(1)五個視間鄰近塊的最優(yōu)預測模式都是merge模式;(2)當前CU的skip模式比merge 2Nx2N模式的率失真性能好。如果上述兩個條件同時滿足,屬于當前CU的所有預測單元(Prediction Unit,PU)只需考查merge模式而不是考查所有的預測模式。CU劃分提前終止策略包括兩個條件:(1)當前CU的CU劃分深度等于或者大于五個視間鄰近塊的最大劃分深度;(2)在考查所有的預測模式后,當前CU的最優(yōu)預測模式是skip模式。當上述兩個條件同時滿足時,當前CU不需要進一步向下劃分。本文將視間相關性和3D-HEVC的編碼工具結合,設計了適合3D-HEVC的紋理編碼的快速編碼策略。實驗結果表明,本文提出的快速編碼決策方法可以帶來47%的編碼時間節(jié)省,同時帶來0.1%的碼率降低。
[Abstract]:In recent years, Ultra HD video and HD appear constantly, which makes the second generation video encoding standard H.264/AVC and AVS as the representative has been unable to meet the needs of practical application. In order to improve the encoding efficiency, international JCT-VC working group in 2013 to complete a new generation of video encoding standard HEVC (High Efficiency Video Coding.HEVC H.264/AVC) is the formulation of saving rate about half of the same video quality. In the domestic AVS Working Group on 2014 to complete the formulation of AVS2 and HEVC, it has similar encoding performance. However with the video quality and resolution of the increasing demand for video encoding standard compression efficiency and put forward higher requirements. Because of the significant inter prediction to improve the encoding performance and play an important role in video encoding standards. But the most commonly used video encoding standard in the inter prediction is not effective To deal with complex motion or in some cases is not accurate enough, therefore, by enhancing the inter prediction performance gets higher encoding efficiency is of great significance to the.3D video can bring you a real 3D scene experience and interactive selection of view based on the existing video encoding standard, aroused widespread concern as. An extension of HEVC, the effective compression 3D-HEVC focuses on 3D video encoding. In addition to the existing HEVC tools, 3D-HEVC introduces some new encoding tools to improve the performance of multi view video encoding, introduce new coding tools in encoding complexity increased significantly. Therefore, to optimize the forecasting technology of 3D-HEVC 3D-HEVC, reduce the complexity of encoding is of great significance. This paper focuses on the enhancement of video encoding standard inter frame prediction performance, optimization of 3D-HEVC prediction technology, reduce 3D-HEVC Further research is carried out code complexity. The specific research contents are divided into the following four parts: first, this paper presents a deformable block motion information acquisition for merge motion estimation mode. Because it can significantly improve the encoding performance and play an important role in the majority of video encoding standards. The video encoding standards commonly used in translation the motion model based on block matching motion estimation (Block Matching Motion Estimation, BMME), it is assumed that a block of all pixels that are experiencing the same movement. However, BMME cannot accurately describe the complex motion, such as rotation, zoom, deformation. In order to solve this problem, this paper proposed for deformable block motion information acquisition the merge model, it also considers the bilinear interpolation model, six parameter model and four parameter affine transform model. The minimum absolute difference and of (Sum Absolute Transformed Dif Ferences, SATD) criterion is used to select the optimal model for a block. For the proposed merge model, the motion information of moving blocks of information from its neighboring blocks obtained. It does not need to perform motion estimation and motion transmission parameters, which effectively avoids the complex number and effective encoding parameters of motion model including the in the past to solve the estimation problem of deformation movement scheme. The proposed integrated merge model in HM14.0. The experimental results show that compared with HM14.0, the method with a small amount of decoding complexity is 11%~18% BD bitrate the average price gain for the deformation sequence, measurement of HEVC sequence 1%~3% BD bitrate brings the average gain. Second. This paper proposes an adaptive Wiener filter is used to improve inter prediction accuracy. Inter prediction because it can significantly improve the encoding performance in most video encoding standards play an important The effect of inter prediction. More precisely, encoding efficiency is higher. However, the inter prediction may not be accurate, especially for containing the brightness change of scene change or noise scene. In order to improve the performance of inter frame prediction, this paper proposes an adaptive Wiener filter as an additional module of motion estimation and motion compensation for adaptive Wiener process. The filtering scheme is proposed in this paper, each encoding unit (Coding Unit, CU) of the filter coefficients by reference to the present CU and its corresponding time domain block pixels in adjacent airspace, estimated by the decoder. For an encoding unit, only need to transfer and encoding a flag indicating whether the use of the proposed adaptive Wiener filtering this paper uses the adaptive Wiener filter. Compared to the previous used to improve inter prediction accuracy of linear regression model and the offset model has better description ability of experimental results. Show that the adaptive Wiener filtering scheme is proposed in this paper can further improve the encoding performance of the HEVC, while the impact of the complexity of decoding can be ignored. Third, this paper puts forward some improvement scheme for the prediction of 3D-HEVC optimization technology. The disparity vector (Disparity Vector DV) to obtain the visual motion prediction, inter view prediction residuals, disparity compensation prediction or any other use of inter view correlation tools vital.DV used to locate the current block in another view of the corresponding block. In HTM5.0 (test version of 3D-HEVC 5, DV) from a number of adjacent blocks and adjacent airspace domain acquisition. In this paper, in order to reduce the disparity vector acquisition process complexity and obtain better encoding efficiency. The process has made some improvement. In order to reduce the DV acquisition process memory access bandwidth and complexity is proposed to remove third of all time, unified view time domain block The search order, restrictions on the BR time domain block. Because the time domain adjacent block DV high prediction accuracy than spatial adjacent block DV, in order to obtain a better encoding efficiency, put forward first search adjacent blocks DV. view from time domain synthesis prediction (View Synthesis Prediction, VSP) will point to the adjacent image maps of myopia is used to predict the current viewpoint encoding, used to improve the performance of multi view video. Due to view synthesis prediction (Backward View Synthesis Prediction, BVSP) can effectively block based processing and used by 3D-HEVC. In order to simplify the 3D-HEVC view synthesis prediction, this paper makes two changes: adjacent block disparity vector of uniform depth adjustment (Fig. Depth Oriented Neighboring Block Disparity Vector, Do NBDV) and BVSP depth data access process, reduce the disparity vectors of adjacent blocks (Neighboring Block Disparity Vector, NBDV and BVSP) The storage demand pattern marks. The two changes in the reduction did not cause the change of the encoding performance total memory access bandwidth and storage requirements at the same time. Fourth, this paper proposes a fast texture encoding 3D-HEVC encoding.3D-HEVC encoding based on the decision-making efficiency is improved at the cost of increasing the computational complexity. In addition to the existing encoding tool HEVC, 3D-HEVC introduces some new encoding tools to improve the performance of multi view video encoding, introduce new encoding tools lead to encoding complexity significantly increased. How to reduce the encoding complexity becomes a key problem in the application. Therefore, this paper puts forward a method of encoding decision as dependent texture encoding two, by using the correlation between visual encoding strategy to speed up decision-making. The first strategy is early merge mode decision method, the second strategy is the division of CU early termination Methods early.Merge mode decision includes two conditions: (1) five as between adjacent block optimal prediction mode is merge mode; (2) the CU merge 2Nx2N model skip model is better than the rate distortion performance. If the two conditions are satisfied, all belong to the current pre measurement unit CU (Prediction Unit, PU and merge) to examine the model prediction model.CU test all the division is not an early termination strategy includes two conditions: (1) CU into the current CU depth is equal to or greater than five as the maximum depth between adjacent block division; (2) in the prediction of all modes of the test, the optimal prediction model CU is skip mode. When these two conditions are met, the CU does not require a further downward division. This paper considered the correlation between 3D-HEVC and encoding tools combined with texture design, suitable for 3D-HEVC encoding fast coding strategy. The experimental results It shows that the fast coding decision method proposed in this paper can bring 47% coding time saving and 0.1% bit rate reduction.

【學位授予單位】:哈爾濱工業(yè)大學
【學位級別】:博士
【學位授予年份】:2017
【分類號】:TP391.41

【相似文獻】

相關期刊論文 前10條

1 徐琳;;重點項目“高效視頻編碼中的關鍵技術研究”取得重要進展[J];自然科學進展;2007年02期

2 趙珊;張玲;鄭建彬;楊杰;;H.264視頻編碼標準[J];有線電視技術;2007年11期

3 蔣剛毅;朱亞培;郁梅;張云;;基于感知的視頻編碼方法綜述[J];電子與信息學報;2013年02期

4 林慶帆;;視頻編碼的新趨勢(英文)[J];西安郵電大學學報;2013年03期

5 ;我國科學家主導的視頻編碼標準成國際標準[J];中國標準導報;2013年07期

6 李衛(wèi)平;;是否使用可伸縮視頻編碼(英文)[J];中國科學技術大學學報;2013年11期

7 沈蘭蓀,魏海,黃祥林;基于子帶/小波分解的視頻編碼可分級性研究[J];電子學報;2000年07期

8 韋強,李曉輝,翟宗起;一種自適應快速視頻編碼的新方法[J];微機發(fā)展;2000年06期

9 張勇東,李桂苓;立體視頻編碼中視差估值算法的研究[J];電子測量與儀器學報;2002年01期

10 張勇東,李桂苓;高性能三維小波視頻編碼方法[J];通信技術;2002年01期

相關會議論文 前10條

1 楊任爾;陳懇;葉慶衛(wèi);;基于幀的多描述視頻編碼冗余插入研究[A];2009中國控制與決策會議論文集(2)[C];2009年

2 袁子立;胡世安;孟一鳴;王璀璨;;視頻編碼新技術新標準研究[A];全國第三屆信號和智能信息處理與應用學術交流會?痆C];2009年

3 巫戈明;孫立峰;鐘玉琢;;聯(lián)合零向量預測的分布式視頻編碼框架[A];第三屆和諧人機環(huán)境聯(lián)合學術會議(HHME2007)論文集[C];2007年

4 石春鶯;陳偉建;;分布式視頻編碼的近況和未來研究方向[A];2008年中國西部青年通信學術會議論文集[C];2008年

5 楊任爾;金煒;陳懇;;基于下抽樣多描述視頻編碼及解碼后處理研究[A];第二十七屆中國控制會議論文集[C];2008年

6 許鵬飛;羅建書;;率控制自組織矢量量化及在視頻編碼中的應用[A];第十二屆全國圖象圖形學學術會議論文集[C];2005年

7 江濤;陳偉建;;可伸縮視頻編碼中運動模型的改進[A];2008年中國西部青年通信學術會議論文集[C];2008年

8 姜俊;胡駿;;新媒體視頻編碼方案比較研究[A];中國新聞技術工作者聯(lián)合會2008年學術年會論文集(下)[C];2008年

9 劉孝波;;基于聯(lián)合采樣的多描述視頻編碼[A];計算機技術與應用進展·2007——全國第18屆計算機技術與應用(CACIS)學術會議論文集[C];2007年

10 卿粼波;呂瑞;鄭敏;滕奇志;何小海;;基于迭代譯碼算法的分級分布式視頻編碼[A];第十五屆全國圖象圖形學學術會議論文集[C];2010年

相關重要報紙文章 前10條

1 記者 謝宏;我國主導的視頻編碼標準將頒為國際標準[N];科技日報;2013年

2 記者 徐建華;我國科學家主導的視頻編碼標準成國際標準[N];中國質量報;2013年

3 中國工程院院士 高文;智慧城市中的視頻編碼、分析與評測[N];中國信息化周報;2013年

4 記者 徐建華;我國新一代視頻編碼標準公開征求意見[N];中國質量報;2014年

5 湖北 褚達;視頻編碼一網打盡[N];電腦報;2003年

6 國際;第二代AVS開啟國際化征程[N];中國電子報;2009年

7 周汝波 賀學金;碟機常用視頻D/A轉換、視頻編碼集成電路維修資料[N];電子報;2007年

8 中國科學院計算技術研究所,中國科學院研究生院$$ $$信息產業(yè)部“數(shù)字音視頻編解碼技術標準工作組”秘書長、組長 黃鐵軍 高文;視頻編碼有絕招[N];計算機世界;2003年

9 ;視頻編碼標準的發(fā)展[N];計算機世界;2005年

10 周汝波 賀學金;碟機常用視頻D/A轉換、視頻編碼集成電路維修資料[N];電子報;2007年

相關博士學位論文 前10條

1 張娜;視頻壓縮中的高效幀間編碼技術研究[D];哈爾濱工業(yè)大學;2017年

2 王苫社;基于率失真優(yōu)化的高效視頻編碼技術研究[D];哈爾濱工業(yè)大學;2014年

3 胡金暉;基于深度信息的多視點視頻編碼及圖像增強技術研究[D];武漢大學;2014年

4 陳方棟;基于背景建模的高性能視頻編碼方法研究[D];中國科學技術大學;2017年

5 張江山;基于變換的視頻編碼與率失真分析[D];華中科技大學;2003年

6 趙安邦;穩(wěn)健視頻編碼與傳輸技術研究[D];清華大學;2007年

7 楊志杰;可伸縮視頻編碼中的基礎算法研究[D];中國科學院研究生院(軟件研究所);2004年

8 張克新;可伸縮視頻編碼及傳輸理論與應用研究[D];華南理工大學;2012年

9 孟麗麗;多視點視頻編碼的研究[D];北京交通大學;2013年

10 王鵬;分布式視頻編碼率失真特性研究[D];上海交通大學;2008年

相關碩士學位論文 前10條

1 張正勇;基于高效視頻編碼標準中編碼單元分割的樣點自適應補償算法研究[D];華東師范大學;2015年

2 趙曉榮;基于HEVC的快速編碼算法研究[D];鄭州輕工業(yè)學院;2015年

3 趙睿思;基于壓縮感知的分布式視頻編碼研究[D];哈爾濱工業(yè)大學;2014年

4 劉娟;基于高性能視頻編碼(HEVC)算法的改進[D];東華理工大學;2014年

5 錢程;基于壓縮感知的分布式視頻編碼的研究與實現(xiàn)[D];南京郵電大學;2015年

6 檀會娟;分布式視頻編碼相關技術的研究[D];南京郵電大學;2015年

7 聶菁;H.264/AVC快速模式選擇算法研究[D];合肥工業(yè)大學;2015年

8 孟雷雷;基于參數(shù)選擇的視頻編碼算法優(yōu)化研究[D];中國計量學院;2015年

9 孫法江;多屏互動中無線傳屏低延遲算法的研究[D];中國海洋大學;2015年

10 陳帥;SHVC基本層的MPEG-2擴展[D];山東建筑大學;2016年

,

本文編號:1730782

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1730782.html


Copyright(c)文論論文網All Rights Reserved | 網站地圖 |

版權申明:資料由用戶91196***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com
五月综合婷婷在线伊人| 欧美大胆美女a级视频| 国产亚洲二区精品美女久久| 丝袜美女诱惑在线观看| 午夜午夜精品一区二区| 欧美丰满大屁股一区二区三区| 中文字幕亚洲精品乱码加勒比| 日韩一区二区三区观看| 男人操女人下面国产剧情| 日本成人三级在线播放| 女厕偷窥一区二区三区在线| 亚洲精品成人综合色在线| 妻子的新妈妈中文字幕| 日韩精品人妻少妇一区二区| 久久99国产精品果冻传媒| 青草草在线视频免费视频| 激情丁香激情五月婷婷| 福利在线午夜绝顶三级| 国产欧美一区二区久久| 99久久免费中文字幕| 日本免费一级黄色录像 | 久久香蕉综合网精品视频| 风间中文字幕亚洲一区| 国产伦精品一一区二区三区高清版 | 亚洲最新中文字幕一区| 亚洲在线观看福利视频| 日本不卡在线视频中文国产| 不卡在线播放一区二区三区| 97人摸人人澡人人人超碰| 最新午夜福利视频偷拍| 东京干男人都知道的天堂| 欧美黑人在线精品极品| 亚洲另类欧美综合日韩精品| 两性色午夜天堂免费视频| 久久91精品国产亚洲| 成人午夜激情免费在线| 欧美有码黄片免费在线视频| 高清一区二区三区不卡免费| 亚洲欧美日本国产有色| 激情内射亚洲一区二区三区| 欧美一区二区日韩一区二区|