天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 碩博論文 > 信息類博士論文 >

時空特征提取方法研究

發(fā)布時間:2018-09-05 11:14
【摘要】:視頻內(nèi)容的認(rèn)識是計算機視覺中的重要問題,相關(guān)研究可以用于智能視頻監(jiān)控、人機交互、視頻檢索等多個領(lǐng)域。視頻的特征表達(dá)對于視頻內(nèi)容的識別至關(guān)重要。由于視頻數(shù)據(jù)量大且內(nèi)容復(fù)雜,同時會受到視角、背景、時間等因素影響,很難提取出良好的視頻特征。近年來相關(guān)研究取得了一定進(jìn)展,但仍存在諸多困難,無法良好的應(yīng)用到實際場景中。傳統(tǒng)方法以使用人工設(shè)計的局部特征表達(dá)為主,對視頻中時空信息的描述能力不足。同時,傳統(tǒng)視頻內(nèi)容識別中特征提取方法依賴復(fù)雜的處理運算,其速度難以達(dá)到實時性能。本文針對視頻內(nèi)容識別中的時空特征提取,從識別準(zhǔn)確率和識別速度兩方面都進(jìn)行了研究,本文主要工作如下。1.慢特征分析(SFA:slow feature analysis)從快速變化的信號中提取緩慢變化的特征,這一方法已被證實可以模擬靈長類動物的初級視皮層(V1)的復(fù)雜細(xì)胞。初級視皮層為腹側(cè)和背側(cè)通路提供信息,分別用于外觀和運動信息的處理。然而,SFA在局部特征提取中只被用于提取緩慢變化的信息,這些信息主要表征靜態(tài)的外觀信息,不包含運動信息。為了更好的利用時序信息,本文將SFA擴展為時間方差分析(TVA:temporal variance analysis)。TVA學(xué)習(xí)一個線性映射函數(shù),將原始的時序信息映射為在時序上具有不同變化量的特征分量。受到V1區(qū)域啟發(fā),我們通過TVA學(xué)習(xí)局部感受野(local receptive field),并通過卷積和池化操作進(jìn)行局部特征提取。本文對基于TVA的特征提取方法在四個行為識別數(shù)據(jù)庫上做了測試,實驗結(jié)果表明,基于TVA方法提取的慢特征與快特征都能有效的進(jìn)行特征表達(dá),且能夠獲得比傳統(tǒng)基于梯度方向直方圖特征更好的結(jié)果。2.動態(tài)紋理以不同形態(tài)廣泛存在,如火焰、煙霧、車流等,由于動態(tài)紋理視頻在時序上復(fù)雜的變化使得動態(tài)紋理識別成為一個具有挑戰(zhàn)性的問題。本文提出一種基于慢特征分析的動態(tài)紋理識別方法。慢特征分析可以從復(fù)雜的動態(tài)紋理中學(xué)到具有不變性的特征。然而,復(fù)雜的時間變化要求高層級的語義信息來進(jìn)行特征表達(dá)以達(dá)成時間不變性,這難以通過慢特征分析方法直接從高維視頻中學(xué)習(xí)到。我們提出了基于流形約束的慢特征分析(MR-SFA:manifold regularized SFA)學(xué)習(xí)一個低語義級別的局部特征,以描述復(fù)雜的動態(tài)紋理。MR-SFA約束具有相似初始狀態(tài)的特征在時間上也具有相似的變化,此方法可以學(xué)到一個具有部分可預(yù)測性的慢變化特征,以應(yīng)對動態(tài)紋理的復(fù)雜性。本文在動態(tài)紋理識別和動態(tài)場景識別數(shù)據(jù)庫上進(jìn)行了實驗,實驗結(jié)果驗證了MR-SFA的有效性。3.傳統(tǒng)的視頻特征提取方法對于實時性或大規(guī)模應(yīng)用而言時間效率太低。通過將特征提取中所需的光流信息替換為視頻壓縮域中的運動向量(MV:motion vector),時間效率可以在一定程度上得到緩解。此外,壓縮域中的其他信息也可以被用于特征提取。在傳統(tǒng)壓縮視頻中,DCT(discrete cosine transform)系數(shù)編碼了視頻中連續(xù)幀之間的殘差信息,這部分信息是運動向量所指向的塊(block)無法捕捉的信息。我們提出了一組名為殘差邊緣直方圖的特征,利用DCT系數(shù)的不同部分進(jìn)行視頻的特征提取。另一方面,在深度圖視頻中,我們利用了深度圖視頻的壓縮域信息,包括DWT(discrete wavelet transform)系數(shù)和間隔點(breakpoints)信息。DWT系數(shù)描述了深度圖中的深度信息,而間隔點保證了深度圖視頻具有銳利清晰的邊緣,本文利用這兩種壓縮域信息提取了一系列用于深度圖視頻的特征。本文在行為識別數(shù)據(jù)庫上對上述特征提取方法進(jìn)行了驗證,實驗結(jié)果表明,相比傳統(tǒng)方法本文方法在保證良好識別準(zhǔn)確率的基礎(chǔ)上具有明顯的速度優(yōu)勢。綜上,一方面,本文基于對視頻時空信息的分析,提出了新的時空局部特征提取方法,以獲得更優(yōu)的識別準(zhǔn)確率;另一方面,本文從壓縮域信息出發(fā),直接從被壓縮的視頻信息中進(jìn)行時空特征的提取,在保證良好識別準(zhǔn)確率的情況下大幅提高了識別速度。
[Abstract]:Video content recognition is an important issue in computer vision, and related research can be used in intelligent video surveillance, human-computer interaction, video retrieval and other fields. Video feature expression is very important for video content recognition. It is difficult to extract good video features. In recent years, related research has made some progress, but there are still many difficulties, which can not be well applied to actual scenes. In this paper, the space-time feature extraction in video content recognition is studied from the aspects of recognition accuracy and recognition speed. The main work of this paper is as follows. 1. Slow feature analysis (SFA) extracts slowly changing signals from fast changing signals. The primary visual cortex provides information for ventral and dorsal pathways, respectively, for processing appearance and motion information. However, SFA is only used to extract slowly varying information in local feature extraction, which mainly represents static information. In order to make better use of temporal information, this paper extends SFA to time variance analysis (TVA). TVA learns a linear mapping function, which maps the original temporal information to the characteristic components with different temporal variations. Local receptive field is used to extract local features by convolution and pooling. In this paper, the method of feature extraction based on TVA is tested on four behavioral recognition databases. The experimental results show that both slow and fast features extracted by TVA can be effectively expressed and can be transmitted by comparison. Dynamic texture exists widely in different shapes, such as flame, smoke, traffic flow and so on. Because of the complex changes of dynamic texture video sequence, dynamic texture recognition becomes a challenging problem. This paper presents a dynamic texture recognition method based on slow feature analysis. Slow feature analysis can learn invariant features from complex dynamic textures. However, complex temporal variations require high-level semantic information to express features to achieve time invariance, which is difficult to be learned directly from high-dimensional video by slow feature analysis. We propose a manifold-based slow feature. MR-SFA: manifold regularized SFA (MR-SFA) learns a low semantic level local feature to describe a complex dynamic texture. MR-SFA constraints with similar initial state features also have similar changes in time. This method can learn a partially predictable slow change feature to cope with the complexity of dynamic texture. Experiments on dynamic texture recognition and scene recognition databases demonstrate the effectiveness of MR-SFA. 3. Traditional video feature extraction methods are too time-efficient for real-time or large-scale applications. In traditional compressed video, DCT (discrete cosine transform) coefficients encode the residual information between consecutive frames in the video, which is not available in the block directed by the motion vector. We propose a set of features called residual edge histograms to extract the features of the video using different parts of the DCT coefficients. On the other hand, we use the compression domain information of the depth map video, including DWT (discrete wavelet transform) coefficients and breakpoints. In this paper, a series of features for depth map video are extracted by using the two kinds of compressed domain information. The above feature extraction methods are validated in the behavior recognition database. The experimental results show that the proposed method is better than the traditional method. In summary, on the one hand, based on the analysis of video spatiotemporal information, this paper proposes a new spatiotemporal local feature extraction method to achieve better recognition accuracy; on the other hand, this paper starts from compressed domain information and directly from compressed video information. Spatio-temporal feature extraction in the message greatly improves the recognition speed while ensuring good recognition accuracy.
【學(xué)位授予單位】:華南理工大學(xué)
【學(xué)位級別】:博士
【學(xué)位授予年份】:2016
【分類號】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 馬少華,高峰,李敏,吳成東;神經(jīng)網(wǎng)絡(luò)分類器的特征提取和優(yōu)選[J];基礎(chǔ)自動化;2000年06期

2 管聰慧,宣國榮;多類問題中的特征提取[J];計算機工程;2002年01期

3 胡威;李建華;陳波;;入侵檢測建模過程中特征提取最優(yōu)化評估[J];計算機工程;2006年12期

4 朱玉蓮;陳松燦;趙國安;;推廣的矩陣模式特征提取方法及其在人臉識別中的應(yīng)用[J];小型微型計算機系統(tǒng);2007年04期

5 趙振勇;王保華;王力;崔磊;;人臉圖像的特征提取[J];計算機技術(shù)與發(fā)展;2007年05期

6 馮海亮;王麗;李見為;;一種新的用于人臉識別的特征提取方法[J];計算機科學(xué);2009年06期

7 朱笑榮;楊德運;;基于入侵檢測的特征提取方法[J];計算機應(yīng)用與軟件;2010年06期

8 王菲;白潔;;一種基于非線性特征提取的被動聲納目標(biāo)識別方法研究[J];軟件導(dǎo)刊;2010年05期

9 陳偉;瞿曉;葛丁飛;;主觀引導(dǎo)特征提取法在光譜識別中的應(yīng)用[J];科技通報;2011年04期

10 王華,李介谷;人臉斜視圖象的特征提取與恢復(fù)[J];上海交通大學(xué)學(xué)報;1997年01期

相關(guān)會議論文 前10條

1 尚修剛;蔣慰孫;;模糊特征提取新算法[A];1997中國控制與決策學(xué)術(shù)年會論文集[C];1997年

2 潘榮江;孟祥旭;楊承磊;王銳;;旋轉(zhuǎn)體的幾何特征提取方法[A];第一屆建立和諧人機環(huán)境聯(lián)合學(xué)術(shù)會議(HHME2005)論文集[C];2005年

3 薛燕;李建良;朱學(xué)芳;;人臉識別中特征提取的一種改進(jìn)方法[A];第十三屆全國圖象圖形學(xué)學(xué)術(shù)會議論文集[C];2006年

4 杜栓平;曹正良;;時間—頻率域特征提取及其應(yīng)用[A];2005年全國水聲學(xué)學(xué)術(shù)會議論文集[C];2005年

5 黃先鋒;韓傳久;陳旭;周劍軍;;運動目標(biāo)的分割與特征提取[A];全國第二屆信號處理與應(yīng)用學(xué)術(shù)會議?痆C];2008年

6 魏明果;;方言比較的特征提取與矩陣分析[A];2009系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)會議論文集[C];2009年

7 林土勝;賴聲禮;;視網(wǎng)膜血管特征提取的拆支跟蹤法[A];1999年中國神經(jīng)網(wǎng)絡(luò)與信號處理學(xué)術(shù)會議論文集[C];1999年

8 秦建玲;李軍;;基于核的主成分分析的特征提取方法與樣本篩選[A];2005年中國機械工程學(xué)會年會論文集[C];2005年

9 劉紅;陳光,

本文編號:2224105


資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/2224105.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶f5b7d***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com