天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于運(yùn)動(dòng)目標(biāo)的視頻濃縮技術(shù)研究

發(fā)布時(shí)間:2017-04-19 18:19

  本文關(guān)鍵詞:基于運(yùn)動(dòng)目標(biāo)的視頻濃縮技術(shù)研究,由筆耕文化傳播整理發(fā)布。


【摘要】:隨著“平安城市”理念的提出,數(shù)以萬(wàn)計(jì)的監(jiān)控設(shè)備被安裝到銀行、學(xué)校、走廊等地方,每天都會(huì)產(chǎn)生大量的監(jiān)控視頻,這給我們的視頻瀏覽、檢索、存儲(chǔ)等工作帶來(lái)巨大的挑戰(zhàn)。而視頻濃縮技術(shù)正是解決這些問題的一種有效手段,在大大縮短監(jiān)控視頻的長(zhǎng)度的同時(shí)卻不丟失原始視頻中的運(yùn)動(dòng)信息。該技術(shù)不但可以實(shí)現(xiàn)高效存儲(chǔ),而且更便于用戶瀏覽、檢索監(jiān)控視頻,已然成為當(dāng)下處理監(jiān)控視頻的一項(xiàng)熱門技術(shù)。本文先系統(tǒng)地闡述了監(jiān)控視頻的濃縮原理,然后分別介紹了整個(gè)濃縮過(guò)程中幾個(gè)關(guān)鍵的流程步驟,如運(yùn)動(dòng)物體檢測(cè)、運(yùn)動(dòng)物體跟蹤、軌跡的組合優(yōu)化等,針對(duì)這幾個(gè)步驟中現(xiàn)有算法的局限性,本文分別提出了相應(yīng)的改進(jìn)算法,最后得到濃縮結(jié)果。論文的主要工作如下:由于基于單一特征的背景建模方法存在一定的局限性,所以為了提高運(yùn)動(dòng)物體檢測(cè)的魯棒性和準(zhǔn)確性,本文提出了一種基于紋理特征的SI LTP和基于顏色特征的單高斯相結(jié)合的背景建模算法。在該方法中,首先利用SILTP的紋理模型提取運(yùn)動(dòng)前景和背景,然后再利用單高斯顏色模型對(duì)目標(biāo)紋理與背景紋理相近處進(jìn)行檢測(cè),從而修正誤判的前景和背景。實(shí)驗(yàn)結(jié)果表明:與其他單一特征的背景建模方法相比,本算法檢測(cè)出的運(yùn)動(dòng)物體輪廓更加清晰,在召回率和虛警率上均優(yōu)于單一特征的背景建模方法。為了提高運(yùn)動(dòng)物體跟蹤的準(zhǔn)確度,本文提出了一種基于Camshift與SIFT線性融合的軌跡跟蹤算法。在該融合算法中,首先利用Camshift跟蹤算法對(duì)運(yùn)動(dòng)物體進(jìn)行一個(gè)初始的跟蹤,得到跟蹤區(qū)域,然后再利用SIFT對(duì)跟蹤區(qū)域進(jìn)行特征提取與匹配,校準(zhǔn)跟蹤區(qū)域,最后將Camshift的跟蹤結(jié)果與校準(zhǔn)結(jié)果進(jìn)行線性融合,得到最終的軌跡跟蹤結(jié)果。實(shí)驗(yàn)結(jié)果表明:與MeanShift和Camshift相比,本算法的跟蹤誤差最小,能較好地完成目標(biāo)的跟蹤。為了保持濃縮視頻的空間一致性和減少碰撞,本文提出了一種基于時(shí)間軸轉(zhuǎn)移的軌跡優(yōu)化方法。在該方法中,利用能量代價(jià)函數(shù)來(lái)衡量原始視頻到濃縮視頻的轉(zhuǎn)化,當(dāng)能量代價(jià)函數(shù)最小時(shí),軌跡的優(yōu)化效果最好。最后在原視頻中更新提取背景圖像,通過(guò)泊松編輯將所有的運(yùn)動(dòng)目標(biāo)拼接到對(duì)應(yīng)的背景圖像中,形成濃縮視頻。實(shí)驗(yàn)結(jié)果表明:與基于時(shí)空轉(zhuǎn)移的軌跡優(yōu)化方法相比,本文方法能有效地避免目標(biāo)間的碰撞、保持原視頻中目標(biāo)間的相關(guān)性,使得濃縮視頻更加真實(shí)。
【關(guān)鍵詞】:視頻濃縮 SILTP 目標(biāo)跟蹤 SIFT 能量代價(jià)函數(shù)
【學(xué)位授予單位】:南京郵電大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2015
【分類號(hào)】:TN948.6
【目錄】:
  • 摘要4-5
  • Abstract5-9
  • 專用術(shù)語(yǔ)注釋表9-10
  • 第一章 緒論10-14
  • 1.1 課題研究背景及意義10-11
  • 1.2 國(guó)內(nèi)外研究現(xiàn)狀11-12
  • 1.3 本文主要研究?jī)?nèi)容及組織結(jié)構(gòu)12-14
  • 1.3.1 本文主要研究?jī)?nèi)容12-13
  • 1.3.2 本文組織結(jié)構(gòu)13-14
  • 第二章 視頻濃縮技術(shù)基礎(chǔ)14-25
  • 2.1 視頻濃縮原理14-15
  • 2.2 背景建模技術(shù)15-19
  • 2.2.1 混合高斯背景建模16-17
  • 2.2.2 基于LBP的背景建模17-19
  • 2.3 目標(biāo)跟蹤技術(shù)19-22
  • 2.3.1 卡爾曼濾波跟蹤19-20
  • 2.3.2 MeanShift跟蹤算法20-22
  • 2.4 基于運(yùn)動(dòng)軌跡優(yōu)化的濃縮展現(xiàn)22-24
  • 2.4.1 基于時(shí)空轉(zhuǎn)移的軌跡優(yōu)化方法23
  • 2.4.2 基于類似活動(dòng)的軌跡優(yōu)化方法23
  • 2.4.3 基于帶狀雕刻剪裁的軌跡優(yōu)化方法23-24
  • 2.4.4 基于用戶關(guān)注空間與注意力分析的軌跡優(yōu)化方法24
  • 2.4.5 基于多視頻融合的軌跡優(yōu)化方法24
  • 2.5 本章小結(jié)24-25
  • 第三章 基于SILTP與單高斯相融合的前景檢測(cè)25-40
  • 3.1 基于SILTP的紋理特征前景檢測(cè)25-29
  • 3.1.1 尺度不變局部三值模式(SILTP)25-27
  • 3.1.2 基于SILTP紋理直方圖的背景建模27-29
  • 3.2 基于單高斯背景建模的前景檢測(cè)29-31
  • 3.3 基于紋理特征與顏色特征相結(jié)合的前景檢測(cè)31-32
  • 3.4 實(shí)驗(yàn)結(jié)果與分析32-39
  • 3.4.1 簡(jiǎn)單背景下的背景建模效果圖比較32-33
  • 3.4.2 光線突變情況下的背景建模效果圖比較33-35
  • 3.4.3 有運(yùn)動(dòng)陰影時(shí)的背景建模效果圖比較35-36
  • 3.4.4 各背景建模算法的數(shù)據(jù)比較36-37
  • 3.4.5 混合高斯和SILTP的融合算法與本文算法的比較37-39
  • 3.5 本章小結(jié)39-40
  • 第四章 基于Camshift與SIFT線性融合的運(yùn)動(dòng)物體跟蹤40-56
  • 4.1 連續(xù)自適應(yīng)均值漂移算法(Camshift算法)40-44
  • 4.1.1 RGB空間到HSV空間的轉(zhuǎn)換40-41
  • 4.1.2 反向投影41-42
  • 4.1.3 Camshift算法流程42-44
  • 4.2 SIFT特征提取44-48
  • 4.2.1 在尺度空間中檢測(cè)極值點(diǎn)45-46
  • 4.2.2 關(guān)鍵點(diǎn)定位46-47
  • 4.2.3 為關(guān)鍵點(diǎn)指定方向47
  • 4.2.4 生成關(guān)鍵點(diǎn)描述子47-48
  • 4.3 基于Camshift與SIFT線性融合的運(yùn)動(dòng)物體跟蹤48-50
  • 4.3.1 SIFT特征匹配49-50
  • 4.3.2 特征點(diǎn)中心的重心轉(zhuǎn)移計(jì)算50
  • 4.3.3 校準(zhǔn)跟蹤結(jié)果50
  • 4.3.4 融合Camshift和SIFT50
  • 4.4 實(shí)驗(yàn)結(jié)果及評(píng)價(jià)50-55
  • 4.4.1 目標(biāo)尺度發(fā)生變化時(shí)各算法的跟蹤結(jié)果51-52
  • 4.4.2 目標(biāo)旋轉(zhuǎn)時(shí)各算法的跟蹤結(jié)果52-54
  • 4.4.3 目標(biāo)顏色與背景顏色相近時(shí)各算法的跟蹤結(jié)果54-55
  • 4.5 本章小結(jié)55-56
  • 第五章 基于運(yùn)動(dòng)軌跡優(yōu)化的濃縮視頻56-67
  • 5.1 基于時(shí)間軸轉(zhuǎn)移的軌跡組合57-60
  • 5.1.1 能量代價(jià)函數(shù)57-59
  • 5.1.2 能量最小化59-60
  • 5.2 濃縮視頻的生成60-63
  • 5.2.1 背景視頻的生成60-62
  • 5.2.2 背景圖像與運(yùn)動(dòng)目標(biāo)的拼接62-63
  • 5.3 實(shí)驗(yàn)結(jié)果與評(píng)價(jià)63-66
  • 5.4 本章小結(jié)66-67
  • 第六章 總結(jié)與展望67-69
  • 6.1 總結(jié)67-68
  • 6.2 展望68-69
  • 參考文獻(xiàn)69-72
  • 附錄 攻讀碩士學(xué)位期間發(fā)表的論文72-73
  • 致謝73

【相似文獻(xiàn)】

中國(guó)期刊全文數(shù)據(jù)庫(kù) 前10條

1 金俁欣;陶霖密;徐光yP;彭玉新;;攝像機(jī)自由運(yùn)動(dòng)環(huán)境下的背景建模[J];中國(guó)圖象圖形學(xué)報(bào);2008年02期

2 王智靈;周露平;陳宗海;;針對(duì)不同信息特征的魯棒背景建模技術(shù)分析[J];模式識(shí)別與人工智能;2009年02期

3 姜忠民;趙建民;朱信忠;;基于最大間隔聚類的背景建模方法[J];計(jì)算機(jī)技術(shù)與發(fā)展;2009年10期

4 余孟澤;劉正熙;駱健;楊丹;;基于塊背景建模的運(yùn)動(dòng)目標(biāo)檢測(cè)[J];四川大學(xué)學(xué)報(bào)(自然科學(xué)版);2011年03期

5 葛海淼;戴學(xué)豐;王成琳;;一種新型移動(dòng)物體檢測(cè)及背景建模系統(tǒng)[J];電子技術(shù)應(yīng)用;2013年01期

6 桑農(nóng);張濤;李斌;吳翔;;基于字典學(xué)習(xí)的背景建模[J];華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版);2013年09期

7 左軍毅;潘泉;梁彥;張洪才;程詠梅;;基于模型切換的自適應(yīng)背景建模方法[J];自動(dòng)化學(xué)報(bào);2007年05期

8 張水發(fā);丁歡;張文生;;雙模型背景建模與目標(biāo)檢測(cè)研究[J];計(jì)算機(jī)研究與發(fā)展;2011年11期

9 楊敏;安振英;;基于低秩矩陣恢復(fù)的視頻背景建模[J];南京郵電大學(xué)學(xué)報(bào)(自然科學(xué)版);2013年02期

10 李子龍;劉偉銘;張陽(yáng);;基于自適應(yīng)模糊估計(jì)的背景建模方法[J];華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版);2013年09期

中國(guó)重要會(huì)議論文全文數(shù)據(jù)庫(kù) 前5條

1 王智靈;陳宗海;周露平;;基于多信息層次的魯棒背景建模方法[A];2007系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)會(huì)議論文集[C];2007年

2 李霞;董雁冰;王亞輝;王俊;;空間光學(xué)輻射背景建模研究[A];2007年光電探測(cè)與制導(dǎo)技術(shù)的發(fā)展與應(yīng)用研討會(huì)論文集[C];2007年

3 何強(qiáng);林宏基;;基于蟻群算法的自適應(yīng)背景建模[A];第十一屆中國(guó)體視學(xué)與圖像分析學(xué)術(shù)會(huì)議論文集[C];2006年

4 李恒暉;楊金鋒;任小慧;吳仁彪;;一種多約束條件的混合高斯背景建模方法[A];全國(guó)第二屆信號(hào)處理與應(yīng)用學(xué)術(shù)會(huì)議?痆C];2008年

5 韓穎婕;張海;李琳怡;;基于混合高斯背景建模的陰影抑制算法[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

中國(guó)博士學(xué)位論文全文數(shù)據(jù)庫(kù) 前4條

1 葉芳芳;監(jiān)控視頻中的異常行為檢測(cè)研究[D];浙江大學(xué);2014年

2 鄒騰躍;復(fù)雜環(huán)境目標(biāo)檢測(cè)與跟蹤關(guān)鍵技術(shù)研究及應(yīng)用[D];華中科技大學(xué);2013年

3 何志偉;基于模型的目標(biāo)提取及其在智能交通中的應(yīng)用[D];浙江大學(xué);2006年

4 江疆;基于稀疏表達(dá)的若干分類問題研究[D];華中科技大學(xué);2014年

中國(guó)碩士學(xué)位論文全文數(shù)據(jù)庫(kù) 前10條

1 劉雨辰;復(fù)雜背景中的多目標(biāo)檢測(cè)與跟蹤[D];內(nèi)蒙古大學(xué);2015年

2 胡婷;基于視頻技術(shù)的車輛檢測(cè)跟蹤及分類算法研究與實(shí)現(xiàn)[D];長(zhǎng)安大學(xué);2015年

3 楊文幫;基于視頻分析的人群流量檢測(cè)[D];貴州民族大學(xué);2015年

4 賴文杰;基于ARM-FPGA的視覺追蹤系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D];哈爾濱工業(yè)大學(xué);2015年

5 宋歡歡;復(fù)雜場(chǎng)景下背景建模方法的研究與實(shí)現(xiàn)[D];南昌大學(xué);2015年

6 蘇建安;面向智能視頻監(jiān)控的高動(dòng)態(tài)場(chǎng)景建模和修復(fù)[D];電子科技大學(xué);2014年

7 滕琳琳;基于高階擴(kuò)展FMM和低秩矩陣恢復(fù)的信號(hào)重建研究[D];河北工業(yè)大學(xué);2015年

8 張?bào)@州;復(fù)雜場(chǎng)景下基于視頻的行人流量統(tǒng)計(jì)算法研究[D];電子科技大學(xué);2014年

9 陳星明;基于背景建模的運(yùn)動(dòng)目標(biāo)監(jiān)控視頻檢測(cè)算法[D];南京大學(xué);2015年

10 柯太清;基于快速背景建模的人物越界檢測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];電子科技大學(xué);2014年


  本文關(guān)鍵詞:基于運(yùn)動(dòng)目標(biāo)的視頻濃縮技術(shù)研究,,由筆耕文化傳播整理發(fā)布。



本文編號(hào):316872

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/wltx/316872.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶4f87d***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com