天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 信息工程論文 >

視頻監(jiān)控中的目標(biāo)計(jì)數(shù)方法研究

發(fā)布時(shí)間:2020-09-17 17:25
   隨著社會(huì)經(jīng)濟(jì)的飛速發(fā)展,公共安全已經(jīng)成為全民關(guān)注的熱點(diǎn)問(wèn)題,視頻監(jiān)控技術(shù)隨之得到了廣泛的普及。如今,智能視頻監(jiān)控系統(tǒng)已經(jīng)大量應(yīng)用在交通路口、火車站、機(jī)場(chǎng)、大型商場(chǎng)、廣場(chǎng)等公共場(chǎng)所。作為智能視頻監(jiān)控領(lǐng)域中的重要內(nèi)容,目標(biāo)計(jì)數(shù)在實(shí)際生活中有著大量的應(yīng)用場(chǎng)景,準(zhǔn)確的估計(jì)出目標(biāo)在圖像中的具體數(shù)目是相關(guān)任務(wù)的關(guān)鍵。在智能交通系統(tǒng)中,準(zhǔn)確的估計(jì)出交通場(chǎng)景中的車輛數(shù)目可以為交通管理部門進(jìn)行公共交通管理提供重要依據(jù);統(tǒng)計(jì)商場(chǎng)的客流量信息可以幫助商家進(jìn)行科學(xué)的資源分配;對(duì)大型公共場(chǎng)所的人群密度進(jìn)行監(jiān)控可以及時(shí)發(fā)現(xiàn)安全隱患并提供預(yù)警。計(jì)數(shù)任務(wù)的目標(biāo)是讓計(jì)算機(jī)準(zhǔn)確的估計(jì)出圖像中的相關(guān)物體數(shù)量。根據(jù)應(yīng)用數(shù)據(jù)來(lái)源的不同,可以將目標(biāo)計(jì)數(shù)任務(wù)分為視頻中的目標(biāo)計(jì)數(shù)和單一圖片中的目標(biāo)計(jì)數(shù)。本文分別針對(duì)這兩方面進(jìn)行了深入研究,根據(jù)實(shí)際應(yīng)用場(chǎng)景的不同特性,分析了已有算法所存在的問(wèn)題,提出了具有針對(duì)性的目標(biāo)計(jì)數(shù)算法。本文的主要研究工作和貢獻(xiàn)可概括如下:1)針對(duì)視頻中的目標(biāo)計(jì)數(shù)問(wèn)題,本文重點(diǎn)考慮交通視頻中的車輛計(jì)數(shù)問(wèn)題。目前,基于視頻圖像的目標(biāo)計(jì)數(shù)算法大多是在像素域中進(jìn)行的,像素域中包含豐富的可提取信息,可以取得較為精確的計(jì)數(shù)結(jié)果。然而,在實(shí)際監(jiān)控系統(tǒng)中,監(jiān)控視頻數(shù)據(jù)一般是以壓縮的形式進(jìn)行傳輸和儲(chǔ)存的,像素域處理方法需要先將壓縮域數(shù)據(jù)完全解壓之后才能進(jìn)行,算法復(fù)雜度高。對(duì)此,本文提出了一種直接在壓縮域視頻中進(jìn)行車輛計(jì)數(shù)的方法。首先,為了解決壓縮域中的信息不足和噪聲干擾問(wèn)題,提出了多樣化的豐富特征提取方法,充分利用了壓縮視頻流中的運(yùn)動(dòng)矢量和宏塊編碼模式信息。其次,針對(duì)實(shí)際交通場(chǎng)景復(fù)雜多變的特性,提出了一種基于分層分類的回歸模型來(lái)進(jìn)行車輛計(jì)數(shù),將復(fù)雜場(chǎng)景逐步細(xì)化,并采用特定模型實(shí)現(xiàn)精確計(jì)數(shù)。最后,在實(shí)際交通數(shù)據(jù)集上的結(jié)果表明,所提壓縮域算法不僅能達(dá)到更高的運(yùn)行效率,同時(shí)在精度上與傳統(tǒng)像素域方法也有著相當(dāng)?shù)谋憩F(xiàn)。2)相比于像素域處理,壓縮域本身存在著信息量不足以及噪聲干擾的問(wèn)題,僅在單獨(dú)一幀上進(jìn)行回歸計(jì)數(shù)難以保證結(jié)果的穩(wěn)定性。為了解決這個(gè)問(wèn)題,本文提出了 一種基于空間與時(shí)間回歸的壓縮域車輛計(jì)數(shù)模型。具體來(lái)說(shuō),先通過(guò)空間維度回歸在單一視頻幀上進(jìn)行車輛數(shù)目估計(jì),再利用目標(biāo)數(shù)量在時(shí)間維度上的連續(xù)性約束信息建立時(shí)間維度上的回歸模型,學(xué)習(xí)車輛密度在局部時(shí)間序列上的變化模式,對(duì)空間回歸的計(jì)數(shù)結(jié)果進(jìn)一步優(yōu)化,實(shí)現(xiàn)更加精確的壓縮域計(jì)數(shù)。在實(shí)際交通數(shù)據(jù)集上的結(jié)果證明了所提壓縮域算法的有效性。3)針對(duì)單一圖片中的目標(biāo)計(jì)數(shù)問(wèn)題,本文提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)計(jì)數(shù)框架,利用卷積神經(jīng)網(wǎng)絡(luò)模型強(qiáng)大的非線性建模能力進(jìn)行目標(biāo)計(jì)數(shù)。該方法直接學(xué)習(xí)從原始圖片到目標(biāo)密度分布圖的映射,為每個(gè)像素點(diǎn)分配一個(gè)對(duì)應(yīng)的密度值,圖片中各個(gè)區(qū)域的目標(biāo)數(shù)目可以通過(guò)對(duì)密度圖直接積分得到。為了提高模型的魯棒性,提出采用空間金字塔池化方法對(duì)提取的深度模型特征進(jìn)行魯棒性增強(qiáng),得到了更好的特征表示。此外,為了生成更好的目標(biāo)密度分布圖,提出了一種金字塔分層計(jì)數(shù)模型,充分利用了卷積神經(jīng)網(wǎng)絡(luò)模型中固有的多層級(jí)金字塔結(jié)構(gòu),進(jìn)一步提高了模型性能。在多個(gè)代表性數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果驗(yàn)證了所提算法的有效性?偨Y(jié)起來(lái),本文針對(duì)視頻監(jiān)控場(chǎng)景中的目標(biāo)計(jì)數(shù)問(wèn)題進(jìn)行了深入探索和研究,結(jié)合實(shí)際應(yīng)用場(chǎng)景的具體特性,提出了兩類目標(biāo)計(jì)數(shù)框架,即壓縮域視頻中的目標(biāo)計(jì)數(shù)框架和基于卷積神經(jīng)網(wǎng)絡(luò)的金字塔計(jì)數(shù)網(wǎng)絡(luò)框架。多個(gè)典型數(shù)據(jù)集上的實(shí)驗(yàn)證明,本文在提高目標(biāo)計(jì)數(shù)方法的實(shí)時(shí)性和魯棒性等方面取得了很好的效果,相較于已有算法均取得了明顯進(jìn)步,展示了其實(shí)際應(yīng)用價(jià)值。
【學(xué)位單位】:中國(guó)科學(xué)技術(shù)大學(xué)
【學(xué)位級(jí)別】:博士
【學(xué)位年份】:2018
【中圖分類】:TN948.6
【部分圖文】:

目標(biāo)中心,密度分布圖,點(diǎn)圖,示例


Lempitsky等[23]在2010年開(kāi)創(chuàng)性地提出了基于密度估計(jì)的目標(biāo)計(jì)數(shù)算法逡逑框架。該方法首先利用手工標(biāo)注的目標(biāo)中心點(diǎn)圖生成目標(biāo)密度分布真值圖像集。邐’逡逑如圖1.2a和1.2c所示,在行人的身體中間部位或者頭部用點(diǎn)標(biāo)記行人位置,將標(biāo)逡逑注的二值點(diǎn)圖中目標(biāo)中心位置作為高斯核的中心,通過(guò)高斯濾波賦予周邊像素逡逑相應(yīng)的密度值,當(dāng)目標(biāo)分布比較密集時(shí),其周邊像素的密度值為多個(gè)高斯核對(duì)應(yīng)逡逑值的疊加。二值點(diǎn)圖經(jīng)過(guò)高斯濾波后,生成如圖1.2b和1.2d所示的密度分布圖。逡逑然后以密度分布真值圖像集為訓(xùn)練集,在原圖像各像素點(diǎn)位置提取圖片特征,訓(xùn)逡逑練回歸模型,直接學(xué)習(xí)從像素點(diǎn)特征到圖像密度分布圖的映射關(guān)系。最后,得到逡逑的密度分布圖反應(yīng)了場(chǎng)景中的目標(biāo)分布情況,且通過(guò)區(qū)域密度求和就能得到任逡逑意區(qū)域的目標(biāo)數(shù)目。該方法有效的利用了目標(biāo)在圖像中的空間分布特性,從而實(shí)逡逑現(xiàn)很好的預(yù)測(cè)。在此基礎(chǔ)上

計(jì)數(shù)算法,總體框架,前景區(qū)域


基于區(qū)域回歸的計(jì)數(shù)方法并不要求精確檢測(cè)出每個(gè)待統(tǒng)計(jì)目標(biāo)在圖像中的逡逑具體位置,這類方法更關(guān)心的是場(chǎng)景中的目標(biāo)總數(shù),通過(guò)建立區(qū)域圖像特征與區(qū)逡逑域目標(biāo)數(shù)量的回歸模型來(lái)直接估計(jì)場(chǎng)景中的目標(biāo)總數(shù)。如圖2.1所示,本文對(duì)基逡逑于區(qū)域回歸的計(jì)數(shù)模型采用的經(jīng)典框架進(jìn)行了總結(jié)和概括。典型的區(qū)域回歸方逡逑法主要包括四個(gè)核心部分:前景區(qū)域分割、透視校正、區(qū)域特征提取、基于特征逡逑的回歸計(jì)數(shù)。逡逑給定一張計(jì)數(shù)場(chǎng)景圖像,一般首先分割出場(chǎng)景中的前景部分,并根據(jù)場(chǎng)景視逡逑角對(duì)分割后的前景區(qū)域進(jìn)行透視校正,然后提取與目標(biāo)數(shù)目相關(guān)的區(qū)域特征,例逡逑如前景區(qū)域像素統(tǒng)計(jì)特征、邊緣特征、紋理特征和特征點(diǎn)等,最后通過(guò)回歸模型逡逑學(xué)習(xí)區(qū)域特征到區(qū)域目標(biāo)總數(shù)之間的映射關(guān)系。接下來(lái)將在各節(jié)中總結(jié)各模塊逡逑的典型處理思路和方法。逡逑r邋成:逡逑'1邐°o邋—?<) ̄ ̄*00 ̄?00 ̄eoo邋ioco邋i.xo^ixT邋iboo邋tsar:邋?000逡逑I邐^邋預(yù)灥逡逑pp^j邐?邋~|逡逑圖2.1基于區(qū)域回歸的計(jì)數(shù)算法總體框架逡逑2.4.2前景區(qū)域分割逡逑前景分割的主要目的是在給定的圖像中將前景區(qū)域從背景中分離出來(lái)。前逡逑景提取的準(zhǔn)確性和完整性會(huì)直接影響到計(jì)數(shù)結(jié)果的準(zhǔn)確率,是后續(xù)進(jìn)一步處理的逡逑重要基礎(chǔ)。在目標(biāo)計(jì)數(shù)方法中,前景分割的常用算法有兩種:混合高斯模型[49]逡逑和混合動(dòng)態(tài)紋理模型[50]。逡逑2.4.2.1混合高斯模型逡逑混合高斯模型(Gaussian邋Mixture邋Model,邋GMM)邋[49]是一^t"非常經(jīng)典的背景逡逑建模算法,能夠描述復(fù)雜的場(chǎng)景,且算法復(fù)雜度

紋理模型,動(dòng)態(tài)紋理,模型,條件分布


(b)逡逑圖2.2邐(a)動(dòng)態(tài)紋理模型,(b)混合動(dòng)態(tài)紋理模型逡逑K邋?iV(0,邋Q),岣?7V(0,邋i?),<5邋e/2mx'邋i?邋#嶝浚恚

本文編號(hào):2821002

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/2821002.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶3f50b***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com