天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 碩博論文 > 信息類碩士論文 >

基于深度學(xué)習(xí)的室內(nèi)人群檢測(cè)及計(jì)數(shù)算法研究

發(fā)布時(shí)間:2020-11-08 12:38
   隨著物質(zhì)生活水平的提高,世界人口不斷增加,人們社會(huì)活動(dòng)越來越密集,如機(jī)場(chǎng)、車站、大型商業(yè)中心等,這給公共管理和公共安全帶來了巨大挑戰(zhàn)。而當(dāng)下視頻監(jiān)控多為值守人員長(zhǎng)時(shí)間盯守,而值守人員長(zhǎng)時(shí)間工作容易產(chǎn)生疲勞現(xiàn)象,這就會(huì)疏漏異常事件的發(fā)生,并且對(duì)已發(fā)生事件無法及時(shí)預(yù)警。因此,需要設(shè)計(jì)一個(gè)能夠自動(dòng)監(jiān)控人群動(dòng)向、對(duì)人群密集程度自動(dòng)分析、及時(shí)預(yù)警危險(xiǎn)事情的智能系統(tǒng),這對(duì)重大公共安全事件和商業(yè)分析都具有重要現(xiàn)實(shí)意義。近年來,人群計(jì)數(shù)算法開始結(jié)合機(jī)器視覺技術(shù)和深度學(xué)習(xí)技術(shù)并取得重大突破。但是目前取得較好發(fā)展的人群計(jì)數(shù)算法都是針對(duì)室外場(chǎng)景,針對(duì)室內(nèi)場(chǎng)景下人群計(jì)數(shù)和密度估計(jì)研究都是借助人臉識(shí)別或者行人識(shí)別。但室內(nèi)監(jiān)控相機(jī)安裝角度多樣、室內(nèi)人群分布不均勻,使得人臉識(shí)別和行人識(shí)別算法具有較大局限性。因此,本文采用深度卷積神經(jīng)網(wǎng)絡(luò)技術(shù),利用人頭檢測(cè)思路突破其他檢測(cè)方法在室內(nèi)場(chǎng)景下的局限。首先實(shí)現(xiàn)室內(nèi)人群檢測(cè),再根據(jù)檢測(cè)結(jié)果計(jì)算人群數(shù)量和回歸人群密度圖。但室內(nèi)人頭檢測(cè)依然存在以下挑戰(zhàn),為此本文提出了不同的解決思路:(1)由于攝像頭安裝角度問題,導(dǎo)致室內(nèi)人頭目標(biāo)尺度分布不均,尤其是遠(yuǎn)離攝像頭部分,尺度小,且人群密集,很容易造成模型漏檢率高的問題。因此,本文利用空洞卷積操作擴(kuò)大感受野,增加網(wǎng)絡(luò)對(duì)不同尺度覆蓋,構(gòu)造了一種可以提取多個(gè)尺度的特征提取模塊。同時(shí),根據(jù)不同尺度特征在網(wǎng)絡(luò)層中的傳播特性,設(shè)計(jì)了不同尺度等級(jí)的特征融合模塊,對(duì)不同尺度分布的特征層進(jìn)行融合。(2)由于個(gè)體自由度高,導(dǎo)致人群分布雜亂且密度差異大,采用固定卷積核的網(wǎng)絡(luò)會(huì)由于樣本特征分布不均勻產(chǎn)生發(fā)散結(jié)果。因此,本文利用空間注意力模塊提取全局信息,設(shè)計(jì)了一種層注意力模塊融合全局和局部信息,提取目標(biāo)分布信息,從而實(shí)現(xiàn)人群檢測(cè)和計(jì)數(shù)。(3)室內(nèi)場(chǎng)景背景復(fù)雜,人頭的顏色、形狀等低級(jí)特征容易和背景中其他物體重疊,導(dǎo)致人群檢測(cè)的誤識(shí)別率增加。本文根據(jù)分析將背景特征對(duì)人頭的干擾分為兩類:一類是人體外其他背景物體的特征干擾,我們構(gòu)造了一種混合注意力模塊,用于指導(dǎo)網(wǎng)絡(luò)增強(qiáng)對(duì)目標(biāo)區(qū)域的關(guān)注;一類是人頭本身差異性導(dǎo)致的特征干擾,我們構(gòu)造了一種中心感受野模塊,來模擬人眼視覺感受野對(duì)目標(biāo)進(jìn)行關(guān)鍵特征提取。由實(shí)驗(yàn)結(jié)果顯示,本文提出的方法相比同類其他檢測(cè)和計(jì)數(shù)算法,在召回率和人數(shù)統(tǒng)計(jì)準(zhǔn)確率和計(jì)數(shù)的相關(guān)指標(biāo)上均實(shí)現(xiàn)很大提升。為深度卷積網(wǎng)絡(luò)在智能視頻分析領(lǐng)域的研究提供了不同設(shè)計(jì)思路。
【學(xué)位單位】:中北大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2020
【中圖分類】:TP391.41;TP18
【部分圖文】:

人群,場(chǎng)合


中北大學(xué)學(xué)位論文2圖1-1公共場(chǎng)合下的密集人群Figure1-1Crowdsinpublicplace(1)公共場(chǎng)所安全和商業(yè)分析實(shí)時(shí)地人群計(jì)數(shù)和分布預(yù)測(cè)可以增強(qiáng)公共場(chǎng)所安全,例如防止公共場(chǎng)所人群踩踏和發(fā)生火災(zāi)時(shí)及時(shí)疏散人群。在上海發(fā)生的“12.31”外灘踩踏事故中,根據(jù)之后調(diào)查報(bào)告顯示,該事件就是因?yàn)槿斯ご胧┎煌晟疲m然布局了監(jiān)控探頭,但是值守人員預(yù)警和分析能力不足,導(dǎo)致發(fā)生了這起慘案[3]。而如果若能通過智能視頻監(jiān)控中人群計(jì)數(shù)功能對(duì)密集人群及時(shí)預(yù)警,則可避免類似事故地發(fā)生。實(shí)時(shí)地用戶流動(dòng)檢測(cè)同樣可以幫助商家進(jìn)行商業(yè)策略調(diào)整,如超市可以根據(jù)人群流動(dòng)分析出熱門區(qū)域商品,及時(shí)補(bǔ)充人們商品的數(shù)量從而實(shí)現(xiàn)商業(yè)利益最大化。(2)異常安全問題監(jiān)測(cè)對(duì)國(guó)家安全事件及時(shí)反饋并預(yù)警是智能視頻監(jiān)控系統(tǒng)的重要子部分,旨在實(shí)時(shí)檢測(cè)提取異常事件及行為[4]。世界各國(guó)研究者們都在不斷提升監(jiān)控視頻的智能分析能力,例如中國(guó)的“天眼計(jì)劃”。這些分析主要包括異常人員行為、人群分布及人群滯留等。通過這些分析可以及早地發(fā)現(xiàn)威脅社會(huì)和國(guó)家安全的事件并可以及時(shí)地制止。目前,已經(jīng)有較多工作針對(duì)室外場(chǎng)景下的智能監(jiān)控視頻分析和人群計(jì)數(shù)進(jìn)行了探索和闡述[5]。但是針對(duì)室內(nèi)場(chǎng)景下人群計(jì)數(shù)方法還較少,室內(nèi)場(chǎng)景下人群計(jì)數(shù)和分析結(jié)果,同樣對(duì)于商業(yè)活動(dòng)、教學(xué)活動(dòng)、公共安全具有重要作用。因此,本課題選擇室內(nèi)監(jiān)控視頻下的人群計(jì)數(shù)問題作為突破口,探究基于深度學(xué)習(xí)和機(jī)器視覺計(jì)數(shù)的室內(nèi)監(jiān)控場(chǎng)景下人群檢測(cè),并根據(jù)檢測(cè)結(jié)果獲得人群數(shù)量和分布。不同場(chǎng)景下人流計(jì)數(shù)算法研究具有重要理論價(jià)值和豐富應(yīng)用前景。目前,研究者們已經(jīng)針對(duì)室外場(chǎng)景下的大規(guī)模人群計(jì)數(shù)問題開展了廣泛研究并不斷取得突破。但由于思

圍棋,冠軍,世界,人群


?巳杭剖?惴ú歡先〉?突破。在國(guó)內(nèi)和國(guó)際頂級(jí)會(huì)議和期刊上,研究者們不再僅僅局限在室外人群計(jì)數(shù)算法的探索[7,8,9,10,11,12],而是把目光同樣也轉(zhuǎn)向了室內(nèi)人群計(jì)數(shù)領(lǐng)域。同時(shí),隨著各國(guó),尤其是我國(guó)邁入新時(shí)代以來,不斷對(duì)公共場(chǎng)合安全需求的提高,各類型智慧監(jiān)控視頻系統(tǒng)層出不窮。鑒于深度學(xué)習(xí)技術(shù)在機(jī)器視覺領(lǐng)域的飛速發(fā)展,深度學(xué)習(xí)幫助人們突破了很多難題,比如:基于深度學(xué)習(xí)的人臉識(shí)別精度超越了人類[13,14,15,16]、基于深度強(qiáng)化學(xué)習(xí)的AlphaGo在圍棋中打敗了李世石、柯潔等人類世界冠軍[17],如圖1-3所示。圖1-3AlphaGo在圍棋中擊敗世界冠軍Figure1-3AlphaGobeattheworldchampioninGo因此,鑒于深度學(xué)習(xí)算法擁有的自動(dòng)特征學(xué)習(xí)能力,室內(nèi)人群計(jì)數(shù)算法與其結(jié)合也實(shí)現(xiàn)了不斷進(jìn)步。在不同場(chǎng)景下,基于深度神經(jīng)網(wǎng)絡(luò)的人群計(jì)數(shù)算法相比于傳統(tǒng)視覺算法來說,都表現(xiàn)除了極大的性能提升,這也將是未來一段時(shí)間的研究風(fēng)口。

數(shù)據(jù)集,行人,人群


中北大學(xué)學(xué)位論文14公開,是深度學(xué)習(xí)領(lǐng)域首個(gè)用來進(jìn)行人群計(jì)數(shù)的訓(xùn)練及測(cè)試數(shù)據(jù)樣本,如圖2-1所示。研究者們將攝像機(jī)架設(shè)在人行道上進(jìn)行連續(xù)拍攝獲得該數(shù)據(jù)集。該數(shù)據(jù)集中訓(xùn)練樣本包含2000張分辨率為238*158大小的視頻圖像幀,其中訓(xùn)練樣本均進(jìn)行了灰度化處理;訓(xùn)練標(biāo)簽為間隔五幀中每個(gè)行人真實(shí)檢測(cè)框的標(biāo)注構(gòu)成。并且該數(shù)據(jù)集還提供了感興趣區(qū)域,直接忽略場(chǎng)景中不必要的移動(dòng)物體,比如樹、花草等。該數(shù)據(jù)集樣本中行人個(gè)數(shù)為49885。該數(shù)據(jù)集根據(jù)使用目的不同,分為訓(xùn)練集和測(cè)試集。數(shù)據(jù)集中人群密度低,人群稀疏,一幅圖像中平均有15人。由于數(shù)據(jù)集從單一攝像頭針對(duì)固定場(chǎng)景進(jìn)行拍攝,因此該圖像中場(chǎng)景透視角度沒有變換,場(chǎng)景相對(duì)單一,無法很好反映復(fù)雜的人群場(chǎng)景。圖2-1UCSD數(shù)據(jù)集樣例Figure2-1UCSDdatasetssample(2)Mall人群數(shù)據(jù)集。相比于UCSD數(shù)據(jù)集,Mall除了具有各種人群分布密度之外,還具有不同的行人運(yùn)動(dòng)方式,既有移動(dòng)的行人同時(shí)也有短時(shí)間間隔幀中相對(duì)靜止的行人如圖2-2所示。此外,該數(shù)據(jù)集采集時(shí)還采用不同透視角度進(jìn)行拍攝,這保證了數(shù)據(jù)集中包含豐富的形變行人。該數(shù)據(jù)集共有2000張分辨率320*240的圖像。其中包含行人6000個(gè)。訓(xùn)練樣本由800張圖片構(gòu)成,剩下1200幀用于評(píng)估。圖2-2Mall數(shù)據(jù)集樣例Figure2-2Malldatasetssample
【參考文獻(xiàn)】

相關(guān)期刊論文 前6條

1 覃勛輝;王修飛;周曦;劉艷飛;李遠(yuǎn)錢;;多種人群密度場(chǎng)景下的人群計(jì)數(shù)[J];中國(guó)圖象圖形學(xué)報(bào);2013年04期

2 武文斌;;智能視頻分析的現(xiàn)狀與未來發(fā)展趨勢(shì)[J];科技情報(bào)開發(fā)與經(jīng)濟(jì);2011年31期

3 尚邵湘;;平安城市 促進(jìn)視頻監(jiān)控大發(fā)展[J];中國(guó)公共安全(綜合版);2008年11期

4 盧湖川;張明修;張繼霞;馬洪連;;一種有效的實(shí)時(shí)人群計(jì)數(shù)方法[J];計(jì)算機(jī)工程;2008年05期

5 唐曉衡;夏利民;;基于Boosting模糊分類的入侵檢測(cè)[J];計(jì)算機(jī)工程;2008年05期

6 李強(qiáng);張鈸;;一種基于圖像灰度的快速匹配算法[J];軟件學(xué)報(bào);2006年02期


相關(guān)博士學(xué)位論文 前2條

1 張友梅;基于注意力卷積神經(jīng)網(wǎng)絡(luò)的人群計(jì)數(shù)算法研究[D];山東大學(xué);2019年

2 傅慧源;面向人群監(jiān)管的智能視頻場(chǎng)景理解技術(shù)研究[D];北京郵電大學(xué);2014年


相關(guān)碩士學(xué)位論文 前2條

1 劉彬;基于對(duì)抗深度學(xué)習(xí)的人臉檢測(cè)研究[D];青島科技大學(xué);2018年

2 馬海軍;監(jiān)控場(chǎng)景中人數(shù)統(tǒng)計(jì)算法的研究與應(yīng)用[D];安徽大學(xué);2016年



本文編號(hào):2874795

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2874795.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a7132***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com