基于深度學習的視頻人群計數(shù)系統(tǒng)
發(fā)布時間:2021-02-20 03:39
人群自動計數(shù)問題在視頻監(jiān)控領域引起了廣泛關(guān)注。近年來,卷積神經(jīng)網(wǎng)絡(CNN)模型在人群計數(shù)方面取得了良好效果。然而,當前對于基于深度學習的人群計數(shù)的研究主要停留在PC端上對單幅靜止圖片的人群計數(shù),網(wǎng)絡模型參數(shù)量巨大,網(wǎng)絡結(jié)構(gòu)復雜,消耗的計算資源巨大,難以部署于實際的監(jiān)控視頻人群計數(shù)系統(tǒng)。因此,本文采用深度學習的方法,通過對網(wǎng)絡模型進行裁剪壓縮,同時使用TensorRT對模型進行加速,在嵌入式平臺上實現(xiàn)了接近實時的人群計數(shù)。提出的人群計數(shù)平均絕對誤差(MAE)為21.6且平均每秒幀數(shù)(FPS)為22,在精確度和速度方面達到了一個很好的平衡,在嵌入式平臺上運行速度較快,能達到實時的效果。
【文章來源】:太赫茲科學與電子信息學報. 2020,18(03)北大核心
【文章頁數(shù)】:5 頁
【部分圖文】:
ShanghaiTechB測試集合成視頻人群計數(shù)
518太赫茲科學與電子信息學報第18卷為驗證模型對視頻的人群計數(shù)的能力,本文采用2種方式進行測試:一是將ShanghaiTechB測試集的圖片合成視頻作為輸入,部分樣例測試結(jié)果如圖3所示;二是在實際場景中進行測試。在進行實際場景的測試前,先在一個自制的小型數(shù)據(jù)集進行微調(diào)訓練,部分測試結(jié)果如圖4所示。圖5為BeijingBRT測試集的圖片合成視頻作為模型輸入的部分測試結(jié)果。其中GT表示GroundTruth,即視頻幀中真實的人群數(shù)目,estimated表示通過本文系統(tǒng)測試輸出的人群數(shù)目。[GT:93][estimated:84.0]Fig.3CrowdcountingresultsofShanghaiTechBtestsetsyntheticvideo圖3ShanghaiTechB測試集合成視頻人群計數(shù)[GT:176][estimated:164.0][GT:168][estimated:158.0]Fig.4Crowdcountingresultsofcampuscanteensurveillancevideo圖4校園食堂監(jiān)控攝像視頻人群計數(shù)[GT:117][estimated:120.0][GT:112][estimated:104.0][GT:118][estimated:112.0][GT:15][estimated:15.0][GT:18][estimated:14.0][GT:17][estimated:12.0]Fig.5CrowdcountingresultsofBeijingBRTsurveillancevideo圖5BeijingBRT監(jiān)控攝像視頻人群計數(shù)
BeijingBRT監(jiān)控
【參考文獻】:
期刊論文
[1]基于動作標準序列的3D視頻人體動作識別[J]. 聶勇,張鵬,馮輝,楊濤,胡波. 太赫茲科學與電子信息學報. 2017(05)
[2]特征回歸與檢測結(jié)合的人數(shù)統(tǒng)計方法[J]. 周治平,許伶俐,李文慧. 計算機輔助設計與圖形學學報. 2015(03)
[3]基于HOG和SVM的公交乘客人流量統(tǒng)計算法[J]. 徐超,高夢珠,查宇鋒,曹利民. 儀器儀表學報. 2015(02)
[4]多種人群密度場景下的人群計數(shù)[J]. 覃勛輝,王修飛,周曦,劉艷飛,李遠錢. 中國圖象圖形學報. 2013(04)
本文編號:3042166
【文章來源】:太赫茲科學與電子信息學報. 2020,18(03)北大核心
【文章頁數(shù)】:5 頁
【部分圖文】:
ShanghaiTechB測試集合成視頻人群計數(shù)
518太赫茲科學與電子信息學報第18卷為驗證模型對視頻的人群計數(shù)的能力,本文采用2種方式進行測試:一是將ShanghaiTechB測試集的圖片合成視頻作為輸入,部分樣例測試結(jié)果如圖3所示;二是在實際場景中進行測試。在進行實際場景的測試前,先在一個自制的小型數(shù)據(jù)集進行微調(diào)訓練,部分測試結(jié)果如圖4所示。圖5為BeijingBRT測試集的圖片合成視頻作為模型輸入的部分測試結(jié)果。其中GT表示GroundTruth,即視頻幀中真實的人群數(shù)目,estimated表示通過本文系統(tǒng)測試輸出的人群數(shù)目。[GT:93][estimated:84.0]Fig.3CrowdcountingresultsofShanghaiTechBtestsetsyntheticvideo圖3ShanghaiTechB測試集合成視頻人群計數(shù)[GT:176][estimated:164.0][GT:168][estimated:158.0]Fig.4Crowdcountingresultsofcampuscanteensurveillancevideo圖4校園食堂監(jiān)控攝像視頻人群計數(shù)[GT:117][estimated:120.0][GT:112][estimated:104.0][GT:118][estimated:112.0][GT:15][estimated:15.0][GT:18][estimated:14.0][GT:17][estimated:12.0]Fig.5CrowdcountingresultsofBeijingBRTsurveillancevideo圖5BeijingBRT監(jiān)控攝像視頻人群計數(shù)
BeijingBRT監(jiān)控
【參考文獻】:
期刊論文
[1]基于動作標準序列的3D視頻人體動作識別[J]. 聶勇,張鵬,馮輝,楊濤,胡波. 太赫茲科學與電子信息學報. 2017(05)
[2]特征回歸與檢測結(jié)合的人數(shù)統(tǒng)計方法[J]. 周治平,許伶俐,李文慧. 計算機輔助設計與圖形學學報. 2015(03)
[3]基于HOG和SVM的公交乘客人流量統(tǒng)計算法[J]. 徐超,高夢珠,查宇鋒,曹利民. 儀器儀表學報. 2015(02)
[4]多種人群密度場景下的人群計數(shù)[J]. 覃勛輝,王修飛,周曦,劉艷飛,李遠錢. 中國圖象圖形學報. 2013(04)
本文編號:3042166
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3042166.html
最近更新
教材專著