基于視頻監(jiān)控的手扶電梯乘客異常行為識別
發(fā)布時間:2021-06-01 20:00
針對乘客在搭乘扶梯時的危險行為難以被實時準確檢測的問題,提出了一種基于視頻監(jiān)控的手扶電梯乘客異常行為識別算法。首先,使用YOLOv3對圖像中乘客的位置進行檢測;接著,使用MobileNetv2作為基網(wǎng)絡,結合反卷積層對檢測出來的乘客進行人體骨架提取;然后,使用骨架距離作為跟蹤依據(jù),采用匈牙利匹配算法對相鄰幀間的人體骨架進行匹配,實現(xiàn)視頻中乘客的ID號分配;最后,通過圖卷積神經(jīng)網(wǎng)絡對乘客關鍵點信息進行異常行為識別。在GTX1080GPU上的實驗結果表明,文中提出的識別算法的處理速度能達到15 f/s,異常行為識別準確率達94.3%,能夠實時準確地識別手扶電梯上乘客的異常行為。
【文章來源】:華南理工大學學報(自然科學版). 2020,48(08)北大核心EICSCD
【文章頁數(shù)】:12 頁
【部分圖文】:
攝像機安裝位置示意圖
圖1 攝像機安裝位置示意圖乘客骨架提取是識別和定位出圖像中所有乘客的關鍵點,并根據(jù)人體的骨骼關聯(lián)性將其連接起來。人體骨架通常可以傳遞重要的運動信息,因此可以作為行為識別的主要依據(jù),F(xiàn)有方法可以分為自上而下[18- 20]和自下而上[17,21- 22]的方法。自上而下的方法首先使用行人檢測方法將圖像中的行人檢測出來,然后使用單人關鍵點提取方法對關鍵點進行定位;而自下而上的方法先從圖像中檢測出所有人體的關鍵點,然后基于各種數(shù)據(jù)關聯(lián)技術將這些關鍵點連接起來形成骨架。其中自下而上的方法對于行人擁擠的情況存在關鍵點混淆的缺點,難以將個別關鍵點歸到對應正確的人,這對后續(xù)使用關鍵點作為依據(jù)的乘客行為識別的影響較大。因此,本文使用自上而下的關鍵點提取方法,先使用YOLOv3[23]對圖像中乘客的位置進行檢測,再使用MobileNetv2[24]作為基網(wǎng)絡,結合反卷積層對檢測出來的乘客進行人體關鍵點提取,能較好地克服行人密集時關鍵點組合成骨架分配錯誤的缺點。
本文使用YOLOv3、MobileNetv2與反卷積結合的自上而下的人體骨架提取方法進行乘客骨架的提取,具體流程圖如圖3所示。2.1 基于YOLOv3的乘客檢測
【參考文獻】:
期刊論文
[1]人工智能背景下視頻監(jiān)控系統(tǒng)的應用[J]. 段雨梅. 科技風. 2019(29)
[2]基于人體骨架序列的手扶電梯乘客異常行為識別[J]. 田聯(lián)房,吳啟超,杜啟亮,黃理廣,李淼,張大明. 華南理工大學學報(自然科學版). 2019(04)
[3]基于Adaboost和碼本模型的手扶電梯出入口視頻監(jiān)控方法[J]. 杜啟亮,黎浩正,田聯(lián)房. 計算機應用. 2017(09)
[4]基于動態(tài)粒子流場的視頻異常行為自動識別[J]. 仉長崎,管業(yè)鵬. 光電子·激光. 2015(12)
博士論文
[1]智能視覺監(jiān)控中運動目標檢測與行為識別方法[D]. 王韋樺.西安電子科技大學 2014
碩士論文
[1]基于Kinect的人體行為表示和識別方法[D]. 高彬.中國礦業(yè)大學 2018
本文編號:3210056
【文章來源】:華南理工大學學報(自然科學版). 2020,48(08)北大核心EICSCD
【文章頁數(shù)】:12 頁
【部分圖文】:
攝像機安裝位置示意圖
圖1 攝像機安裝位置示意圖乘客骨架提取是識別和定位出圖像中所有乘客的關鍵點,并根據(jù)人體的骨骼關聯(lián)性將其連接起來。人體骨架通常可以傳遞重要的運動信息,因此可以作為行為識別的主要依據(jù),F(xiàn)有方法可以分為自上而下[18- 20]和自下而上[17,21- 22]的方法。自上而下的方法首先使用行人檢測方法將圖像中的行人檢測出來,然后使用單人關鍵點提取方法對關鍵點進行定位;而自下而上的方法先從圖像中檢測出所有人體的關鍵點,然后基于各種數(shù)據(jù)關聯(lián)技術將這些關鍵點連接起來形成骨架。其中自下而上的方法對于行人擁擠的情況存在關鍵點混淆的缺點,難以將個別關鍵點歸到對應正確的人,這對后續(xù)使用關鍵點作為依據(jù)的乘客行為識別的影響較大。因此,本文使用自上而下的關鍵點提取方法,先使用YOLOv3[23]對圖像中乘客的位置進行檢測,再使用MobileNetv2[24]作為基網(wǎng)絡,結合反卷積層對檢測出來的乘客進行人體關鍵點提取,能較好地克服行人密集時關鍵點組合成骨架分配錯誤的缺點。
本文使用YOLOv3、MobileNetv2與反卷積結合的自上而下的人體骨架提取方法進行乘客骨架的提取,具體流程圖如圖3所示。2.1 基于YOLOv3的乘客檢測
【參考文獻】:
期刊論文
[1]人工智能背景下視頻監(jiān)控系統(tǒng)的應用[J]. 段雨梅. 科技風. 2019(29)
[2]基于人體骨架序列的手扶電梯乘客異常行為識別[J]. 田聯(lián)房,吳啟超,杜啟亮,黃理廣,李淼,張大明. 華南理工大學學報(自然科學版). 2019(04)
[3]基于Adaboost和碼本模型的手扶電梯出入口視頻監(jiān)控方法[J]. 杜啟亮,黎浩正,田聯(lián)房. 計算機應用. 2017(09)
[4]基于動態(tài)粒子流場的視頻異常行為自動識別[J]. 仉長崎,管業(yè)鵬. 光電子·激光. 2015(12)
博士論文
[1]智能視覺監(jiān)控中運動目標檢測與行為識別方法[D]. 王韋樺.西安電子科技大學 2014
碩士論文
[1]基于Kinect的人體行為表示和識別方法[D]. 高彬.中國礦業(yè)大學 2018
本文編號:3210056
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3210056.html
最近更新
教材專著