基于視頻監(jiān)控的手扶電梯乘客異常行為識(shí)別
發(fā)布時(shí)間:2021-06-01 20:00
針對(duì)乘客在搭乘扶梯時(shí)的危險(xiǎn)行為難以被實(shí)時(shí)準(zhǔn)確檢測(cè)的問題,提出了一種基于視頻監(jiān)控的手扶電梯乘客異常行為識(shí)別算法。首先,使用YOLOv3對(duì)圖像中乘客的位置進(jìn)行檢測(cè);接著,使用MobileNetv2作為基網(wǎng)絡(luò),結(jié)合反卷積層對(duì)檢測(cè)出來的乘客進(jìn)行人體骨架提取;然后,使用骨架距離作為跟蹤依據(jù),采用匈牙利匹配算法對(duì)相鄰幀間的人體骨架進(jìn)行匹配,實(shí)現(xiàn)視頻中乘客的ID號(hào)分配;最后,通過圖卷積神經(jīng)網(wǎng)絡(luò)對(duì)乘客關(guān)鍵點(diǎn)信息進(jìn)行異常行為識(shí)別。在GTX1080GPU上的實(shí)驗(yàn)結(jié)果表明,文中提出的識(shí)別算法的處理速度能達(dá)到15 f/s,異常行為識(shí)別準(zhǔn)確率達(dá)94.3%,能夠?qū)崟r(shí)準(zhǔn)確地識(shí)別手扶電梯上乘客的異常行為。
【文章來源】:華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版). 2020,48(08)北大核心EICSCD
【文章頁數(shù)】:12 頁
【部分圖文】:
攝像機(jī)安裝位置示意圖
圖1 攝像機(jī)安裝位置示意圖乘客骨架提取是識(shí)別和定位出圖像中所有乘客的關(guān)鍵點(diǎn),并根據(jù)人體的骨骼關(guān)聯(lián)性將其連接起來。人體骨架通?梢詡鬟f重要的運(yùn)動(dòng)信息,因此可以作為行為識(shí)別的主要依據(jù),F(xiàn)有方法可以分為自上而下[18- 20]和自下而上[17,21- 22]的方法。自上而下的方法首先使用行人檢測(cè)方法將圖像中的行人檢測(cè)出來,然后使用單人關(guān)鍵點(diǎn)提取方法對(duì)關(guān)鍵點(diǎn)進(jìn)行定位;而自下而上的方法先從圖像中檢測(cè)出所有人體的關(guān)鍵點(diǎn),然后基于各種數(shù)據(jù)關(guān)聯(lián)技術(shù)將這些關(guān)鍵點(diǎn)連接起來形成骨架。其中自下而上的方法對(duì)于行人擁擠的情況存在關(guān)鍵點(diǎn)混淆的缺點(diǎn),難以將個(gè)別關(guān)鍵點(diǎn)歸到對(duì)應(yīng)正確的人,這對(duì)后續(xù)使用關(guān)鍵點(diǎn)作為依據(jù)的乘客行為識(shí)別的影響較大。因此,本文使用自上而下的關(guān)鍵點(diǎn)提取方法,先使用YOLOv3[23]對(duì)圖像中乘客的位置進(jìn)行檢測(cè),再使用MobileNetv2[24]作為基網(wǎng)絡(luò),結(jié)合反卷積層對(duì)檢測(cè)出來的乘客進(jìn)行人體關(guān)鍵點(diǎn)提取,能較好地克服行人密集時(shí)關(guān)鍵點(diǎn)組合成骨架分配錯(cuò)誤的缺點(diǎn)。
本文使用YOLOv3、MobileNetv2與反卷積結(jié)合的自上而下的人體骨架提取方法進(jìn)行乘客骨架的提取,具體流程圖如圖3所示。2.1 基于YOLOv3的乘客檢測(cè)
【參考文獻(xiàn)】:
期刊論文
[1]人工智能背景下視頻監(jiān)控系統(tǒng)的應(yīng)用[J]. 段雨梅. 科技風(fēng). 2019(29)
[2]基于人體骨架序列的手扶電梯乘客異常行為識(shí)別[J]. 田聯(lián)房,吳啟超,杜啟亮,黃理廣,李淼,張大明. 華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版). 2019(04)
[3]基于Adaboost和碼本模型的手扶電梯出入口視頻監(jiān)控方法[J]. 杜啟亮,黎浩正,田聯(lián)房. 計(jì)算機(jī)應(yīng)用. 2017(09)
[4]基于動(dòng)態(tài)粒子流場(chǎng)的視頻異常行為自動(dòng)識(shí)別[J]. 仉長(zhǎng)崎,管業(yè)鵬. 光電子·激光. 2015(12)
博士論文
[1]智能視覺監(jiān)控中運(yùn)動(dòng)目標(biāo)檢測(cè)與行為識(shí)別方法[D]. 王韋樺.西安電子科技大學(xué) 2014
碩士論文
[1]基于Kinect的人體行為表示和識(shí)別方法[D]. 高彬.中國(guó)礦業(yè)大學(xué) 2018
本文編號(hào):3210056
【文章來源】:華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版). 2020,48(08)北大核心EICSCD
【文章頁數(shù)】:12 頁
【部分圖文】:
攝像機(jī)安裝位置示意圖
圖1 攝像機(jī)安裝位置示意圖乘客骨架提取是識(shí)別和定位出圖像中所有乘客的關(guān)鍵點(diǎn),并根據(jù)人體的骨骼關(guān)聯(lián)性將其連接起來。人體骨架通?梢詡鬟f重要的運(yùn)動(dòng)信息,因此可以作為行為識(shí)別的主要依據(jù),F(xiàn)有方法可以分為自上而下[18- 20]和自下而上[17,21- 22]的方法。自上而下的方法首先使用行人檢測(cè)方法將圖像中的行人檢測(cè)出來,然后使用單人關(guān)鍵點(diǎn)提取方法對(duì)關(guān)鍵點(diǎn)進(jìn)行定位;而自下而上的方法先從圖像中檢測(cè)出所有人體的關(guān)鍵點(diǎn),然后基于各種數(shù)據(jù)關(guān)聯(lián)技術(shù)將這些關(guān)鍵點(diǎn)連接起來形成骨架。其中自下而上的方法對(duì)于行人擁擠的情況存在關(guān)鍵點(diǎn)混淆的缺點(diǎn),難以將個(gè)別關(guān)鍵點(diǎn)歸到對(duì)應(yīng)正確的人,這對(duì)后續(xù)使用關(guān)鍵點(diǎn)作為依據(jù)的乘客行為識(shí)別的影響較大。因此,本文使用自上而下的關(guān)鍵點(diǎn)提取方法,先使用YOLOv3[23]對(duì)圖像中乘客的位置進(jìn)行檢測(cè),再使用MobileNetv2[24]作為基網(wǎng)絡(luò),結(jié)合反卷積層對(duì)檢測(cè)出來的乘客進(jìn)行人體關(guān)鍵點(diǎn)提取,能較好地克服行人密集時(shí)關(guān)鍵點(diǎn)組合成骨架分配錯(cuò)誤的缺點(diǎn)。
本文使用YOLOv3、MobileNetv2與反卷積結(jié)合的自上而下的人體骨架提取方法進(jìn)行乘客骨架的提取,具體流程圖如圖3所示。2.1 基于YOLOv3的乘客檢測(cè)
【參考文獻(xiàn)】:
期刊論文
[1]人工智能背景下視頻監(jiān)控系統(tǒng)的應(yīng)用[J]. 段雨梅. 科技風(fēng). 2019(29)
[2]基于人體骨架序列的手扶電梯乘客異常行為識(shí)別[J]. 田聯(lián)房,吳啟超,杜啟亮,黃理廣,李淼,張大明. 華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版). 2019(04)
[3]基于Adaboost和碼本模型的手扶電梯出入口視頻監(jiān)控方法[J]. 杜啟亮,黎浩正,田聯(lián)房. 計(jì)算機(jī)應(yīng)用. 2017(09)
[4]基于動(dòng)態(tài)粒子流場(chǎng)的視頻異常行為自動(dòng)識(shí)別[J]. 仉長(zhǎng)崎,管業(yè)鵬. 光電子·激光. 2015(12)
博士論文
[1]智能視覺監(jiān)控中運(yùn)動(dòng)目標(biāo)檢測(cè)與行為識(shí)別方法[D]. 王韋樺.西安電子科技大學(xué) 2014
碩士論文
[1]基于Kinect的人體行為表示和識(shí)別方法[D]. 高彬.中國(guó)礦業(yè)大學(xué) 2018
本文編號(hào):3210056
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3210056.html
最近更新
教材專著