基于計(jì)算機(jī)視覺的城軌客流統(tǒng)計(jì)技術(shù)研究
發(fā)布時(shí)間:2021-06-22 07:07
近年來城市軌道交通發(fā)展飛速,其在疏導(dǎo)了城市道路交通、縮短了市民通勤時(shí)間的同時(shí),地鐵客流量也隨之陡然上升。在突發(fā)事件來臨時(shí),如何保障地下路網(wǎng)中市民的安全已成為地鐵運(yùn)營的一大難題。而實(shí)時(shí)準(zhǔn)確地獲取客流信息,可以為提高地鐵運(yùn)營管理部門運(yùn)營組織效率,增強(qiáng)應(yīng)對突發(fā)大客流的能力提供有力的決策數(shù)據(jù)支持。本文將計(jì)算機(jī)視覺技術(shù)應(yīng)用于城軌實(shí)時(shí)客流監(jiān)測,通過對當(dāng)前具有較好性能的目標(biāo)檢測算法進(jìn)一步優(yōu)化,并設(shè)計(jì)與之相適應(yīng)的目標(biāo)跟蹤、客流計(jì)數(shù)算法,實(shí)現(xiàn)了對監(jiān)控場景內(nèi)地鐵客流準(zhǔn)確高效的實(shí)時(shí)統(tǒng)計(jì)。本文的主要內(nèi)容包括:(1)首先針對幾種基于視覺的乘客檢測方法,探究了其基本原理及在城軌監(jiān)控場景中的應(yīng)用可行性。接著對基于運(yùn)動特性的乘客目標(biāo)檢測方法與基于機(jī)器學(xué)習(xí)的HOG+SVM檢測方法進(jìn)行了對比研究測試后,確定使用基于深度學(xué)習(xí)的單發(fā)多框檢測器(Single Shot Multibox Detector,SSD)算法作為乘客目標(biāo)的檢測算法。(2)其次研究了SSD算法的框架與原理,對SSD網(wǎng)絡(luò)的訓(xùn)練、測試及其學(xué)習(xí)內(nèi)容和方式進(jìn)行了討論。又針對傳統(tǒng)SSD算法的小目標(biāo)不敏感等問題,利用基于DenseNet(密集連接網(wǎng)絡(luò))的基礎(chǔ)網(wǎng)絡(luò)和調(diào)...
【文章來源】:南京理工大學(xué)江蘇省 211工程院校
【文章頁數(shù)】:89 頁
【學(xué)位級別】:碩士
【部分圖文】:
R-CNN算法框架流程[18]
2基于視覺的乘客目標(biāo)檢測方法探究碩士學(xué)位論文18圖2.9SPP-Net算法框架流程[19]針對R-CNN檢測速度慢的問題,微軟亞洲研究院的何凱明等人設(shè)計(jì)出SPP-Net算法,該算法核心是將空間金字塔池化(spatitalpyramidpooling)層引入R-CNN。通過這種改進(jìn),只需要在網(wǎng)絡(luò)中輸入一次原圖,就能生成每個(gè)候選區(qū)域的特征。和R-CNN比起來,SPP-NET可以明顯降低檢測物體所消耗的時(shí)間。R-CNN的作者RossGirshick在吸收SPP-NET的特點(diǎn)的基礎(chǔ)上,進(jìn)一步精簡了模型的結(jié)構(gòu),設(shè)計(jì)出了FastR-CNN,再度提升了檢測的實(shí)時(shí)性。FastR-CNN相比R-CNN作出了兩點(diǎn)優(yōu)化:先是效仿SPP-NET,在最后一個(gè)卷積層后接了一個(gè)ROI(RegionofInterest,感興趣區(qū)域)池化層;再引入了多任務(wù)損失函數(shù),在進(jìn)行邊框回歸的同時(shí),將SVM分類器替換為softmax。作者在PASCALVOC2007上進(jìn)行訓(xùn)練,又在該數(shù)據(jù)集的測試集上測試取得了66.9%的mAP值。
碩士學(xué)位論文基于計(jì)算機(jī)視覺的城軌客流統(tǒng)計(jì)技術(shù)研究19圖2.10FasterR-CNN的anchor機(jī)制示意圖[21]由于FastR-CNN采用區(qū)域候選法訓(xùn)練網(wǎng)絡(luò),導(dǎo)致預(yù)測圖像的時(shí)間較長;谶@個(gè)問題,微軟亞洲研究院用端到端的RPN網(wǎng)絡(luò)改進(jìn)了FastR-CNN,設(shè)計(jì)出FasterR-CNN算法。RPN基于一批固定的默認(rèn)窗口,通過CNN來產(chǎn)生區(qū)域候選區(qū)域。通過讓FastR-CNN、RPN在訓(xùn)練過程中共享各自的卷積層,F(xiàn)asterR-CNN算法再度提升了檢測速度。該算法在PASCALVOC2007數(shù)據(jù)集上的檢測速度約為5fps,測試mAP值達(dá)到了73.2%。FasterR-CNN的優(yōu)勢在于其良好的準(zhǔn)確率,但是它在VGG16模型上每秒7幀的處理速度還不能在實(shí)時(shí)系統(tǒng)中應(yīng)用,更不用說應(yīng)用在實(shí)時(shí)性要求很高的城軌客流統(tǒng)計(jì)場景中了。這時(shí),以YOLO(YouonlyLookOnce)為代表,另一類基于回歸學(xué)習(xí)的檢測算法逐漸興起。這類方法以回歸的方式只需要用單一的網(wǎng)絡(luò)對整張圖片做一次評估就可以得到目標(biāo)邊界框和類別,一般都能表現(xiàn)出更好的時(shí)間效率。2.4.2基于SSD的檢測算法YOLO的出現(xiàn)開啟了深度學(xué)習(xí)實(shí)時(shí)檢測的序幕,其網(wǎng)絡(luò)包含24個(gè)卷積層和2個(gè)全連接層。它的核心是利用Multibox中的回歸思想,把目標(biāo)檢測任務(wù)看作一個(gè)回歸問題求解,即整張圖片為輸入,直接在輸出層回歸邊界框的位置和其所屬類別,這樣端對端的處理方式,大大加快了網(wǎng)絡(luò)的速度。即便YOLO的實(shí)時(shí)性較佳,但由于它只簡單地對圖像做回歸,使得算法的定位精度較差,影響了檢測的準(zhǔn)確率。目前,SSD是目前速度最快,檢測準(zhǔn)確率最高的目標(biāo)檢測網(wǎng)絡(luò)之一,作者是北卡羅來納大學(xué)教堂山分校的WeiLiu[23]及其團(tuán)隊(duì)。SSD在YOLO的基礎(chǔ)上做了改進(jìn),利用3×3的卷積核感受域有限的特性,把特征提取區(qū)域從全圖局限到局部,并利用不同分辨率
【參考文獻(xiàn)】:
期刊論文
[1]廣州地鐵運(yùn)營客流分布特征研究與應(yīng)用[J]. 袁江,彭磊. 都市快軌交通. 2018(04)
[2]基于改進(jìn)SSD的輕量化小目標(biāo)檢測算法[J]. 吳天舒,張志佳,劉云鵬,裴文慧,陳紅葉. 紅外與激光工程. 2018(07)
[3]基于SSD卷積網(wǎng)絡(luò)的視頻目標(biāo)檢測研究[J]. 楊潔,陳明志,吳智秦,陳靈娜,林穎. 南華大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(01)
[4]復(fù)雜場景圖像中人員目標(biāo)檢測算法的改進(jìn)[J]. 郝葉林,羅兵,楊銳,常津津. 五邑大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(01)
[5]基于深度學(xué)習(xí)的多視窗SSD目標(biāo)檢測方法[J]. 唐聰,凌永順,鄭科棟,楊星,鄭超,楊華,金偉. 紅外與激光工程. 2018(01)
[6]卷積神經(jīng)網(wǎng)絡(luò)在圖像分類和目標(biāo)檢測應(yīng)用綜述[J]. 周俊宇,趙艷明. 計(jì)算機(jī)工程與應(yīng)用. 2017(13)
[7]復(fù)雜環(huán)境背景下車輛目標(biāo)識別研究綜述[J]. 謝曉竹,何成. 兵器裝備工程學(xué)報(bào). 2017(06)
[8]基于核相關(guān)濾波器的目標(biāo)跟蹤算法[J]. 諸小熊,江加和. 應(yīng)用科技. 2017(03)
[9]基于改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)的圖像分類性能[J]. 常祥,楊明. 重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)). 2017(03)
[10]廣州地鐵大客流現(xiàn)狀分析與策略研究[J]. 李佳蕓. 中國高新技術(shù)企業(yè). 2016(31)
碩士論文
[1]基于模糊綜合評價(jià)法的城市地鐵踩踏事件應(yīng)急能力評價(jià)[D]. 黃小珍.暨南大學(xué) 2017
[2]基于機(jī)器視覺的車輛檢測與跟蹤方法研究[D]. 林立原.武漢科技大學(xué) 2015
[3]基于視覺的行人統(tǒng)計(jì)系統(tǒng)設(shè)計(jì)[D]. 張建.杭州電子科技大學(xué) 2015
[4]基于邊緣對稱性和類等價(jià)二值模式行人檢測方法的研究[D]. 武芳.浙江工業(yè)大學(xué) 2014
[5]卷積神經(jīng)網(wǎng)絡(luò)在圖像識別上的應(yīng)用的研究[D]. 許可.浙江大學(xué) 2012
[6]基于神經(jīng)網(wǎng)絡(luò)的商場客流量統(tǒng)計(jì)系統(tǒng)研究[D]. 周瑞英.河北工業(yè)大學(xué) 2006
本文編號:3242383
【文章來源】:南京理工大學(xué)江蘇省 211工程院校
【文章頁數(shù)】:89 頁
【學(xué)位級別】:碩士
【部分圖文】:
R-CNN算法框架流程[18]
2基于視覺的乘客目標(biāo)檢測方法探究碩士學(xué)位論文18圖2.9SPP-Net算法框架流程[19]針對R-CNN檢測速度慢的問題,微軟亞洲研究院的何凱明等人設(shè)計(jì)出SPP-Net算法,該算法核心是將空間金字塔池化(spatitalpyramidpooling)層引入R-CNN。通過這種改進(jìn),只需要在網(wǎng)絡(luò)中輸入一次原圖,就能生成每個(gè)候選區(qū)域的特征。和R-CNN比起來,SPP-NET可以明顯降低檢測物體所消耗的時(shí)間。R-CNN的作者RossGirshick在吸收SPP-NET的特點(diǎn)的基礎(chǔ)上,進(jìn)一步精簡了模型的結(jié)構(gòu),設(shè)計(jì)出了FastR-CNN,再度提升了檢測的實(shí)時(shí)性。FastR-CNN相比R-CNN作出了兩點(diǎn)優(yōu)化:先是效仿SPP-NET,在最后一個(gè)卷積層后接了一個(gè)ROI(RegionofInterest,感興趣區(qū)域)池化層;再引入了多任務(wù)損失函數(shù),在進(jìn)行邊框回歸的同時(shí),將SVM分類器替換為softmax。作者在PASCALVOC2007上進(jìn)行訓(xùn)練,又在該數(shù)據(jù)集的測試集上測試取得了66.9%的mAP值。
碩士學(xué)位論文基于計(jì)算機(jī)視覺的城軌客流統(tǒng)計(jì)技術(shù)研究19圖2.10FasterR-CNN的anchor機(jī)制示意圖[21]由于FastR-CNN采用區(qū)域候選法訓(xùn)練網(wǎng)絡(luò),導(dǎo)致預(yù)測圖像的時(shí)間較長;谶@個(gè)問題,微軟亞洲研究院用端到端的RPN網(wǎng)絡(luò)改進(jìn)了FastR-CNN,設(shè)計(jì)出FasterR-CNN算法。RPN基于一批固定的默認(rèn)窗口,通過CNN來產(chǎn)生區(qū)域候選區(qū)域。通過讓FastR-CNN、RPN在訓(xùn)練過程中共享各自的卷積層,F(xiàn)asterR-CNN算法再度提升了檢測速度。該算法在PASCALVOC2007數(shù)據(jù)集上的檢測速度約為5fps,測試mAP值達(dá)到了73.2%。FasterR-CNN的優(yōu)勢在于其良好的準(zhǔn)確率,但是它在VGG16模型上每秒7幀的處理速度還不能在實(shí)時(shí)系統(tǒng)中應(yīng)用,更不用說應(yīng)用在實(shí)時(shí)性要求很高的城軌客流統(tǒng)計(jì)場景中了。這時(shí),以YOLO(YouonlyLookOnce)為代表,另一類基于回歸學(xué)習(xí)的檢測算法逐漸興起。這類方法以回歸的方式只需要用單一的網(wǎng)絡(luò)對整張圖片做一次評估就可以得到目標(biāo)邊界框和類別,一般都能表現(xiàn)出更好的時(shí)間效率。2.4.2基于SSD的檢測算法YOLO的出現(xiàn)開啟了深度學(xué)習(xí)實(shí)時(shí)檢測的序幕,其網(wǎng)絡(luò)包含24個(gè)卷積層和2個(gè)全連接層。它的核心是利用Multibox中的回歸思想,把目標(biāo)檢測任務(wù)看作一個(gè)回歸問題求解,即整張圖片為輸入,直接在輸出層回歸邊界框的位置和其所屬類別,這樣端對端的處理方式,大大加快了網(wǎng)絡(luò)的速度。即便YOLO的實(shí)時(shí)性較佳,但由于它只簡單地對圖像做回歸,使得算法的定位精度較差,影響了檢測的準(zhǔn)確率。目前,SSD是目前速度最快,檢測準(zhǔn)確率最高的目標(biāo)檢測網(wǎng)絡(luò)之一,作者是北卡羅來納大學(xué)教堂山分校的WeiLiu[23]及其團(tuán)隊(duì)。SSD在YOLO的基礎(chǔ)上做了改進(jìn),利用3×3的卷積核感受域有限的特性,把特征提取區(qū)域從全圖局限到局部,并利用不同分辨率
【參考文獻(xiàn)】:
期刊論文
[1]廣州地鐵運(yùn)營客流分布特征研究與應(yīng)用[J]. 袁江,彭磊. 都市快軌交通. 2018(04)
[2]基于改進(jìn)SSD的輕量化小目標(biāo)檢測算法[J]. 吳天舒,張志佳,劉云鵬,裴文慧,陳紅葉. 紅外與激光工程. 2018(07)
[3]基于SSD卷積網(wǎng)絡(luò)的視頻目標(biāo)檢測研究[J]. 楊潔,陳明志,吳智秦,陳靈娜,林穎. 南華大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(01)
[4]復(fù)雜場景圖像中人員目標(biāo)檢測算法的改進(jìn)[J]. 郝葉林,羅兵,楊銳,常津津. 五邑大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(01)
[5]基于深度學(xué)習(xí)的多視窗SSD目標(biāo)檢測方法[J]. 唐聰,凌永順,鄭科棟,楊星,鄭超,楊華,金偉. 紅外與激光工程. 2018(01)
[6]卷積神經(jīng)網(wǎng)絡(luò)在圖像分類和目標(biāo)檢測應(yīng)用綜述[J]. 周俊宇,趙艷明. 計(jì)算機(jī)工程與應(yīng)用. 2017(13)
[7]復(fù)雜環(huán)境背景下車輛目標(biāo)識別研究綜述[J]. 謝曉竹,何成. 兵器裝備工程學(xué)報(bào). 2017(06)
[8]基于核相關(guān)濾波器的目標(biāo)跟蹤算法[J]. 諸小熊,江加和. 應(yīng)用科技. 2017(03)
[9]基于改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)的圖像分類性能[J]. 常祥,楊明. 重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)). 2017(03)
[10]廣州地鐵大客流現(xiàn)狀分析與策略研究[J]. 李佳蕓. 中國高新技術(shù)企業(yè). 2016(31)
碩士論文
[1]基于模糊綜合評價(jià)法的城市地鐵踩踏事件應(yīng)急能力評價(jià)[D]. 黃小珍.暨南大學(xué) 2017
[2]基于機(jī)器視覺的車輛檢測與跟蹤方法研究[D]. 林立原.武漢科技大學(xué) 2015
[3]基于視覺的行人統(tǒng)計(jì)系統(tǒng)設(shè)計(jì)[D]. 張建.杭州電子科技大學(xué) 2015
[4]基于邊緣對稱性和類等價(jià)二值模式行人檢測方法的研究[D]. 武芳.浙江工業(yè)大學(xué) 2014
[5]卷積神經(jīng)網(wǎng)絡(luò)在圖像識別上的應(yīng)用的研究[D]. 許可.浙江大學(xué) 2012
[6]基于神經(jīng)網(wǎng)絡(luò)的商場客流量統(tǒng)計(jì)系統(tǒng)研究[D]. 周瑞英.河北工業(yè)大學(xué) 2006
本文編號:3242383
本文鏈接:http://sikaile.net/kejilunwen/jiaotonggongchenglunwen/3242383.html
最近更新
教材專著