基于卷積神經(jīng)網(wǎng)絡(luò)的隧道行人目標(biāo)檢測算法研究
發(fā)布時間:2020-12-22 23:24
隧道中行人目標(biāo)的快速準確檢測對保障隧道交通安全有著重要作用。相比于傳統(tǒng)的機器學(xué)習(xí)檢測算法卷積神經(jīng)網(wǎng)絡(luò)可以自動學(xué)習(xí)圖像豐富的特征,具有較強的特征提取能力,基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測算法在檢測速度和檢測精度上有明顯優(yōu)勢。但在隧道環(huán)境中,環(huán)境光照不足,監(jiān)控視頻圖像模糊,噪聲多,行人目標(biāo)在隧道監(jiān)控視頻中目標(biāo)小、像素低,難以發(fā)揮卷積神經(jīng)網(wǎng)絡(luò)特征提取能力強的優(yōu)勢。因此,研究基于改進卷積神經(jīng)網(wǎng)絡(luò)的隧道行人目標(biāo)檢測具有重要的理論和實際意義。近幾年,R-CNN(Region-based Convolutional Neural Networks)系列卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)檢測方面取得了較好的效果。論文以Fast R-CNN和Faster R-CNN檢測網(wǎng)絡(luò)為基礎(chǔ),針對Fast R-CNN候選區(qū)域提取時間過長問題以及Faster R-CNN在隧道環(huán)境下行人特征提取效果不佳問題展開研究,提出了一種新的前景提取方法以及超分辨率網(wǎng)絡(luò)與Faster R-CNN級聯(lián)的行人目標(biāo)檢測網(wǎng)絡(luò),并對Faster R-CNN中的RPN(Region proposal network)網(wǎng)絡(luò)和NMS(Non-maximum suppr...
【文章來源】:重慶大學(xué)重慶市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:76 頁
【學(xué)位級別】:碩士
【部分圖文】:
深度學(xué)習(xí)分類Fig.1.1Classificationofdeeplearning
重慶大學(xué)碩士學(xué)位論文8圖2.1CNN結(jié)構(gòu)示意圖[26]Fig.2.1StructurediagramofCNN[26]①卷積層卷積的概念最早起源于信號與系統(tǒng),泛函分析中,卷積是通過兩個函數(shù)f和g生成第三個函數(shù)的一種數(shù)學(xué)算子,是其中一個函數(shù)變換后與另一個函數(shù)的乘積的積分。函數(shù)f與g的卷積可以定義為:z(t)f(t)g(t)=f(m)g(tm)dm(2.1)卷積層的參數(shù)即是一系列帶有可學(xué)習(xí)參數(shù)的濾波器,對輸入圖像進行卷積操作的本質(zhì)就是對圖像進行濾波處理。下圖2.2所示即在一個尺寸為5x5的圖像上用3x3的卷積核以滑動步長為1進行卷積計算的過程。圖2.2卷積計算過程示意圖Fig.2.2Diagramofconvolutioncalculationprocess輸入圖像通過卷積層進行卷積操作,再輸入一個激活函數(shù)得到輸出特征圖,該過程如公式2.2所示:1(*W)jlllljiijjiMXfXb(2.2)ljX表示第l層的第j個特征圖,l1iX表示l1層的所有特征圖,lijK表示第l層的第j個卷積核,ljb表示偏置,f()表示轉(zhuǎn)換函數(shù)。卷積層具有局部感知和權(quán)值共享的特性。局部感知指的是卷積層的每個神經(jīng)元只對圖像的局部進行感知,圖像中相鄰像素間關(guān)系緊密,距離越遠的像素間相
重慶大學(xué)碩士學(xué)位論文8圖2.1CNN結(jié)構(gòu)示意圖[26]Fig.2.1StructurediagramofCNN[26]①卷積層卷積的概念最早起源于信號與系統(tǒng),泛函分析中,卷積是通過兩個函數(shù)f和g生成第三個函數(shù)的一種數(shù)學(xué)算子,是其中一個函數(shù)變換后與另一個函數(shù)的乘積的積分。函數(shù)f與g的卷積可以定義為:z(t)f(t)g(t)=f(m)g(tm)dm(2.1)卷積層的參數(shù)即是一系列帶有可學(xué)習(xí)參數(shù)的濾波器,對輸入圖像進行卷積操作的本質(zhì)就是對圖像進行濾波處理。下圖2.2所示即在一個尺寸為5x5的圖像上用3x3的卷積核以滑動步長為1進行卷積計算的過程。圖2.2卷積計算過程示意圖Fig.2.2Diagramofconvolutioncalculationprocess輸入圖像通過卷積層進行卷積操作,再輸入一個激活函數(shù)得到輸出特征圖,該過程如公式2.2所示:1(*W)jlllljiijjiMXfXb(2.2)ljX表示第l層的第j個特征圖,l1iX表示l1層的所有特征圖,lijK表示第l層的第j個卷積核,ljb表示偏置,f()表示轉(zhuǎn)換函數(shù)。卷積層具有局部感知和權(quán)值共享的特性。局部感知指的是卷積層的每個神經(jīng)元只對圖像的局部進行感知,圖像中相鄰像素間關(guān)系緊密,距離越遠的像素間相
【參考文獻】:
期刊論文
[1]基于背景差分與幀間差分的目標(biāo)檢測改進算法[J]. 王夢菊,吳小龍,杜海濤. 自動化技術(shù)與應(yīng)用. 2018(10)
[2]一種改進聚合通道特征的行人檢測方法[J]. 韋皓瀚,曹國,尚巖峰,孫權(quán)森,王必勝. 數(shù)據(jù)采集與處理. 2018(03)
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的小樣本圖像識別方法[J]. 段萌,王功鵬,牛常勇. 計算機工程與設(shè)計. 2018(01)
[4]圖像的最近鄰縮放原理及實現(xiàn)[J]. 李艷玲. 長治學(xué)院學(xué)報. 2016(05)
[5]圖像超分辨率重建技術(shù)及研究[J]. 葉兆豐. 電子世界. 2013(09)
[6]基于雙線性插值的圖像縮放算法的研究與實現(xiàn)[J]. 王森,楊克儉. 自動化技術(shù)與應(yīng)用. 2008(07)
[7]行人檢測系統(tǒng)研究新進展及關(guān)鍵技術(shù)展望[J]. 許言午,曹先彬,喬紅. 電子學(xué)報. 2008(05)
[8]基于三次樣條插值的圖像放大的離散算法[J]. 王忠謙,朱寧. 蘇州大學(xué)學(xué)報(自然科學(xué)版). 2005(02)
碩士論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法研究[D]. 黃莉芝.西南交通大學(xué) 2018
[2]基于深度學(xué)習(xí)的說話人識別研究[D]. 陳甜甜.北京郵電大學(xué) 2018
[3]基于深度視感知學(xué)習(xí)的目標(biāo)檢測算法與應(yīng)用研究[D]. 張亞超.蘭州理工大學(xué) 2018
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的交通場景行人檢測[D]. 羅杰.南昌航空大學(xué) 2018
[5]基于深度學(xué)習(xí)的目標(biāo)檢測算法研究[D]. 李明攀.浙江大學(xué) 2018
[6]基于深度學(xué)習(xí)的人臉識別算法研究[D]. 趙學(xué)斌.北京郵電大學(xué) 2018
[7]基于深度卷積神經(jīng)網(wǎng)絡(luò)的表單中手寫簽名位置定位方法[D]. 李雪薇.西安理工大學(xué) 2017
[8]基于卷積神經(jīng)網(wǎng)絡(luò)圖像分類優(yōu)化算法的研究與驗證[D]. 石琪.北京交通大學(xué) 2017
[9]基于深度學(xué)習(xí)的圖像識別與文字推薦系統(tǒng)的設(shè)計與實現(xiàn)[D]. 王雨辰.北京交通大學(xué) 2017
[10]基于深度學(xué)習(xí)的手語識別方法研究[D]. 韓寧江.吉林大學(xué) 2017
本文編號:2932631
【文章來源】:重慶大學(xué)重慶市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:76 頁
【學(xué)位級別】:碩士
【部分圖文】:
深度學(xué)習(xí)分類Fig.1.1Classificationofdeeplearning
重慶大學(xué)碩士學(xué)位論文8圖2.1CNN結(jié)構(gòu)示意圖[26]Fig.2.1StructurediagramofCNN[26]①卷積層卷積的概念最早起源于信號與系統(tǒng),泛函分析中,卷積是通過兩個函數(shù)f和g生成第三個函數(shù)的一種數(shù)學(xué)算子,是其中一個函數(shù)變換后與另一個函數(shù)的乘積的積分。函數(shù)f與g的卷積可以定義為:z(t)f(t)g(t)=f(m)g(tm)dm(2.1)卷積層的參數(shù)即是一系列帶有可學(xué)習(xí)參數(shù)的濾波器,對輸入圖像進行卷積操作的本質(zhì)就是對圖像進行濾波處理。下圖2.2所示即在一個尺寸為5x5的圖像上用3x3的卷積核以滑動步長為1進行卷積計算的過程。圖2.2卷積計算過程示意圖Fig.2.2Diagramofconvolutioncalculationprocess輸入圖像通過卷積層進行卷積操作,再輸入一個激活函數(shù)得到輸出特征圖,該過程如公式2.2所示:1(*W)jlllljiijjiMXfXb(2.2)ljX表示第l層的第j個特征圖,l1iX表示l1層的所有特征圖,lijK表示第l層的第j個卷積核,ljb表示偏置,f()表示轉(zhuǎn)換函數(shù)。卷積層具有局部感知和權(quán)值共享的特性。局部感知指的是卷積層的每個神經(jīng)元只對圖像的局部進行感知,圖像中相鄰像素間關(guān)系緊密,距離越遠的像素間相
重慶大學(xué)碩士學(xué)位論文8圖2.1CNN結(jié)構(gòu)示意圖[26]Fig.2.1StructurediagramofCNN[26]①卷積層卷積的概念最早起源于信號與系統(tǒng),泛函分析中,卷積是通過兩個函數(shù)f和g生成第三個函數(shù)的一種數(shù)學(xué)算子,是其中一個函數(shù)變換后與另一個函數(shù)的乘積的積分。函數(shù)f與g的卷積可以定義為:z(t)f(t)g(t)=f(m)g(tm)dm(2.1)卷積層的參數(shù)即是一系列帶有可學(xué)習(xí)參數(shù)的濾波器,對輸入圖像進行卷積操作的本質(zhì)就是對圖像進行濾波處理。下圖2.2所示即在一個尺寸為5x5的圖像上用3x3的卷積核以滑動步長為1進行卷積計算的過程。圖2.2卷積計算過程示意圖Fig.2.2Diagramofconvolutioncalculationprocess輸入圖像通過卷積層進行卷積操作,再輸入一個激活函數(shù)得到輸出特征圖,該過程如公式2.2所示:1(*W)jlllljiijjiMXfXb(2.2)ljX表示第l層的第j個特征圖,l1iX表示l1層的所有特征圖,lijK表示第l層的第j個卷積核,ljb表示偏置,f()表示轉(zhuǎn)換函數(shù)。卷積層具有局部感知和權(quán)值共享的特性。局部感知指的是卷積層的每個神經(jīng)元只對圖像的局部進行感知,圖像中相鄰像素間關(guān)系緊密,距離越遠的像素間相
【參考文獻】:
期刊論文
[1]基于背景差分與幀間差分的目標(biāo)檢測改進算法[J]. 王夢菊,吳小龍,杜海濤. 自動化技術(shù)與應(yīng)用. 2018(10)
[2]一種改進聚合通道特征的行人檢測方法[J]. 韋皓瀚,曹國,尚巖峰,孫權(quán)森,王必勝. 數(shù)據(jù)采集與處理. 2018(03)
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的小樣本圖像識別方法[J]. 段萌,王功鵬,牛常勇. 計算機工程與設(shè)計. 2018(01)
[4]圖像的最近鄰縮放原理及實現(xiàn)[J]. 李艷玲. 長治學(xué)院學(xué)報. 2016(05)
[5]圖像超分辨率重建技術(shù)及研究[J]. 葉兆豐. 電子世界. 2013(09)
[6]基于雙線性插值的圖像縮放算法的研究與實現(xiàn)[J]. 王森,楊克儉. 自動化技術(shù)與應(yīng)用. 2008(07)
[7]行人檢測系統(tǒng)研究新進展及關(guān)鍵技術(shù)展望[J]. 許言午,曹先彬,喬紅. 電子學(xué)報. 2008(05)
[8]基于三次樣條插值的圖像放大的離散算法[J]. 王忠謙,朱寧. 蘇州大學(xué)學(xué)報(自然科學(xué)版). 2005(02)
碩士論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法研究[D]. 黃莉芝.西南交通大學(xué) 2018
[2]基于深度學(xué)習(xí)的說話人識別研究[D]. 陳甜甜.北京郵電大學(xué) 2018
[3]基于深度視感知學(xué)習(xí)的目標(biāo)檢測算法與應(yīng)用研究[D]. 張亞超.蘭州理工大學(xué) 2018
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的交通場景行人檢測[D]. 羅杰.南昌航空大學(xué) 2018
[5]基于深度學(xué)習(xí)的目標(biāo)檢測算法研究[D]. 李明攀.浙江大學(xué) 2018
[6]基于深度學(xué)習(xí)的人臉識別算法研究[D]. 趙學(xué)斌.北京郵電大學(xué) 2018
[7]基于深度卷積神經(jīng)網(wǎng)絡(luò)的表單中手寫簽名位置定位方法[D]. 李雪薇.西安理工大學(xué) 2017
[8]基于卷積神經(jīng)網(wǎng)絡(luò)圖像分類優(yōu)化算法的研究與驗證[D]. 石琪.北京交通大學(xué) 2017
[9]基于深度學(xué)習(xí)的圖像識別與文字推薦系統(tǒng)的設(shè)計與實現(xiàn)[D]. 王雨辰.北京交通大學(xué) 2017
[10]基于深度學(xué)習(xí)的手語識別方法研究[D]. 韓寧江.吉林大學(xué) 2017
本文編號:2932631
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/2932631.html
教材專著