天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 路橋論文 >

基于卷積神經(jīng)網(wǎng)絡(luò)的隧道行人目標(biāo)檢測(cè)算法研究

發(fā)布時(shí)間:2020-12-22 23:24
  隧道中行人目標(biāo)的快速準(zhǔn)確檢測(cè)對(duì)保障隧道交通安全有著重要作用。相比于傳統(tǒng)的機(jī)器學(xué)習(xí)檢測(cè)算法卷積神經(jīng)網(wǎng)絡(luò)可以自動(dòng)學(xué)習(xí)圖像豐富的特征,具有較強(qiáng)的特征提取能力,基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)算法在檢測(cè)速度和檢測(cè)精度上有明顯優(yōu)勢(shì)。但在隧道環(huán)境中,環(huán)境光照不足,監(jiān)控視頻圖像模糊,噪聲多,行人目標(biāo)在隧道監(jiān)控視頻中目標(biāo)小、像素低,難以發(fā)揮卷積神經(jīng)網(wǎng)絡(luò)特征提取能力強(qiáng)的優(yōu)勢(shì)。因此,研究基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的隧道行人目標(biāo)檢測(cè)具有重要的理論和實(shí)際意義。近幾年,R-CNN(Region-based Convolutional Neural Networks)系列卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)檢測(cè)方面取得了較好的效果。論文以Fast R-CNN和Faster R-CNN檢測(cè)網(wǎng)絡(luò)為基礎(chǔ),針對(duì)Fast R-CNN候選區(qū)域提取時(shí)間過(guò)長(zhǎng)問(wèn)題以及Faster R-CNN在隧道環(huán)境下行人特征提取效果不佳問(wèn)題展開(kāi)研究,提出了一種新的前景提取方法以及超分辨率網(wǎng)絡(luò)與Faster R-CNN級(jí)聯(lián)的行人目標(biāo)檢測(cè)網(wǎng)絡(luò),并對(duì)Faster R-CNN中的RPN(Region proposal network)網(wǎng)絡(luò)和NMS(Non-maximum suppr... 

【文章來(lái)源】:重慶大學(xué)重慶市 211工程院校 985工程院校 教育部直屬院校

【文章頁(yè)數(shù)】:76 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于卷積神經(jīng)網(wǎng)絡(luò)的隧道行人目標(biāo)檢測(cè)算法研究


深度學(xué)習(xí)分類Fig.1.1Classificationofdeeplearning

示意圖,示意圖,卷積,特征圖


重慶大學(xué)碩士學(xué)位論文8圖2.1CNN結(jié)構(gòu)示意圖[26]Fig.2.1StructurediagramofCNN[26]①卷積層卷積的概念最早起源于信號(hào)與系統(tǒng),泛函分析中,卷積是通過(guò)兩個(gè)函數(shù)f和g生成第三個(gè)函數(shù)的一種數(shù)學(xué)算子,是其中一個(gè)函數(shù)變換后與另一個(gè)函數(shù)的乘積的積分。函數(shù)f與g的卷積可以定義為:z(t)f(t)g(t)=f(m)g(tm)dm(2.1)卷積層的參數(shù)即是一系列帶有可學(xué)習(xí)參數(shù)的濾波器,對(duì)輸入圖像進(jìn)行卷積操作的本質(zhì)就是對(duì)圖像進(jìn)行濾波處理。下圖2.2所示即在一個(gè)尺寸為5x5的圖像上用3x3的卷積核以滑動(dòng)步長(zhǎng)為1進(jìn)行卷積計(jì)算的過(guò)程。圖2.2卷積計(jì)算過(guò)程示意圖Fig.2.2Diagramofconvolutioncalculationprocess輸入圖像通過(guò)卷積層進(jìn)行卷積操作,再輸入一個(gè)激活函數(shù)得到輸出特征圖,該過(guò)程如公式2.2所示:1(*W)jlllljiijjiMXfXb(2.2)ljX表示第l層的第j個(gè)特征圖,l1iX表示l1層的所有特征圖,lijK表示第l層的第j個(gè)卷積核,ljb表示偏置,f()表示轉(zhuǎn)換函數(shù)。卷積層具有局部感知和權(quán)值共享的特性。局部感知指的是卷積層的每個(gè)神經(jīng)元只對(duì)圖像的局部進(jìn)行感知,圖像中相鄰像素間關(guān)系緊密,距離越遠(yuǎn)的像素間相

示意圖,卷積,過(guò)程,示意圖


重慶大學(xué)碩士學(xué)位論文8圖2.1CNN結(jié)構(gòu)示意圖[26]Fig.2.1StructurediagramofCNN[26]①卷積層卷積的概念最早起源于信號(hào)與系統(tǒng),泛函分析中,卷積是通過(guò)兩個(gè)函數(shù)f和g生成第三個(gè)函數(shù)的一種數(shù)學(xué)算子,是其中一個(gè)函數(shù)變換后與另一個(gè)函數(shù)的乘積的積分。函數(shù)f與g的卷積可以定義為:z(t)f(t)g(t)=f(m)g(tm)dm(2.1)卷積層的參數(shù)即是一系列帶有可學(xué)習(xí)參數(shù)的濾波器,對(duì)輸入圖像進(jìn)行卷積操作的本質(zhì)就是對(duì)圖像進(jìn)行濾波處理。下圖2.2所示即在一個(gè)尺寸為5x5的圖像上用3x3的卷積核以滑動(dòng)步長(zhǎng)為1進(jìn)行卷積計(jì)算的過(guò)程。圖2.2卷積計(jì)算過(guò)程示意圖Fig.2.2Diagramofconvolutioncalculationprocess輸入圖像通過(guò)卷積層進(jìn)行卷積操作,再輸入一個(gè)激活函數(shù)得到輸出特征圖,該過(guò)程如公式2.2所示:1(*W)jlllljiijjiMXfXb(2.2)ljX表示第l層的第j個(gè)特征圖,l1iX表示l1層的所有特征圖,lijK表示第l層的第j個(gè)卷積核,ljb表示偏置,f()表示轉(zhuǎn)換函數(shù)。卷積層具有局部感知和權(quán)值共享的特性。局部感知指的是卷積層的每個(gè)神經(jīng)元只對(duì)圖像的局部進(jìn)行感知,圖像中相鄰像素間關(guān)系緊密,距離越遠(yuǎn)的像素間相

【參考文獻(xiàn)】:
期刊論文
[1]基于背景差分與幀間差分的目標(biāo)檢測(cè)改進(jìn)算法[J]. 王夢(mèng)菊,吳小龍,杜海濤.  自動(dòng)化技術(shù)與應(yīng)用. 2018(10)
[2]一種改進(jìn)聚合通道特征的行人檢測(cè)方法[J]. 韋皓瀚,曹國(guó),尚巖峰,孫權(quán)森,王必勝.  數(shù)據(jù)采集與處理. 2018(03)
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的小樣本圖像識(shí)別方法[J]. 段萌,王功鵬,牛常勇.  計(jì)算機(jī)工程與設(shè)計(jì). 2018(01)
[4]圖像的最近鄰縮放原理及實(shí)現(xiàn)[J]. 李艷玲.  長(zhǎng)治學(xué)院學(xué)報(bào). 2016(05)
[5]圖像超分辨率重建技術(shù)及研究[J]. 葉兆豐.  電子世界. 2013(09)
[6]基于雙線性插值的圖像縮放算法的研究與實(shí)現(xiàn)[J]. 王森,楊克儉.  自動(dòng)化技術(shù)與應(yīng)用. 2008(07)
[7]行人檢測(cè)系統(tǒng)研究新進(jìn)展及關(guān)鍵技術(shù)展望[J]. 許言午,曹先彬,喬紅.  電子學(xué)報(bào). 2008(05)
[8]基于三次樣條插值的圖像放大的離散算法[J]. 王忠謙,朱寧.  蘇州大學(xué)學(xué)報(bào)(自然科學(xué)版). 2005(02)

碩士論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法研究[D]. 黃莉芝.西南交通大學(xué) 2018
[2]基于深度學(xué)習(xí)的說(shuō)話人識(shí)別研究[D]. 陳甜甜.北京郵電大學(xué) 2018
[3]基于深度視感知學(xué)習(xí)的目標(biāo)檢測(cè)算法與應(yīng)用研究[D]. 張亞超.蘭州理工大學(xué) 2018
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的交通場(chǎng)景行人檢測(cè)[D]. 羅杰.南昌航空大學(xué) 2018
[5]基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法研究[D]. 李明攀.浙江大學(xué) 2018
[6]基于深度學(xué)習(xí)的人臉識(shí)別算法研究[D]. 趙學(xué)斌.北京郵電大學(xué) 2018
[7]基于深度卷積神經(jīng)網(wǎng)絡(luò)的表單中手寫(xiě)簽名位置定位方法[D]. 李雪薇.西安理工大學(xué) 2017
[8]基于卷積神經(jīng)網(wǎng)絡(luò)圖像分類優(yōu)化算法的研究與驗(yàn)證[D]. 石琪.北京交通大學(xué) 2017
[9]基于深度學(xué)習(xí)的圖像識(shí)別與文字推薦系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 王雨辰.北京交通大學(xué) 2017
[10]基于深度學(xué)習(xí)的手語(yǔ)識(shí)別方法研究[D]. 韓寧江.吉林大學(xué) 2017



本文編號(hào):2932631

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/2932631.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶fb1bf***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com