天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于深度學(xué)習(xí)的火災(zāi)視頻實(shí)時(shí)智能檢測(cè)研究

發(fā)布時(shí)間:2021-10-25 23:49
  火災(zāi)作為一種發(fā)生頻率較高的多發(fā)性災(zāi)害,蔓延速度快,破壞性強(qiáng)。隨著視頻監(jiān)控的大量普及,基于圖像視頻的火災(zāi)自動(dòng)檢測(cè)與預(yù)警則十分有研究意義和使用價(jià)值。傳統(tǒng)火焰檢測(cè)通常是根據(jù)先驗(yàn)知識(shí)設(shè)計(jì)特征提取算法,人工提取火焰動(dòng)態(tài)或靜態(tài)特征,然后進(jìn)行火焰識(shí)別。此類基于計(jì)算機(jī)視覺(jué)的傳統(tǒng)火焰檢測(cè)方法,其根據(jù)先驗(yàn)知識(shí)設(shè)計(jì)人工特征提取算法比較困難和耗時(shí),在面對(duì)不同的復(fù)雜環(huán)境和多變的火焰類型時(shí),其泛化能力往往不足。近年來(lái)隨著基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)快速發(fā)展,利用卷積神經(jīng)網(wǎng)絡(luò)能夠自動(dòng)學(xué)習(xí)和獲取圖像特征,目標(biāo)檢測(cè)技術(shù)有了很大的發(fā)展革新。針對(duì)復(fù)雜環(huán)境下的火災(zāi)視頻檢測(cè)問(wèn)題,本文提出一種結(jié)合注意力機(jī)制的RetinaNet火焰圖像檢測(cè)算法。RetinaNet在殘差網(wǎng)絡(luò)之上使用特征金字塔網(wǎng)絡(luò)作為骨干網(wǎng)計(jì)算和生成豐富的卷積特征金字塔,然后通過(guò)分類子網(wǎng)絡(luò)和邊框預(yù)測(cè)子網(wǎng)絡(luò)分別對(duì)骨干網(wǎng)的輸出進(jìn)行分類和回歸。注意力機(jī)制則使網(wǎng)絡(luò)更有效定位到感興趣的信息,提升網(wǎng)絡(luò)模型的特征表達(dá)能力。改進(jìn)算法比原RetinaNet算法的火焰檢測(cè)率提高了4.5個(gè)百分點(diǎn),實(shí)現(xiàn)了實(shí)時(shí)的端到端火焰識(shí)別與定位,對(duì)復(fù)雜目標(biāo)背景下的小火點(diǎn)檢測(cè)也保持較高的檢測(cè)準(zhǔn)確率。針對(duì)火災(zāi)視... 

【文章來(lái)源】:海南大學(xué)海南省 211工程院校

【文章頁(yè)數(shù)】:65 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的火災(zāi)視頻實(shí)時(shí)智能檢測(cè)研究


卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

示意圖,卷積,示意圖,卷積核


使用的卷積核的個(gè)數(shù)。卷積操作是一個(gè)加權(quán)求和的過(guò)程,利用卷積核在輸入圖片上以一定的步長(zhǎng)(Stride)滑動(dòng),每次滑動(dòng)均計(jì)算卷積核與該輸入?yún)^(qū)域的對(duì)應(yīng)元素的點(diǎn)積,該點(diǎn)積作為特征圖上的一個(gè)像素點(diǎn),直到滑動(dòng)覆蓋整個(gè)輸入圖片,生成特征圖。卷積神經(jīng)網(wǎng)絡(luò)每一層輸出的特征圖上的像素點(diǎn)在輸入圖像上映射的區(qū)域大小叫做感受野,步長(zhǎng)越大,生成的特征映射越校感受野越大,其對(duì)應(yīng)的原始輸入圖像范圍就越大,這也表示神經(jīng)元可能學(xué)到更加全局,更高語(yǔ)義層次的特征;相反,感受野越小則表示可能學(xué)到更加局部和細(xì)節(jié)的特征。一個(gè)卷積操作如圖2所示,用3×3的卷積核在5×5的輸入上以1的步長(zhǎng)滑動(dòng),每次卷積計(jì)算輸入與卷積核對(duì)應(yīng)位置像素值的點(diǎn)積,9次滑動(dòng)可以覆蓋全部輸入,最終得到3×3的特征圖。圖2卷積操作示意圖Fig.2DiagramofConvolutionoperation卷積核的計(jì)算結(jié)果還需要通過(guò)激活函數(shù)確定圖像給定位置是否存在特征。卷積方式對(duì)像素點(diǎn)賦予權(quán)值的操作是線性的,而線性模型表達(dá)能力不夠強(qiáng),通過(guò)激活函數(shù)可以引入非線性因素,彌補(bǔ)了線性模型的缺點(diǎn)。激活函數(shù)通常應(yīng)該具有以下幾個(gè)性質(zhì):非線性,線性激活層對(duì)于深層神經(jīng)網(wǎng)絡(luò)幾乎沒(méi)有作用,因?yàn)榫性激活仍是對(duì)輸入的各種線性變換;連續(xù)可微性,這是神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)所使用的梯度下降算法的要求;范圍非飽和性,若存在飽和區(qū)間,當(dāng)系統(tǒng)優(yōu)化進(jìn)入到該區(qū)間時(shí),梯度近似為0,參數(shù)無(wú)法繼續(xù)更新,導(dǎo)致網(wǎng)絡(luò)的學(xué)習(xí)停止;單調(diào)性,當(dāng)激活函數(shù)是單調(diào)時(shí),單層神經(jīng)網(wǎng)絡(luò)可以保證是凸函數(shù),使分布規(guī)律不發(fā)生大的改變,這樣網(wǎng)絡(luò)會(huì)相對(duì)好優(yōu)化;在原點(diǎn)處是近似

函數(shù)圖像,函數(shù)


海南大學(xué)碩士學(xué)位論文7線性的,當(dāng)網(wǎng)絡(luò)權(quán)值隨機(jī)初始化為接近0的隨機(jī)值時(shí),網(wǎng)絡(luò)相對(duì)學(xué)習(xí)的更快,而不用手動(dòng)調(diào)節(jié)網(wǎng)絡(luò)的初始值,減少超參數(shù)的設(shè)置。常用的激活函數(shù)有Sigmoid函數(shù),ReLU函數(shù)及其變種。①Sigmoid函數(shù)的表達(dá)式如下:()=11+(2-1)函數(shù)圖像如圖3所示。Sigmoid函數(shù)可以將輸出映射在(0,1)內(nèi),單調(diào)連續(xù),易于求導(dǎo),適合用作輸出層。但是Sigmoid函數(shù)也因?yàn)槠滠涳柡托裕诟履P蛥?shù)時(shí)采用鏈?zhǔn)角髮?dǎo)法則反向求導(dǎo),容易導(dǎo)致梯度消失。圖3Sigmoid函數(shù)Fig.3SigmoidFunction②ReLU函數(shù)的表達(dá)式如下:()=max(0,)(2-2)函數(shù)圖像如圖4所示。ReLU函數(shù)在x<0時(shí)值為0,屬于硬飽和,在x>0時(shí)導(dǎo)數(shù)值為1,因此ReLU函數(shù)在x>0時(shí)可以保持梯度不衰減,這有效緩解了梯度消失問(wèn)題,還能夠更好地收斂,并提供了神經(jīng)網(wǎng)絡(luò)的稀疏表達(dá)能力。但是,隨著訓(xùn)練的持續(xù)進(jìn)行,會(huì)有部分輸入進(jìn)入硬飽和區(qū)導(dǎo)致相應(yīng)的權(quán)重?zé)o法更新,即“神經(jīng)元死亡”,因此需要對(duì)學(xué)習(xí)率進(jìn)行一個(gè)好的設(shè)置。ReLU函數(shù)是目前卷積神經(jīng)網(wǎng)絡(luò)中最受歡迎的激活函數(shù)。圖4ReLU函數(shù)Fig.4ReLUFunction


本文編號(hào):3458404

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3458404.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶d61dd***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com