基于深度學(xué)習(xí)的火災(zāi)視頻實(shí)時智能檢測研究
發(fā)布時間:2021-10-25 23:49
火災(zāi)作為一種發(fā)生頻率較高的多發(fā)性災(zāi)害,蔓延速度快,破壞性強(qiáng)。隨著視頻監(jiān)控的大量普及,基于圖像視頻的火災(zāi)自動檢測與預(yù)警則十分有研究意義和使用價值。傳統(tǒng)火焰檢測通常是根據(jù)先驗(yàn)知識設(shè)計(jì)特征提取算法,人工提取火焰動態(tài)或靜態(tài)特征,然后進(jìn)行火焰識別。此類基于計(jì)算機(jī)視覺的傳統(tǒng)火焰檢測方法,其根據(jù)先驗(yàn)知識設(shè)計(jì)人工特征提取算法比較困難和耗時,在面對不同的復(fù)雜環(huán)境和多變的火焰類型時,其泛化能力往往不足。近年來隨著基于深度學(xué)習(xí)的計(jì)算機(jī)視覺快速發(fā)展,利用卷積神經(jīng)網(wǎng)絡(luò)能夠自動學(xué)習(xí)和獲取圖像特征,目標(biāo)檢測技術(shù)有了很大的發(fā)展革新。針對復(fù)雜環(huán)境下的火災(zāi)視頻檢測問題,本文提出一種結(jié)合注意力機(jī)制的RetinaNet火焰圖像檢測算法。RetinaNet在殘差網(wǎng)絡(luò)之上使用特征金字塔網(wǎng)絡(luò)作為骨干網(wǎng)計(jì)算和生成豐富的卷積特征金字塔,然后通過分類子網(wǎng)絡(luò)和邊框預(yù)測子網(wǎng)絡(luò)分別對骨干網(wǎng)的輸出進(jìn)行分類和回歸。注意力機(jī)制則使網(wǎng)絡(luò)更有效定位到感興趣的信息,提升網(wǎng)絡(luò)模型的特征表達(dá)能力。改進(jìn)算法比原RetinaNet算法的火焰檢測率提高了4.5個百分點(diǎn),實(shí)現(xiàn)了實(shí)時的端到端火焰識別與定位,對復(fù)雜目標(biāo)背景下的小火點(diǎn)檢測也保持較高的檢測準(zhǔn)確率。針對火災(zāi)視...
【文章來源】:海南大學(xué)海南省 211工程院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
使用的卷積核的個數(shù)。卷積操作是一個加權(quán)求和的過程,利用卷積核在輸入圖片上以一定的步長(Stride)滑動,每次滑動均計(jì)算卷積核與該輸入?yún)^(qū)域的對應(yīng)元素的點(diǎn)積,該點(diǎn)積作為特征圖上的一個像素點(diǎn),直到滑動覆蓋整個輸入圖片,生成特征圖。卷積神經(jīng)網(wǎng)絡(luò)每一層輸出的特征圖上的像素點(diǎn)在輸入圖像上映射的區(qū)域大小叫做感受野,步長越大,生成的特征映射越校感受野越大,其對應(yīng)的原始輸入圖像范圍就越大,這也表示神經(jīng)元可能學(xué)到更加全局,更高語義層次的特征;相反,感受野越小則表示可能學(xué)到更加局部和細(xì)節(jié)的特征。一個卷積操作如圖2所示,用3×3的卷積核在5×5的輸入上以1的步長滑動,每次卷積計(jì)算輸入與卷積核對應(yīng)位置像素值的點(diǎn)積,9次滑動可以覆蓋全部輸入,最終得到3×3的特征圖。圖2卷積操作示意圖Fig.2DiagramofConvolutionoperation卷積核的計(jì)算結(jié)果還需要通過激活函數(shù)確定圖像給定位置是否存在特征。卷積方式對像素點(diǎn)賦予權(quán)值的操作是線性的,而線性模型表達(dá)能力不夠強(qiáng),通過激活函數(shù)可以引入非線性因素,彌補(bǔ)了線性模型的缺點(diǎn)。激活函數(shù)通常應(yīng)該具有以下幾個性質(zhì):非線性,線性激活層對于深層神經(jīng)網(wǎng)絡(luò)幾乎沒有作用,因?yàn)榫性激活仍是對輸入的各種線性變換;連續(xù)可微性,這是神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)所使用的梯度下降算法的要求;范圍非飽和性,若存在飽和區(qū)間,當(dāng)系統(tǒng)優(yōu)化進(jìn)入到該區(qū)間時,梯度近似為0,參數(shù)無法繼續(xù)更新,導(dǎo)致網(wǎng)絡(luò)的學(xué)習(xí)停止;單調(diào)性,當(dāng)激活函數(shù)是單調(diào)時,單層神經(jīng)網(wǎng)絡(luò)可以保證是凸函數(shù),使分布規(guī)律不發(fā)生大的改變,這樣網(wǎng)絡(luò)會相對好優(yōu)化;在原點(diǎn)處是近似
海南大學(xué)碩士學(xué)位論文7線性的,當(dāng)網(wǎng)絡(luò)權(quán)值隨機(jī)初始化為接近0的隨機(jī)值時,網(wǎng)絡(luò)相對學(xué)習(xí)的更快,而不用手動調(diào)節(jié)網(wǎng)絡(luò)的初始值,減少超參數(shù)的設(shè)置。常用的激活函數(shù)有Sigmoid函數(shù),ReLU函數(shù)及其變種。①Sigmoid函數(shù)的表達(dá)式如下:()=11+(2-1)函數(shù)圖像如圖3所示。Sigmoid函數(shù)可以將輸出映射在(0,1)內(nèi),單調(diào)連續(xù),易于求導(dǎo),適合用作輸出層。但是Sigmoid函數(shù)也因?yàn)槠滠涳柡托,在更新模型參?shù)時采用鏈?zhǔn)角髮?dǎo)法則反向求導(dǎo),容易導(dǎo)致梯度消失。圖3Sigmoid函數(shù)Fig.3SigmoidFunction②ReLU函數(shù)的表達(dá)式如下:()=max(0,)(2-2)函數(shù)圖像如圖4所示。ReLU函數(shù)在x<0時值為0,屬于硬飽和,在x>0時導(dǎo)數(shù)值為1,因此ReLU函數(shù)在x>0時可以保持梯度不衰減,這有效緩解了梯度消失問題,還能夠更好地收斂,并提供了神經(jīng)網(wǎng)絡(luò)的稀疏表達(dá)能力。但是,隨著訓(xùn)練的持續(xù)進(jìn)行,會有部分輸入進(jìn)入硬飽和區(qū)導(dǎo)致相應(yīng)的權(quán)重?zé)o法更新,即“神經(jīng)元死亡”,因此需要對學(xué)習(xí)率進(jìn)行一個好的設(shè)置。ReLU函數(shù)是目前卷積神經(jīng)網(wǎng)絡(luò)中最受歡迎的激活函數(shù)。圖4ReLU函數(shù)Fig.4ReLUFunction
本文編號:3458404
【文章來源】:海南大學(xué)海南省 211工程院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
使用的卷積核的個數(shù)。卷積操作是一個加權(quán)求和的過程,利用卷積核在輸入圖片上以一定的步長(Stride)滑動,每次滑動均計(jì)算卷積核與該輸入?yún)^(qū)域的對應(yīng)元素的點(diǎn)積,該點(diǎn)積作為特征圖上的一個像素點(diǎn),直到滑動覆蓋整個輸入圖片,生成特征圖。卷積神經(jīng)網(wǎng)絡(luò)每一層輸出的特征圖上的像素點(diǎn)在輸入圖像上映射的區(qū)域大小叫做感受野,步長越大,生成的特征映射越校感受野越大,其對應(yīng)的原始輸入圖像范圍就越大,這也表示神經(jīng)元可能學(xué)到更加全局,更高語義層次的特征;相反,感受野越小則表示可能學(xué)到更加局部和細(xì)節(jié)的特征。一個卷積操作如圖2所示,用3×3的卷積核在5×5的輸入上以1的步長滑動,每次卷積計(jì)算輸入與卷積核對應(yīng)位置像素值的點(diǎn)積,9次滑動可以覆蓋全部輸入,最終得到3×3的特征圖。圖2卷積操作示意圖Fig.2DiagramofConvolutionoperation卷積核的計(jì)算結(jié)果還需要通過激活函數(shù)確定圖像給定位置是否存在特征。卷積方式對像素點(diǎn)賦予權(quán)值的操作是線性的,而線性模型表達(dá)能力不夠強(qiáng),通過激活函數(shù)可以引入非線性因素,彌補(bǔ)了線性模型的缺點(diǎn)。激活函數(shù)通常應(yīng)該具有以下幾個性質(zhì):非線性,線性激活層對于深層神經(jīng)網(wǎng)絡(luò)幾乎沒有作用,因?yàn)榫性激活仍是對輸入的各種線性變換;連續(xù)可微性,這是神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)所使用的梯度下降算法的要求;范圍非飽和性,若存在飽和區(qū)間,當(dāng)系統(tǒng)優(yōu)化進(jìn)入到該區(qū)間時,梯度近似為0,參數(shù)無法繼續(xù)更新,導(dǎo)致網(wǎng)絡(luò)的學(xué)習(xí)停止;單調(diào)性,當(dāng)激活函數(shù)是單調(diào)時,單層神經(jīng)網(wǎng)絡(luò)可以保證是凸函數(shù),使分布規(guī)律不發(fā)生大的改變,這樣網(wǎng)絡(luò)會相對好優(yōu)化;在原點(diǎn)處是近似
海南大學(xué)碩士學(xué)位論文7線性的,當(dāng)網(wǎng)絡(luò)權(quán)值隨機(jī)初始化為接近0的隨機(jī)值時,網(wǎng)絡(luò)相對學(xué)習(xí)的更快,而不用手動調(diào)節(jié)網(wǎng)絡(luò)的初始值,減少超參數(shù)的設(shè)置。常用的激活函數(shù)有Sigmoid函數(shù),ReLU函數(shù)及其變種。①Sigmoid函數(shù)的表達(dá)式如下:()=11+(2-1)函數(shù)圖像如圖3所示。Sigmoid函數(shù)可以將輸出映射在(0,1)內(nèi),單調(diào)連續(xù),易于求導(dǎo),適合用作輸出層。但是Sigmoid函數(shù)也因?yàn)槠滠涳柡托,在更新模型參?shù)時采用鏈?zhǔn)角髮?dǎo)法則反向求導(dǎo),容易導(dǎo)致梯度消失。圖3Sigmoid函數(shù)Fig.3SigmoidFunction②ReLU函數(shù)的表達(dá)式如下:()=max(0,)(2-2)函數(shù)圖像如圖4所示。ReLU函數(shù)在x<0時值為0,屬于硬飽和,在x>0時導(dǎo)數(shù)值為1,因此ReLU函數(shù)在x>0時可以保持梯度不衰減,這有效緩解了梯度消失問題,還能夠更好地收斂,并提供了神經(jīng)網(wǎng)絡(luò)的稀疏表達(dá)能力。但是,隨著訓(xùn)練的持續(xù)進(jìn)行,會有部分輸入進(jìn)入硬飽和區(qū)導(dǎo)致相應(yīng)的權(quán)重?zé)o法更新,即“神經(jīng)元死亡”,因此需要對學(xué)習(xí)率進(jìn)行一個好的設(shè)置。ReLU函數(shù)是目前卷積神經(jīng)網(wǎng)絡(luò)中最受歡迎的激活函數(shù)。圖4ReLU函數(shù)Fig.4ReLUFunction
本文編號:3458404
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3458404.html
最近更新
教材專著