基于混合卷積神經(jīng)網(wǎng)絡(luò)的火災(zāi)識別研究
發(fā)布時(shí)間:2021-06-24 12:13
圖像識別是實(shí)現(xiàn)火災(zāi)預(yù)警的重要手段之一。針對傳統(tǒng)方法存在的檢測精度低、難以識別小目標(biāo)等問題,提出了一種基于混合卷積神經(jīng)網(wǎng)絡(luò)(CNN)的火災(zāi)識別方法。為了豐富模型提取的特征信息,充分利用不同尺度下的特征,文中提出的混合網(wǎng)絡(luò)結(jié)構(gòu)(HybridNet)包含兩路特征提取器。首先,通過其中一路特征提取器提取圖像中的深層語義信息,另一路特征提取器提取圖像的淺層上下文信息,通過池化操作使兩路特征提取器提取的特征圖大小得以匹配。為了進(jìn)一步實(shí)現(xiàn)特征之間的融合,提高模型的小目標(biāo)識別性能,通過自編碼器對特征進(jìn)行降維處理,剔除冗余信息保留關(guān)鍵特征,實(shí)現(xiàn)多尺度特征的融合。最后,融合特征經(jīng)過分類器得到分類結(jié)果。實(shí)驗(yàn)結(jié)果表明,提出的混合CNN優(yōu)于現(xiàn)有的識別方法,在FireDetectData和Mivia數(shù)據(jù)集上分別取得了96.82%和97.96%的準(zhǔn)確率。
【文章來源】:計(jì)算機(jī)技術(shù)與發(fā)展. 2020,30(07)
【文章頁數(shù)】:6 頁
【部分圖文】:
含三層網(wǎng)絡(luò)的自編碼器
如圖2所示,隨著卷積層數(shù)的加深,輸出特征圖的全局信息被加強(qiáng),而局部信息被逐漸弱化。不同于ImageNet等標(biāo)準(zhǔn)化的圖像識別數(shù)據(jù)集,不論是一些公開的火災(zāi)識別數(shù)據(jù)集的圖片,還是實(shí)際火災(zāi)監(jiān)控應(yīng)用場景下拍攝的圖片,火焰或煙霧并不一定是畫面中的主體。因此僅僅通過加深網(wǎng)絡(luò)層數(shù)來提高網(wǎng)絡(luò)的全局特征提取能力是不夠的。3 火災(zāi)識別模型架構(gòu)
為了使兩路特征提取器輸出的特征實(shí)現(xiàn)融合,首先對FDN B得到的淺層特征進(jìn)行最大池化(Maxpool)操作,在保留局部特征的情況下使淺層特征圖的大小與深層特征得以匹配,再通過Concat操作初步融合兩路特征,其中所述Concat操作可以將多組特征圖按某一指定維度拼接從而融合成一組特征圖。圖3顯示了一張大小為224×224的圖片,在進(jìn)入混合模型提取特征后初步融合的過程。初步融合后的特征圖,通過自編碼器去除冗余信息,實(shí)現(xiàn)進(jìn)一步融合。如圖4所示,2 336×7×7的特征圖經(jīng)過全局平均池化(GAP)后,再置入編碼器進(jìn)行特征降維,剔除冗余信息保留關(guān)鍵特征。
【參考文獻(xiàn)】:
期刊論文
[1]基于并行深度殘差網(wǎng)絡(luò)的堆場煙霧檢測方法[J]. 王正來,黃敏,朱啟兵,蔣勝. 激光與光電子學(xué)進(jìn)展. 2018(05)
[2]雙流序列回歸深度網(wǎng)絡(luò)的視頻火災(zāi)檢測方法[J]. 孔亞奇,郎叢妍,馮松鶴,王濤,殷夢霞. 中國科技論文. 2017(14)
[3]基于棧式自編碼器特征融合的SAR圖像車輛目標(biāo)識別[J]. 康妙,計(jì)科峰,冷祥光,邢相薇,鄒煥新. 雷達(dá)學(xué)報(bào). 2017(02)
[4]基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的視頻動態(tài)煙霧檢測[J]. 陳俊周,汪子杰,陳洪瀚,左林翼. 電子科技大學(xué)學(xué)報(bào). 2016(06)
[5]深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺中的應(yīng)用研究綜述[J]. 盧宏濤,張秦川. 數(shù)據(jù)采集與處理. 2016(01)
本文編號:3247076
【文章來源】:計(jì)算機(jī)技術(shù)與發(fā)展. 2020,30(07)
【文章頁數(shù)】:6 頁
【部分圖文】:
含三層網(wǎng)絡(luò)的自編碼器
如圖2所示,隨著卷積層數(shù)的加深,輸出特征圖的全局信息被加強(qiáng),而局部信息被逐漸弱化。不同于ImageNet等標(biāo)準(zhǔn)化的圖像識別數(shù)據(jù)集,不論是一些公開的火災(zāi)識別數(shù)據(jù)集的圖片,還是實(shí)際火災(zāi)監(jiān)控應(yīng)用場景下拍攝的圖片,火焰或煙霧并不一定是畫面中的主體。因此僅僅通過加深網(wǎng)絡(luò)層數(shù)來提高網(wǎng)絡(luò)的全局特征提取能力是不夠的。3 火災(zāi)識別模型架構(gòu)
為了使兩路特征提取器輸出的特征實(shí)現(xiàn)融合,首先對FDN B得到的淺層特征進(jìn)行最大池化(Maxpool)操作,在保留局部特征的情況下使淺層特征圖的大小與深層特征得以匹配,再通過Concat操作初步融合兩路特征,其中所述Concat操作可以將多組特征圖按某一指定維度拼接從而融合成一組特征圖。圖3顯示了一張大小為224×224的圖片,在進(jìn)入混合模型提取特征后初步融合的過程。初步融合后的特征圖,通過自編碼器去除冗余信息,實(shí)現(xiàn)進(jìn)一步融合。如圖4所示,2 336×7×7的特征圖經(jīng)過全局平均池化(GAP)后,再置入編碼器進(jìn)行特征降維,剔除冗余信息保留關(guān)鍵特征。
【參考文獻(xiàn)】:
期刊論文
[1]基于并行深度殘差網(wǎng)絡(luò)的堆場煙霧檢測方法[J]. 王正來,黃敏,朱啟兵,蔣勝. 激光與光電子學(xué)進(jìn)展. 2018(05)
[2]雙流序列回歸深度網(wǎng)絡(luò)的視頻火災(zāi)檢測方法[J]. 孔亞奇,郎叢妍,馮松鶴,王濤,殷夢霞. 中國科技論文. 2017(14)
[3]基于棧式自編碼器特征融合的SAR圖像車輛目標(biāo)識別[J]. 康妙,計(jì)科峰,冷祥光,邢相薇,鄒煥新. 雷達(dá)學(xué)報(bào). 2017(02)
[4]基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的視頻動態(tài)煙霧檢測[J]. 陳俊周,汪子杰,陳洪瀚,左林翼. 電子科技大學(xué)學(xué)報(bào). 2016(06)
[5]深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺中的應(yīng)用研究綜述[J]. 盧宏濤,張秦川. 數(shù)據(jù)采集與處理. 2016(01)
本文編號:3247076
本文鏈接:http://sikaile.net/kejilunwen/anquangongcheng/3247076.html
最近更新
教材專著