基于深度遷移學(xué)習(xí)的煙霧圖像檢測(cè)
發(fā)布時(shí)間:2020-07-10 17:12
【摘要】:鄉(xiāng)村焚燒秸稈會(huì)產(chǎn)生大量煙霧造成霧霾天氣甚至引發(fā)火災(zāi)。傳統(tǒng)的火災(zāi)檢測(cè)方法并不適用于監(jiān)測(cè)鄉(xiāng)村這種大范圍場(chǎng)景。本文針對(duì)這一問(wèn)題提出一種基于深度學(xué)習(xí)遷移學(xué)習(xí)的煙霧圖像檢測(cè)方法。煙霧作為火災(zāi)早期的明顯特征之一,對(duì)其檢測(cè)識(shí)別可以有效地對(duì)火災(zāi)進(jìn)行預(yù)警,減少生命財(cái)產(chǎn)的損失。隨著計(jì)算機(jī)計(jì)算能力的提升與大數(shù)據(jù)時(shí)代的到來(lái),深度學(xué)習(xí)受到了廣泛關(guān)注,其在各個(gè)智能領(lǐng)域都表現(xiàn)出了良好的效果。深度學(xué)習(xí)方法區(qū)別于傳統(tǒng)框架,它無(wú)需人工設(shè)計(jì)檢測(cè)算子,它能自動(dòng)從數(shù)據(jù)中學(xué)習(xí)特征并經(jīng)過(guò)訓(xùn)練不斷優(yōu)化,適用范圍更廣。神經(jīng)網(wǎng)絡(luò)的訓(xùn)練需要大量的數(shù)據(jù)支持,但是在某些情況下數(shù)據(jù)的收集十分困難,例如收集鄉(xiāng)村的煙霧視頻和圖片。目前網(wǎng)上還沒(méi)有大型的煙霧視頻庫(kù),數(shù)據(jù)量并不能支撐從頭開(kāi)始訓(xùn)練深層神經(jīng)網(wǎng)絡(luò),所以采用遷移學(xué)習(xí)的辦法來(lái)解決煙霧小數(shù)據(jù)集的問(wèn)題。遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)技術(shù),可以將源域模型運(yùn)用到目標(biāo)域中。在深度學(xué)習(xí)圖像處理領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)通常先檢測(cè)圖像的邊緣、形狀,然后才是目標(biāo)的特定特征。實(shí)際上神經(jīng)網(wǎng)絡(luò)的早期層檢測(cè)的圖片特征相差不大,這樣就十分適用于遷移學(xué)習(xí)技術(shù)。所以在計(jì)算機(jī)視覺(jué)領(lǐng)域中遷移學(xué)習(xí)顯得尤為有效。該方法使用TensorFlow框架,引用已在ImageNet大型數(shù)據(jù)集上訓(xùn)練完畢的Inception-v3網(wǎng)絡(luò)模型作為源模型,將其在ImageNet數(shù)據(jù)集中提取到的邊緣、色彩、紋理等特征用于構(gòu)建新的煙霧檢測(cè)模型。利用鄉(xiāng)村場(chǎng)景的監(jiān)控圖像進(jìn)行驗(yàn)證測(cè)試,根據(jù)結(jié)果對(duì)模型進(jìn)行分析調(diào)整。結(jié)果顯示模型檢測(cè)準(zhǔn)確率相比于傳統(tǒng)方法有較大的提升。
【學(xué)位授予單位】:武漢紡織大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:X932;TP391.41;TP18
【圖文】:
池化層(Pooling Layer)是一種向下采樣(Down smapling)的形式,在神經(jīng)網(wǎng)絡(luò)之中也稱之為子采樣層(Sub-smapling Layer)。一般使用最大池化(Maxpooling)將特征區(qū)域中的最大值作為新的抽象區(qū)域的值,減少數(shù)據(jù)空間的大小。參數(shù)數(shù)量和運(yùn)算量也會(huì)減少,減少全連接的數(shù)量和復(fù)雜度,一定程度上可以避免過(guò)擬合。池化的結(jié)果是特征減少,參數(shù)減少,但其主要是為了保持圖像的某種不變性(旋轉(zhuǎn)、平移、伸縮等),常見(jiàn)的池化方法有平均池化(mean-pooling)、最大化池化(max-pooling)和隨機(jī)池化(stochastic-pooling)三種。在圖像特征提取過(guò)程中存在誤差,例如由于領(lǐng)域大小受限造成的估計(jì)值方差增大,這種情況可采用平均池化方法,通過(guò)取平均值的方式減少誤差,其特點(diǎn)是盡可能保留背景的信息。另外一種是卷積層參數(shù)誤差造成估計(jì)均值的偏移,可采用最大池化減小誤差,突出紋理等特征。而隨機(jī)池化的作用介于平均池化與最大池化之間,根據(jù)像素點(diǎn)的數(shù)值來(lái)進(jìn)行概率采樣,以達(dá)到概率隨機(jī)的效果。與最大池化相比,隨機(jī)池化并非一定取最大值,可以看作是一種正則化方式。最大池化的過(guò)程如圖 2.1 所示,最大池化效果如圖 2.2 所示。
圖 2.2 最大池化效果(5)全連接層卷積層得到的每張?zhí)卣鲌D表示輸入信號(hào)的一種特征,而它的層數(shù)越高表示這一特征越抽象,為了綜合底層的各個(gè)卷積層特征,用全連接層(Full Connect Layer)將這些特征結(jié)合到一起,然后用 Softmax 進(jìn)行分類或邏輯回歸分析。(6)輸出層輸出層(Output Layer)的另一項(xiàng)任務(wù)是進(jìn)行反向傳播,一次向后進(jìn)行梯度傳遞,計(jì)算相應(yīng)的損失函數(shù),并重新更新權(quán)重值。在訓(xùn)練過(guò)程中可以采用 Dropout來(lái)避免訓(xùn)練過(guò)程產(chǎn)生過(guò)擬合。輸出層的結(jié)構(gòu)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)相似,是基于上一全連接層的結(jié)果進(jìn)行類別判定。2.3 Imagenet數(shù)據(jù)集ImageNet 數(shù)據(jù)集是一個(gè)大型圖像數(shù)據(jù)集,旨在促進(jìn)計(jì)算機(jī)圖像識(shí)別技術(shù)的發(fā)展。它具有最大數(shù)量的圖像,最高分辨率,并包含更多具有數(shù)千個(gè)圖像類別的類別。
2.4神經(jīng)網(wǎng)絡(luò)架構(gòu)卷積神經(jīng)網(wǎng)絡(luò)發(fā)展至今,大量 CNN 網(wǎng)絡(luò)結(jié)構(gòu)被公開(kāi),如 VGG、GoogLenResnet 等。2.4.1Vgg-16VGG 和 GoogLeNet 這兩個(gè)模型結(jié)構(gòu)有一個(gè)共同特點(diǎn)就是層數(shù)多GoogLenet 不同,VGG 繼承了 LeNet 以及 AlexNet 的一些框架,VGG 也是 5 積、2 層全連接層用于提取圖像特征、一層全連接層用于分類特征。根據(jù)前卷積層組每個(gè)組中的不同配置,卷積層數(shù)從 8~16 遞增,其網(wǎng)絡(luò)結(jié)構(gòu)如圖所示。盡管 VGG 具有比 Alex-net 更多的參數(shù)和更深的級(jí)別,但 VGG 在少量之后已經(jīng)收斂得相當(dāng)好了。這是因?yàn)樯疃群托∵^(guò)濾器大小起著隱含的正則化有些已經(jīng)預(yù)先初始化[25]。
本文編號(hào):2749213
【學(xué)位授予單位】:武漢紡織大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:X932;TP391.41;TP18
【圖文】:
池化層(Pooling Layer)是一種向下采樣(Down smapling)的形式,在神經(jīng)網(wǎng)絡(luò)之中也稱之為子采樣層(Sub-smapling Layer)。一般使用最大池化(Maxpooling)將特征區(qū)域中的最大值作為新的抽象區(qū)域的值,減少數(shù)據(jù)空間的大小。參數(shù)數(shù)量和運(yùn)算量也會(huì)減少,減少全連接的數(shù)量和復(fù)雜度,一定程度上可以避免過(guò)擬合。池化的結(jié)果是特征減少,參數(shù)減少,但其主要是為了保持圖像的某種不變性(旋轉(zhuǎn)、平移、伸縮等),常見(jiàn)的池化方法有平均池化(mean-pooling)、最大化池化(max-pooling)和隨機(jī)池化(stochastic-pooling)三種。在圖像特征提取過(guò)程中存在誤差,例如由于領(lǐng)域大小受限造成的估計(jì)值方差增大,這種情況可采用平均池化方法,通過(guò)取平均值的方式減少誤差,其特點(diǎn)是盡可能保留背景的信息。另外一種是卷積層參數(shù)誤差造成估計(jì)均值的偏移,可采用最大池化減小誤差,突出紋理等特征。而隨機(jī)池化的作用介于平均池化與最大池化之間,根據(jù)像素點(diǎn)的數(shù)值來(lái)進(jìn)行概率采樣,以達(dá)到概率隨機(jī)的效果。與最大池化相比,隨機(jī)池化并非一定取最大值,可以看作是一種正則化方式。最大池化的過(guò)程如圖 2.1 所示,最大池化效果如圖 2.2 所示。
圖 2.2 最大池化效果(5)全連接層卷積層得到的每張?zhí)卣鲌D表示輸入信號(hào)的一種特征,而它的層數(shù)越高表示這一特征越抽象,為了綜合底層的各個(gè)卷積層特征,用全連接層(Full Connect Layer)將這些特征結(jié)合到一起,然后用 Softmax 進(jìn)行分類或邏輯回歸分析。(6)輸出層輸出層(Output Layer)的另一項(xiàng)任務(wù)是進(jìn)行反向傳播,一次向后進(jìn)行梯度傳遞,計(jì)算相應(yīng)的損失函數(shù),并重新更新權(quán)重值。在訓(xùn)練過(guò)程中可以采用 Dropout來(lái)避免訓(xùn)練過(guò)程產(chǎn)生過(guò)擬合。輸出層的結(jié)構(gòu)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)相似,是基于上一全連接層的結(jié)果進(jìn)行類別判定。2.3 Imagenet數(shù)據(jù)集ImageNet 數(shù)據(jù)集是一個(gè)大型圖像數(shù)據(jù)集,旨在促進(jìn)計(jì)算機(jī)圖像識(shí)別技術(shù)的發(fā)展。它具有最大數(shù)量的圖像,最高分辨率,并包含更多具有數(shù)千個(gè)圖像類別的類別。
2.4神經(jīng)網(wǎng)絡(luò)架構(gòu)卷積神經(jīng)網(wǎng)絡(luò)發(fā)展至今,大量 CNN 網(wǎng)絡(luò)結(jié)構(gòu)被公開(kāi),如 VGG、GoogLenResnet 等。2.4.1Vgg-16VGG 和 GoogLeNet 這兩個(gè)模型結(jié)構(gòu)有一個(gè)共同特點(diǎn)就是層數(shù)多GoogLenet 不同,VGG 繼承了 LeNet 以及 AlexNet 的一些框架,VGG 也是 5 積、2 層全連接層用于提取圖像特征、一層全連接層用于分類特征。根據(jù)前卷積層組每個(gè)組中的不同配置,卷積層數(shù)從 8~16 遞增,其網(wǎng)絡(luò)結(jié)構(gòu)如圖所示。盡管 VGG 具有比 Alex-net 更多的參數(shù)和更深的級(jí)別,但 VGG 在少量之后已經(jīng)收斂得相當(dāng)好了。這是因?yàn)樯疃群托∵^(guò)濾器大小起著隱含的正則化有些已經(jīng)預(yù)先初始化[25]。
【參考文獻(xiàn)】
相關(guān)期刊論文 前1條
1 何舟;王慧琴;胡燕;;基于視頻監(jiān)控的煙霧檢測(cè)算法[J];電腦知識(shí)與技術(shù);2013年11期
相關(guān)碩士學(xué)位論文 前5條
1 張文剛;基于深度學(xué)習(xí)的交通預(yù)測(cè)技術(shù)及其在通信中的應(yīng)用研究[D];西南交通大學(xué);2018年
2 蔡曉龍;基于DCGAN算法的圖像生成技術(shù)研究[D];青島理工大學(xué);2018年
3 王小雪;基于FPGA的卷積神經(jīng)網(wǎng)絡(luò)手寫數(shù)字識(shí)別系統(tǒng)的實(shí)現(xiàn)[D];北京理工大學(xué);2016年
4 張潔;煙霧視頻圖像識(shí)別算法的研究[D];天津大學(xué);2016年
5 翟文鵬;早期火災(zāi)煙霧的圖像型探測(cè)技術(shù)的研究[D];天津大學(xué);2009年
本文編號(hào):2749213
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2749213.html
最近更新
教材專著