一種基于卷積神經(jīng)網(wǎng)絡(luò)的入侵檢測方法
發(fā)布時(shí)間:2021-07-29 13:45
在網(wǎng)絡(luò)流量較大及復(fù)雜入侵環(huán)境下,傳統(tǒng)入侵檢測系統(tǒng)檢測能力弱且精度低。針對此問題,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的檢測方法CNN-Focal。利用卷積神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)進(jìn)行特征提取,使用Softmax回歸進(jìn)行多分類,并采用Focal loss損失函數(shù)解決NSL-KDD數(shù)據(jù)集不平衡的問題。實(shí)驗(yàn)結(jié)果表明,CNN-Focal的精度與F1評分分別達(dá)到79.25%和76.9%,與其他機(jī)器學(xué)習(xí)算法相比,其精度和F1評分有顯著提高。
【文章來源】:計(jì)算機(jī)應(yīng)用與軟件. 2020,37(10)北大核心
【文章頁數(shù)】:6 頁
【部分圖文】:
卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)
入侵檢測問題是一個(gè)分類問題,可以通過有監(jiān)督學(xué)習(xí)訓(xùn)練出分類模型,然后使用訓(xùn)練的模型對未知數(shù)據(jù)進(jìn)行預(yù)測。在使用卷積神經(jīng)網(wǎng)絡(luò)時(shí),輸入層輸入數(shù)據(jù)通常是二維的,入侵記錄是一維數(shù)據(jù),因此在卷積操作選擇方面,本文采取一維卷積方法對入侵記錄數(shù)據(jù)進(jìn)行卷積操作。根據(jù)NSL-KDD標(biāo)簽不平衡和模型實(shí)際分類性能等情況,本文設(shè)計(jì)了CNN-Focal模型,其結(jié)構(gòu)如圖2所示。CNN-Focal模型共有10層,1個(gè)輸入層、3個(gè)卷積層、3個(gè)Dropout層、1個(gè)Max-pooling層、1個(gè)全連接層和1個(gè)Softmax層。該模型具體描述如下:
本文采用的入侵檢測數(shù)據(jù)集的標(biāo)簽分布是不平衡的,數(shù)據(jù)集標(biāo)簽統(tǒng)計(jì)如圖3所示。Focal Loss函數(shù)適用于不平衡數(shù)據(jù)集,因此本文采用Focal Loss作為模型的損失函數(shù)。與其他損失函數(shù)相比,Focal Loss損失函數(shù)修正了正負(fù)樣本、難分和易分樣本對損失的貢獻(xiàn)量。3) Adam優(yōu)化算法。
【參考文獻(xiàn)】:
期刊論文
[1]改進(jìn)Softmax分類器的深度卷積神經(jīng)網(wǎng)絡(luò)及其在人臉識(shí)別中的應(yīng)用[J]. 冉鵬,王靈,李昕,劉鵬偉. 上海大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(03)
[2]深度學(xué)習(xí)相關(guān)研究綜述[J]. 張軍陽,王慧麗,郭陽,扈嘯. 計(jì)算機(jī)應(yīng)用研究. 2018(07)
本文編號:3309436
【文章來源】:計(jì)算機(jī)應(yīng)用與軟件. 2020,37(10)北大核心
【文章頁數(shù)】:6 頁
【部分圖文】:
卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)
入侵檢測問題是一個(gè)分類問題,可以通過有監(jiān)督學(xué)習(xí)訓(xùn)練出分類模型,然后使用訓(xùn)練的模型對未知數(shù)據(jù)進(jìn)行預(yù)測。在使用卷積神經(jīng)網(wǎng)絡(luò)時(shí),輸入層輸入數(shù)據(jù)通常是二維的,入侵記錄是一維數(shù)據(jù),因此在卷積操作選擇方面,本文采取一維卷積方法對入侵記錄數(shù)據(jù)進(jìn)行卷積操作。根據(jù)NSL-KDD標(biāo)簽不平衡和模型實(shí)際分類性能等情況,本文設(shè)計(jì)了CNN-Focal模型,其結(jié)構(gòu)如圖2所示。CNN-Focal模型共有10層,1個(gè)輸入層、3個(gè)卷積層、3個(gè)Dropout層、1個(gè)Max-pooling層、1個(gè)全連接層和1個(gè)Softmax層。該模型具體描述如下:
本文采用的入侵檢測數(shù)據(jù)集的標(biāo)簽分布是不平衡的,數(shù)據(jù)集標(biāo)簽統(tǒng)計(jì)如圖3所示。Focal Loss函數(shù)適用于不平衡數(shù)據(jù)集,因此本文采用Focal Loss作為模型的損失函數(shù)。與其他損失函數(shù)相比,Focal Loss損失函數(shù)修正了正負(fù)樣本、難分和易分樣本對損失的貢獻(xiàn)量。3) Adam優(yōu)化算法。
【參考文獻(xiàn)】:
期刊論文
[1]改進(jìn)Softmax分類器的深度卷積神經(jīng)網(wǎng)絡(luò)及其在人臉識(shí)別中的應(yīng)用[J]. 冉鵬,王靈,李昕,劉鵬偉. 上海大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(03)
[2]深度學(xué)習(xí)相關(guān)研究綜述[J]. 張軍陽,王慧麗,郭陽,扈嘯. 計(jì)算機(jī)應(yīng)用研究. 2018(07)
本文編號:3309436
本文鏈接:http://sikaile.net/guanlilunwen/ydhl/3309436.html
最近更新
教材專著