基于DL和TSVM的入侵檢測(cè)方法研究
發(fā)布時(shí)間:2021-04-06 01:08
為解決網(wǎng)絡(luò)環(huán)境下大量高維數(shù)據(jù)給入侵檢測(cè)造成的數(shù)據(jù)特征提取不當(dāng)、檢測(cè)速度慢、檢測(cè)率低的問(wèn)題,提出一種基于深度置信網(wǎng)絡(luò)(Deep Belief Network,DBN)和孿生支持向量機(jī)(Twin Support Vector Machine,TSVM)的入侵檢測(cè)模型(DBN-TSVM-5)。利用五層受限玻爾茲曼機(jī)的DBN對(duì)歸一化后的標(biāo)準(zhǔn)數(shù)據(jù)集進(jìn)行特征降維,以獲得入侵檢測(cè)數(shù)據(jù)的最優(yōu)低維表示,構(gòu)造多分類(lèi)TSVM-5分類(lèi)器,對(duì)降維后的數(shù)據(jù)進(jìn)行識(shí)別。經(jīng)過(guò)KDDCUP99數(shù)據(jù)集的仿真實(shí)驗(yàn),結(jié)果表明,該模型是一種有效的入侵檢測(cè)模型。
【文章來(lái)源】:計(jì)算機(jī)應(yīng)用與軟件. 2020,37(12)北大核心
【文章頁(yè)數(shù)】:6 頁(yè)
【部分圖文】:
DBN模型圖
1986年,一個(gè)層內(nèi)無(wú)連接、層間全連接的兩層網(wǎng)絡(luò)模型被提出,它就是RBM,包含了一個(gè)可見(jiàn)層V和一個(gè)隱含層H,每一層都是由神經(jīng)元組成,所有神經(jīng)元都有激活狀態(tài)1和未激活狀態(tài)0兩種狀態(tài)值。W是兩層之間的連接權(quán)重矩陣,a是可見(jiàn)層偏差,b是隱含層偏差。如圖2所示。訓(xùn)練RBM模型使用的數(shù)據(jù)特征維數(shù)較高時(shí),以Gibbs采樣方法訓(xùn)練需要足夠大的采樣步數(shù),可想而知用此方法訓(xùn)練RBM會(huì)花費(fèi)相當(dāng)多的時(shí)間,導(dǎo)致最終訓(xùn)練結(jié)果不理想。針對(duì)該問(wèn)題,Hinton[10]提出對(duì)比散度算法(Contrastive Divergence,CD)。
Jayadeva等[12]在2007年提出了TSVM。TSVM的基本思想是對(duì)正負(fù)兩類(lèi)樣本點(diǎn)分別構(gòu)造一個(gè)分類(lèi)超平面。這樣有兩點(diǎn)好處:一方面使得每一個(gè)分類(lèi)超平面與其中一類(lèi)樣本點(diǎn)盡可能近;另一方面遠(yuǎn)離另一類(lèi)樣本點(diǎn)。以二維平面內(nèi)的樣本數(shù)據(jù)為例,對(duì)線性TSVM分類(lèi)思想描述如圖3所示。TSVM實(shí)質(zhì)上是將傳統(tǒng)SVM中的一個(gè)二次規(guī)劃問(wèn)題(Quadratic Programming Problem,QPP)分成兩個(gè)規(guī)模較小的QPP[13],簡(jiǎn)化了計(jì)算復(fù)雜度,使得樣本訓(xùn)練時(shí)間縮減為傳統(tǒng)SVM的四分之一,而且還保持了較高的分類(lèi)精度。
本文編號(hào):3120455
【文章來(lái)源】:計(jì)算機(jī)應(yīng)用與軟件. 2020,37(12)北大核心
【文章頁(yè)數(shù)】:6 頁(yè)
【部分圖文】:
DBN模型圖
1986年,一個(gè)層內(nèi)無(wú)連接、層間全連接的兩層網(wǎng)絡(luò)模型被提出,它就是RBM,包含了一個(gè)可見(jiàn)層V和一個(gè)隱含層H,每一層都是由神經(jīng)元組成,所有神經(jīng)元都有激活狀態(tài)1和未激活狀態(tài)0兩種狀態(tài)值。W是兩層之間的連接權(quán)重矩陣,a是可見(jiàn)層偏差,b是隱含層偏差。如圖2所示。訓(xùn)練RBM模型使用的數(shù)據(jù)特征維數(shù)較高時(shí),以Gibbs采樣方法訓(xùn)練需要足夠大的采樣步數(shù),可想而知用此方法訓(xùn)練RBM會(huì)花費(fèi)相當(dāng)多的時(shí)間,導(dǎo)致最終訓(xùn)練結(jié)果不理想。針對(duì)該問(wèn)題,Hinton[10]提出對(duì)比散度算法(Contrastive Divergence,CD)。
Jayadeva等[12]在2007年提出了TSVM。TSVM的基本思想是對(duì)正負(fù)兩類(lèi)樣本點(diǎn)分別構(gòu)造一個(gè)分類(lèi)超平面。這樣有兩點(diǎn)好處:一方面使得每一個(gè)分類(lèi)超平面與其中一類(lèi)樣本點(diǎn)盡可能近;另一方面遠(yuǎn)離另一類(lèi)樣本點(diǎn)。以二維平面內(nèi)的樣本數(shù)據(jù)為例,對(duì)線性TSVM分類(lèi)思想描述如圖3所示。TSVM實(shí)質(zhì)上是將傳統(tǒng)SVM中的一個(gè)二次規(guī)劃問(wèn)題(Quadratic Programming Problem,QPP)分成兩個(gè)規(guī)模較小的QPP[13],簡(jiǎn)化了計(jì)算復(fù)雜度,使得樣本訓(xùn)練時(shí)間縮減為傳統(tǒng)SVM的四分之一,而且還保持了較高的分類(lèi)精度。
本文編號(hào):3120455
本文鏈接:http://sikaile.net/guanlilunwen/ydhl/3120455.html
最近更新
教材專(zhuān)著