基于卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)流關(guān)聯(lián)技術(shù)研究
發(fā)布時(shí)間:2021-10-07 06:44
隨著信息技術(shù)高速發(fā)展,互聯(lián)網(wǎng)的功能越來(lái)越強(qiáng)大,極大地提升了生活質(zhì)量。然而,在網(wǎng)絡(luò)帶來(lái)各種便利的同時(shí),網(wǎng)絡(luò)安全問(wèn)題也日益增多,尤其在匿名網(wǎng)絡(luò)或基于“墊腳石”的網(wǎng)絡(luò)環(huán)境中,攻擊者常常利用其隱蔽性實(shí)施網(wǎng)絡(luò)攻擊而難以被追蹤到,因此需要研究新的流關(guān)聯(lián)技術(shù)來(lái)實(shí)現(xiàn)對(duì)攻擊者的追蹤與溯源。本文在對(duì)現(xiàn)有流關(guān)聯(lián)技術(shù)進(jìn)行研究與分析的基礎(chǔ)上,針對(duì)當(dāng)前被動(dòng)網(wǎng)絡(luò)流量分析的流關(guān)聯(lián)大多使用統(tǒng)計(jì)相關(guān)算法的關(guān)聯(lián)方法缺陷,提出了一種基于流量特征圖和卷積神經(jīng)網(wǎng)絡(luò)的流關(guān)聯(lián)方法,通過(guò)使用深度學(xué)習(xí)算法代替?zhèn)鹘y(tǒng)的統(tǒng)計(jì)相關(guān)算法提高檢測(cè)的準(zhǔn)確度;針對(duì)當(dāng)前需要分析計(jì)算極大段流量特征數(shù)據(jù)所造成的存儲(chǔ)和計(jì)算開(kāi)銷(xiāo)過(guò)大,提出了一種基于壓縮感知與卷積神經(jīng)網(wǎng)絡(luò)的流關(guān)聯(lián)方法。本文的主要研究工作如下:(1)針對(duì)傳統(tǒng)被動(dòng)流量分析方法使用統(tǒng)計(jì)相關(guān)算法檢測(cè)率低并且難以抵御包數(shù)量突變的缺陷,提出了一種基于流量特征圖和卷積神經(jīng)網(wǎng)絡(luò)的流關(guān)聯(lián)方法。首先將入口、出口網(wǎng)絡(luò)流劃分時(shí)隙,計(jì)算時(shí)隙內(nèi)包數(shù)量,轉(zhuǎn)化為特征圖,由于關(guān)聯(lián)與非關(guān)聯(lián)流量的特征圖存在差異,通過(guò)使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)關(guān)聯(lián)與非關(guān)聯(lián)流量特征圖進(jìn)行分類(lèi),從而實(shí)現(xiàn)判斷是否關(guān)聯(lián)。最后,通過(guò)實(shí)驗(yàn)驗(yàn)證了該方法能抵御一定程度包數(shù)量突...
【文章來(lái)源】:江蘇大學(xué)江蘇省
【文章頁(yè)數(shù)】:72 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
卷積操作示例
江蘇大學(xué)工程碩士學(xué)位論文19圖2.9卷積操作示例2.激活函數(shù)在卷積神經(jīng)網(wǎng)絡(luò)中,由于卷積層的輸入都是上層輸出的線性函數(shù),隨著網(wǎng)絡(luò)的深度增加,如果不使用激活函數(shù),網(wǎng)絡(luò)的輸出就都是輸入的線性組合,擬合能力有限。而卷積神經(jīng)網(wǎng)絡(luò)中使用激活函數(shù)則增加了非線性因素,網(wǎng)絡(luò)模型的擬合能力得到極大提升。在卷積神經(jīng)網(wǎng)絡(luò)中,經(jīng)常使用的激活函數(shù)包括sigmoid函數(shù)、ReLU函數(shù)和tanh函數(shù)。a.sigmoid函數(shù)sigmoid函數(shù)的數(shù)學(xué)表達(dá)式如式(2.12)所示。1si()1xgmoidxe=+(2.12)sigmoid函數(shù)圖如圖2.10所示。圖2.10sigmoid函數(shù)圖sigmoid將輸入變換為0到1之間。對(duì)于卷積神經(jīng)網(wǎng)絡(luò),sigmoid在反向傳播時(shí)梯度會(huì)消失且計(jì)算過(guò)程包含冪運(yùn)算導(dǎo)致訓(xùn)練時(shí)間過(guò)長(zhǎng)并且輸出均值不為0,所
基于卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)流關(guān)聯(lián)技術(shù)研究 以在卷積神經(jīng)網(wǎng)絡(luò)中使用較少。 b. ReLU 函數(shù) ReLU(Rectified Linear Unit)函數(shù)的數(shù)學(xué)表達(dá)式如式(2.13)所示。 Re LU(x) =max(0, x) (2.13) ReLU 函數(shù)圖如圖 2.11 所示。
【參考文獻(xiàn)】:
期刊論文
[1]流身份鑒別技術(shù)研究進(jìn)展[J]. 雷程,張紅旗,孫奕,杜學(xué)繪. 計(jì)算機(jī)應(yīng)用研究. 2013(10)
碩士論文
[1]壓縮感知理論在WSN數(shù)據(jù)收集中的應(yīng)用研究[D]. 景蠐嫻.長(zhǎng)安大學(xué) 2019
[2]抗匿名網(wǎng)絡(luò)流變換的時(shí)隙質(zhì)心網(wǎng)絡(luò)流水印技術(shù)研究[D]. 周鵬飛.南京理工大學(xué) 2017
[3]基于字典學(xué)習(xí)的電能質(zhì)量數(shù)據(jù)壓縮重構(gòu)與擾動(dòng)識(shí)別研究[D]. 張瀚文.江蘇大學(xué) 2016
[4]基于流量分析的信息溯源關(guān)鍵技術(shù)研究[D]. 宋鳴.北京郵電大學(xué) 2014
[5]基于壓縮感知的測(cè)量矩陣研究[D]. 李小波.北京交通大學(xué) 2010
本文編號(hào):3421553
【文章來(lái)源】:江蘇大學(xué)江蘇省
【文章頁(yè)數(shù)】:72 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
卷積操作示例
江蘇大學(xué)工程碩士學(xué)位論文19圖2.9卷積操作示例2.激活函數(shù)在卷積神經(jīng)網(wǎng)絡(luò)中,由于卷積層的輸入都是上層輸出的線性函數(shù),隨著網(wǎng)絡(luò)的深度增加,如果不使用激活函數(shù),網(wǎng)絡(luò)的輸出就都是輸入的線性組合,擬合能力有限。而卷積神經(jīng)網(wǎng)絡(luò)中使用激活函數(shù)則增加了非線性因素,網(wǎng)絡(luò)模型的擬合能力得到極大提升。在卷積神經(jīng)網(wǎng)絡(luò)中,經(jīng)常使用的激活函數(shù)包括sigmoid函數(shù)、ReLU函數(shù)和tanh函數(shù)。a.sigmoid函數(shù)sigmoid函數(shù)的數(shù)學(xué)表達(dá)式如式(2.12)所示。1si()1xgmoidxe=+(2.12)sigmoid函數(shù)圖如圖2.10所示。圖2.10sigmoid函數(shù)圖sigmoid將輸入變換為0到1之間。對(duì)于卷積神經(jīng)網(wǎng)絡(luò),sigmoid在反向傳播時(shí)梯度會(huì)消失且計(jì)算過(guò)程包含冪運(yùn)算導(dǎo)致訓(xùn)練時(shí)間過(guò)長(zhǎng)并且輸出均值不為0,所
基于卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)流關(guān)聯(lián)技術(shù)研究 以在卷積神經(jīng)網(wǎng)絡(luò)中使用較少。 b. ReLU 函數(shù) ReLU(Rectified Linear Unit)函數(shù)的數(shù)學(xué)表達(dá)式如式(2.13)所示。 Re LU(x) =max(0, x) (2.13) ReLU 函數(shù)圖如圖 2.11 所示。
【參考文獻(xiàn)】:
期刊論文
[1]流身份鑒別技術(shù)研究進(jìn)展[J]. 雷程,張紅旗,孫奕,杜學(xué)繪. 計(jì)算機(jī)應(yīng)用研究. 2013(10)
碩士論文
[1]壓縮感知理論在WSN數(shù)據(jù)收集中的應(yīng)用研究[D]. 景蠐嫻.長(zhǎng)安大學(xué) 2019
[2]抗匿名網(wǎng)絡(luò)流變換的時(shí)隙質(zhì)心網(wǎng)絡(luò)流水印技術(shù)研究[D]. 周鵬飛.南京理工大學(xué) 2017
[3]基于字典學(xué)習(xí)的電能質(zhì)量數(shù)據(jù)壓縮重構(gòu)與擾動(dòng)識(shí)別研究[D]. 張瀚文.江蘇大學(xué) 2016
[4]基于流量分析的信息溯源關(guān)鍵技術(shù)研究[D]. 宋鳴.北京郵電大學(xué) 2014
[5]基于壓縮感知的測(cè)量矩陣研究[D]. 李小波.北京交通大學(xué) 2010
本文編號(hào):3421553
本文鏈接:http://sikaile.net/guanlilunwen/ydhl/3421553.html
最近更新
教材專(zhuān)著