基于深度學(xué)習(xí)的流量分類系統(tǒng)
發(fā)布時間:2021-06-23 23:26
隨著互聯(lián)網(wǎng)的飛速發(fā)展,網(wǎng)絡(luò)流量的數(shù)量和種類都呈現(xiàn)爆發(fā)式增長。因此,對網(wǎng)絡(luò)流量的準(zhǔn)確分類已經(jīng)成為網(wǎng)絡(luò)管理中不可或缺的部分,而且其對網(wǎng)絡(luò)的智能化運(yùn)維和管理、網(wǎng)絡(luò)質(zhì)量服務(wù)保障和網(wǎng)絡(luò)安全等都有很大幫助。而且隨著用戶隱私、數(shù)據(jù)加密等需求的不斷增加,越來越多的加密流量涌現(xiàn)出來,由于加密算法、加密方式的多樣性,給網(wǎng)絡(luò)流量分類帶來了巨大的困難,傳統(tǒng)的流量分類方法已無法滿足對分類準(zhǔn)確性的需求,加密流量分類已經(jīng)成為運(yùn)營商和服務(wù)商所面臨的巨大問題。深度學(xué)習(xí)在分類、檢測等任務(wù)上具有非常大的優(yōu)勢,因此本文提出將深度學(xué)習(xí)方法融合到加密網(wǎng)絡(luò)流量分類中。本文的主要工作如下:(1)本文提出一種適用于深度學(xué)習(xí)模型的網(wǎng)絡(luò)數(shù)據(jù)流表示方法,按照“數(shù)據(jù)流-數(shù)據(jù)包-字節(jié)”的層級結(jié)構(gòu)把每個數(shù)據(jù)流表示為一個N*M維的矩陣,將其作為模型輸入;(2)本文提出兩種深度學(xué)習(xí)模型,分別是基于注意力機(jī)制的雙向長短期記憶網(wǎng)絡(luò)(Attention Based Bidirectional Long Short-Term Memory Networks,ABBiLSTM)和基于分層注意力機(jī)制的雙向長短期記憶網(wǎng)絡(luò)(Hierarchical Attentio...
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:62 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1?TCP/IP數(shù)據(jù)包封裝結(jié)構(gòu)??由于傳統(tǒng)數(shù)據(jù)包檢測主要通過端口號識別應(yīng)用協(xié)議,對P2P等新出現(xiàn)的應(yīng)??用類型無法達(dá)到很好的檢測效果,而且越來越多的新應(yīng)用不再嚴(yán)格遵守端口號進(jìn)??
??圖3-1人工神經(jīng)網(wǎng)絡(luò)中神經(jīng)元的結(jié)構(gòu)??如上圖所示,每個神經(jīng)元會包含多個輸入A、X2、...、X?,其向量表示為無,??所有輸入會經(jīng)過神經(jīng)元參數(shù)F的加權(quán)求和,接下來使用非線性激活函數(shù)a(.)對其??進(jìn)行映射和轉(zhuǎn)換,激活函數(shù)可以為ton/?或者等函數(shù),所以神經(jīng)??元的計算公式/Vb〇〇?=?為。??有了單個神經(jīng)元之后,多層全連接神經(jīng)網(wǎng)絡(luò)MLP就很簡單了,就是每層都??使用多個神經(jīng)元,然后堆疊多層即可。下面以只包含輸入層、隱藏層、輸出層的??三層MLP為例進(jìn)行介紹。三層MLP的結(jié)構(gòu)圖如圖3-2所示??@^@^0???Az/??圖3-2三層全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??如上圖所示,神經(jīng)網(wǎng)絡(luò)的輸入每一維度對應(yīng)一個神經(jīng)元,然后輸入隱藏層,??經(jīng)過隱藏層的權(quán)重轉(zhuǎn)換和激活函數(shù)映射之后變成中間的隱藏層向量,接下來隱藏??層向量投影到最終的輸出層得到最終的輸出向量/VbO:)。然后通過特定的目標(biāo)??函數(shù)計算損失就可以通過反向傳播的方式進(jìn)行梯度計算和參數(shù)更新
有了單個神經(jīng)元之后,多層全連接神經(jīng)網(wǎng)絡(luò)MLP就很簡單了,就是每層都??使用多個神經(jīng)元,然后堆疊多層即可。下面以只包含輸入層、隱藏層、輸出層的??三層MLP為例進(jìn)行介紹。三層MLP的結(jié)構(gòu)圖如圖3-2所示??@^@^0???Az/??圖3-2三層全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??如上圖所示,神經(jīng)網(wǎng)絡(luò)的輸入每一維度對應(yīng)一個神經(jīng)元,然后輸入隱藏層,??經(jīng)過隱藏層的權(quán)重轉(zhuǎn)換和激活函數(shù)映射之后變成中間的隱藏層向量,接下來隱藏??層向量投影到最終的輸出層得到最終的輸出向量/VbO:)。然后通過特定的目標(biāo)??函數(shù)計算損失就可以通過反向傳播的方式進(jìn)行梯度計算和參數(shù)更新,完成對模型??參數(shù)的訓(xùn)練和迭代。??3.3卷積神經(jīng)網(wǎng)絡(luò)??3.3.1卷積神經(jīng)網(wǎng)絡(luò)原理??卷積神經(jīng)網(wǎng)絡(luò)是一種深層次前向傳播的監(jiān)督學(xué)習(xí)方法。目前被廣泛應(yīng)用于計??算機(jī)視覺相關(guān)領(lǐng)域,主要是由于其可以自動學(xué)習(xí)到圖片中的特征,如從底層到高??層分別學(xué)習(xí)圖片中的像素點(diǎn)、邊緣、部件、物體等各層次特征,這樣就避免了人??14??
本文編號:3245866
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:62 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1?TCP/IP數(shù)據(jù)包封裝結(jié)構(gòu)??由于傳統(tǒng)數(shù)據(jù)包檢測主要通過端口號識別應(yīng)用協(xié)議,對P2P等新出現(xiàn)的應(yīng)??用類型無法達(dá)到很好的檢測效果,而且越來越多的新應(yīng)用不再嚴(yán)格遵守端口號進(jìn)??
??圖3-1人工神經(jīng)網(wǎng)絡(luò)中神經(jīng)元的結(jié)構(gòu)??如上圖所示,每個神經(jīng)元會包含多個輸入A、X2、...、X?,其向量表示為無,??所有輸入會經(jīng)過神經(jīng)元參數(shù)F的加權(quán)求和,接下來使用非線性激活函數(shù)a(.)對其??進(jìn)行映射和轉(zhuǎn)換,激活函數(shù)可以為ton/?或者等函數(shù),所以神經(jīng)??元的計算公式/Vb〇〇?=?為。??有了單個神經(jīng)元之后,多層全連接神經(jīng)網(wǎng)絡(luò)MLP就很簡單了,就是每層都??使用多個神經(jīng)元,然后堆疊多層即可。下面以只包含輸入層、隱藏層、輸出層的??三層MLP為例進(jìn)行介紹。三層MLP的結(jié)構(gòu)圖如圖3-2所示??@^@^0???Az/??圖3-2三層全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??如上圖所示,神經(jīng)網(wǎng)絡(luò)的輸入每一維度對應(yīng)一個神經(jīng)元,然后輸入隱藏層,??經(jīng)過隱藏層的權(quán)重轉(zhuǎn)換和激活函數(shù)映射之后變成中間的隱藏層向量,接下來隱藏??層向量投影到最終的輸出層得到最終的輸出向量/VbO:)。然后通過特定的目標(biāo)??函數(shù)計算損失就可以通過反向傳播的方式進(jìn)行梯度計算和參數(shù)更新
有了單個神經(jīng)元之后,多層全連接神經(jīng)網(wǎng)絡(luò)MLP就很簡單了,就是每層都??使用多個神經(jīng)元,然后堆疊多層即可。下面以只包含輸入層、隱藏層、輸出層的??三層MLP為例進(jìn)行介紹。三層MLP的結(jié)構(gòu)圖如圖3-2所示??@^@^0???Az/??圖3-2三層全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??如上圖所示,神經(jīng)網(wǎng)絡(luò)的輸入每一維度對應(yīng)一個神經(jīng)元,然后輸入隱藏層,??經(jīng)過隱藏層的權(quán)重轉(zhuǎn)換和激活函數(shù)映射之后變成中間的隱藏層向量,接下來隱藏??層向量投影到最終的輸出層得到最終的輸出向量/VbO:)。然后通過特定的目標(biāo)??函數(shù)計算損失就可以通過反向傳播的方式進(jìn)行梯度計算和參數(shù)更新,完成對模型??參數(shù)的訓(xùn)練和迭代。??3.3卷積神經(jīng)網(wǎng)絡(luò)??3.3.1卷積神經(jīng)網(wǎng)絡(luò)原理??卷積神經(jīng)網(wǎng)絡(luò)是一種深層次前向傳播的監(jiān)督學(xué)習(xí)方法。目前被廣泛應(yīng)用于計??算機(jī)視覺相關(guān)領(lǐng)域,主要是由于其可以自動學(xué)習(xí)到圖片中的特征,如從底層到高??層分別學(xué)習(xí)圖片中的像素點(diǎn)、邊緣、部件、物體等各層次特征,這樣就避免了人??14??
本文編號:3245866
本文鏈接:http://sikaile.net/guanlilunwen/ydhl/3245866.html
最近更新
教材專著