基于深度學習的流量分類系統(tǒng)
發(fā)布時間:2021-06-23 23:26
隨著互聯(lián)網(wǎng)的飛速發(fā)展,網(wǎng)絡流量的數(shù)量和種類都呈現(xiàn)爆發(fā)式增長。因此,對網(wǎng)絡流量的準確分類已經(jīng)成為網(wǎng)絡管理中不可或缺的部分,而且其對網(wǎng)絡的智能化運維和管理、網(wǎng)絡質(zhì)量服務保障和網(wǎng)絡安全等都有很大幫助。而且隨著用戶隱私、數(shù)據(jù)加密等需求的不斷增加,越來越多的加密流量涌現(xiàn)出來,由于加密算法、加密方式的多樣性,給網(wǎng)絡流量分類帶來了巨大的困難,傳統(tǒng)的流量分類方法已無法滿足對分類準確性的需求,加密流量分類已經(jīng)成為運營商和服務商所面臨的巨大問題。深度學習在分類、檢測等任務上具有非常大的優(yōu)勢,因此本文提出將深度學習方法融合到加密網(wǎng)絡流量分類中。本文的主要工作如下:(1)本文提出一種適用于深度學習模型的網(wǎng)絡數(shù)據(jù)流表示方法,按照“數(shù)據(jù)流-數(shù)據(jù)包-字節(jié)”的層級結構把每個數(shù)據(jù)流表示為一個N*M維的矩陣,將其作為模型輸入;(2)本文提出兩種深度學習模型,分別是基于注意力機制的雙向長短期記憶網(wǎng)絡(Attention Based Bidirectional Long Short-Term Memory Networks,ABBiLSTM)和基于分層注意力機制的雙向長短期記憶網(wǎng)絡(Hierarchical Attentio...
【文章來源】:北京郵電大學北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:62 頁
【學位級別】:碩士
【部分圖文】:
圖2-1?TCP/IP數(shù)據(jù)包封裝結構??由于傳統(tǒng)數(shù)據(jù)包檢測主要通過端口號識別應用協(xié)議,對P2P等新出現(xiàn)的應??用類型無法達到很好的檢測效果,而且越來越多的新應用不再嚴格遵守端口號進??
??圖3-1人工神經(jīng)網(wǎng)絡中神經(jīng)元的結構??如上圖所示,每個神經(jīng)元會包含多個輸入A、X2、...、X?,其向量表示為無,??所有輸入會經(jīng)過神經(jīng)元參數(shù)F的加權求和,接下來使用非線性激活函數(shù)a(.)對其??進行映射和轉(zhuǎn)換,激活函數(shù)可以為ton/?或者等函數(shù),所以神經(jīng)??元的計算公式/Vb〇〇?=?為。??有了單個神經(jīng)元之后,多層全連接神經(jīng)網(wǎng)絡MLP就很簡單了,就是每層都??使用多個神經(jīng)元,然后堆疊多層即可。下面以只包含輸入層、隱藏層、輸出層的??三層MLP為例進行介紹。三層MLP的結構圖如圖3-2所示??@^@^0???Az/??圖3-2三層全連接神經(jīng)網(wǎng)絡結構圖??如上圖所示,神經(jīng)網(wǎng)絡的輸入每一維度對應一個神經(jīng)元,然后輸入隱藏層,??經(jīng)過隱藏層的權重轉(zhuǎn)換和激活函數(shù)映射之后變成中間的隱藏層向量,接下來隱藏??層向量投影到最終的輸出層得到最終的輸出向量/VbO:)。然后通過特定的目標??函數(shù)計算損失就可以通過反向傳播的方式進行梯度計算和參數(shù)更新
有了單個神經(jīng)元之后,多層全連接神經(jīng)網(wǎng)絡MLP就很簡單了,就是每層都??使用多個神經(jīng)元,然后堆疊多層即可。下面以只包含輸入層、隱藏層、輸出層的??三層MLP為例進行介紹。三層MLP的結構圖如圖3-2所示??@^@^0???Az/??圖3-2三層全連接神經(jīng)網(wǎng)絡結構圖??如上圖所示,神經(jīng)網(wǎng)絡的輸入每一維度對應一個神經(jīng)元,然后輸入隱藏層,??經(jīng)過隱藏層的權重轉(zhuǎn)換和激活函數(shù)映射之后變成中間的隱藏層向量,接下來隱藏??層向量投影到最終的輸出層得到最終的輸出向量/VbO:)。然后通過特定的目標??函數(shù)計算損失就可以通過反向傳播的方式進行梯度計算和參數(shù)更新,完成對模型??參數(shù)的訓練和迭代。??3.3卷積神經(jīng)網(wǎng)絡??3.3.1卷積神經(jīng)網(wǎng)絡原理??卷積神經(jīng)網(wǎng)絡是一種深層次前向傳播的監(jiān)督學習方法。目前被廣泛應用于計??算機視覺相關領域,主要是由于其可以自動學習到圖片中的特征,如從底層到高??層分別學習圖片中的像素點、邊緣、部件、物體等各層次特征,這樣就避免了人??14??
本文編號:3245866
【文章來源】:北京郵電大學北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:62 頁
【學位級別】:碩士
【部分圖文】:
圖2-1?TCP/IP數(shù)據(jù)包封裝結構??由于傳統(tǒng)數(shù)據(jù)包檢測主要通過端口號識別應用協(xié)議,對P2P等新出現(xiàn)的應??用類型無法達到很好的檢測效果,而且越來越多的新應用不再嚴格遵守端口號進??
??圖3-1人工神經(jīng)網(wǎng)絡中神經(jīng)元的結構??如上圖所示,每個神經(jīng)元會包含多個輸入A、X2、...、X?,其向量表示為無,??所有輸入會經(jīng)過神經(jīng)元參數(shù)F的加權求和,接下來使用非線性激活函數(shù)a(.)對其??進行映射和轉(zhuǎn)換,激活函數(shù)可以為ton/?或者等函數(shù),所以神經(jīng)??元的計算公式/Vb〇〇?=?為。??有了單個神經(jīng)元之后,多層全連接神經(jīng)網(wǎng)絡MLP就很簡單了,就是每層都??使用多個神經(jīng)元,然后堆疊多層即可。下面以只包含輸入層、隱藏層、輸出層的??三層MLP為例進行介紹。三層MLP的結構圖如圖3-2所示??@^@^0???Az/??圖3-2三層全連接神經(jīng)網(wǎng)絡結構圖??如上圖所示,神經(jīng)網(wǎng)絡的輸入每一維度對應一個神經(jīng)元,然后輸入隱藏層,??經(jīng)過隱藏層的權重轉(zhuǎn)換和激活函數(shù)映射之后變成中間的隱藏層向量,接下來隱藏??層向量投影到最終的輸出層得到最終的輸出向量/VbO:)。然后通過特定的目標??函數(shù)計算損失就可以通過反向傳播的方式進行梯度計算和參數(shù)更新
有了單個神經(jīng)元之后,多層全連接神經(jīng)網(wǎng)絡MLP就很簡單了,就是每層都??使用多個神經(jīng)元,然后堆疊多層即可。下面以只包含輸入層、隱藏層、輸出層的??三層MLP為例進行介紹。三層MLP的結構圖如圖3-2所示??@^@^0???Az/??圖3-2三層全連接神經(jīng)網(wǎng)絡結構圖??如上圖所示,神經(jīng)網(wǎng)絡的輸入每一維度對應一個神經(jīng)元,然后輸入隱藏層,??經(jīng)過隱藏層的權重轉(zhuǎn)換和激活函數(shù)映射之后變成中間的隱藏層向量,接下來隱藏??層向量投影到最終的輸出層得到最終的輸出向量/VbO:)。然后通過特定的目標??函數(shù)計算損失就可以通過反向傳播的方式進行梯度計算和參數(shù)更新,完成對模型??參數(shù)的訓練和迭代。??3.3卷積神經(jīng)網(wǎng)絡??3.3.1卷積神經(jīng)網(wǎng)絡原理??卷積神經(jīng)網(wǎng)絡是一種深層次前向傳播的監(jiān)督學習方法。目前被廣泛應用于計??算機視覺相關領域,主要是由于其可以自動學習到圖片中的特征,如從底層到高??層分別學習圖片中的像素點、邊緣、部件、物體等各層次特征,這樣就避免了人??14??
本文編號:3245866
本文鏈接:http://sikaile.net/guanlilunwen/ydhl/3245866.html
最近更新
教材專著