基于卷積神經(jīng)網(wǎng)絡(luò)的Android流量分類方法
發(fā)布時間:2021-07-16 19:56
深度學(xué)習(xí)就是機(jī)器學(xué)習(xí)研究的過程,主要通過模擬人腦分析學(xué)習(xí)的過程對數(shù)據(jù)進(jìn)行分析。目前,深度學(xué)習(xí)技術(shù)已經(jīng)在計算機(jī)視覺、語音識別、自然語言處理等領(lǐng)域獲得了較大發(fā)展,并且隨著該技術(shù)的不斷發(fā)展,為網(wǎng)絡(luò)流量分類和異常檢測帶來了新的發(fā)展方向。移動智能手機(jī)與大家的生活息息相關(guān),但是其存在的安全問題也日益凸顯。針對傳統(tǒng)機(jī)器學(xué)習(xí)算法對于流量分類需要人工提取特征、計算量大的問題,提出了基于卷積神經(jīng)網(wǎng)絡(luò)模型的應(yīng)用程序流量分類算法。首先,將網(wǎng)絡(luò)流量數(shù)據(jù)集進(jìn)行數(shù)據(jù)預(yù)處理,去除無關(guān)數(shù)據(jù)字段,并使數(shù)據(jù)滿足卷積神經(jīng)網(wǎng)絡(luò)的輸入特性。其次,設(shè)計了一種新的卷積神經(jīng)網(wǎng)絡(luò)模型,從網(wǎng)絡(luò)結(jié)構(gòu)、超參數(shù)空間以及參數(shù)優(yōu)化方面入手,構(gòu)造了最優(yōu)分類模型。該模型通過卷積層自主學(xué)習(xí)數(shù)據(jù)特征,解決了傳統(tǒng)基于機(jī)器學(xué)習(xí)的流量分類算法中的特征選擇問題。最后,通過CICAndmal2017網(wǎng)絡(luò)公開數(shù)據(jù)集進(jìn)行模型測試,相比于傳統(tǒng)的機(jī)器學(xué)習(xí)流量分類模型,設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)模型的查準(zhǔn)率和查全率分別提高了2.93%和11.87%,同時在類精度、召回率以及F1分?jǐn)?shù)方面都有較好的提升。
【文章來源】:通信技術(shù). 2020,53(02)
【文章頁數(shù)】:6 頁
【部分圖文】:
流量數(shù)據(jù)位圖可視化效果
流量數(shù)據(jù)位圖可視化效果
流量數(shù)據(jù)的實際概念是按層次結(jié)構(gòu)組織的一維字節(jié)流。這類數(shù)據(jù)主要由字節(jié)、數(shù)據(jù)包、會話和結(jié)構(gòu)信息組成。這類序列類型數(shù)據(jù)非常適合采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行流量分類。進(jìn)一步地,預(yù)處理后的流量數(shù)據(jù)規(guī)模和每張圖片的尺寸都類似于MNIST手寫體識別數(shù)據(jù)信息,因此本文采用LeNet-5[10]的CNN結(jié)構(gòu),模型結(jié)構(gòu)如圖2所示。流量數(shù)據(jù)處理的具體過程如下。首先輸入層接收IDX格式的流量圖像信息,并適當(dāng)調(diào)整像素值,讓其由0~255直接轉(zhuǎn)換為0~1,實現(xiàn)歸一化。在卷積層C1運算處理時,流量數(shù)據(jù)經(jīng)過卷積層C1,由尺寸為5×5的卷積核進(jìn)行處理。由于C1層共具有32個通道,所以最終會生成32個尺寸為28×28的特征圖。經(jīng)過處理的特征圖進(jìn)入池化層P1,該層會對特征圖進(jìn)行一次2×2的最大值池化處理,最終生成為32個尺寸為14×14的特征圖。經(jīng)過池化操作的特征圖進(jìn)入第二個卷積層C2,該卷積層的卷積核尺寸與C1相同,都是5×5,但是該層共具有64個通道,所以最后會生成64個尺寸為14×14的特征圖。然后進(jìn)入第二個池化層P2,在此層會對特征圖進(jìn)行2×2的最大值池化操作,與P1層操作相同,所以共生成64個7×7的特征圖;接著會被兩個全連接層處理,最后輸出數(shù)據(jù)其輸出節(jié)點數(shù)分別為1 024和10。最后,使用一個Softmax函數(shù)將輸出結(jié)果轉(zhuǎn)換為0~1的概率值。CNN各層輸入、輸出及參數(shù)設(shè)置如表1所示。
本文編號:3287661
【文章來源】:通信技術(shù). 2020,53(02)
【文章頁數(shù)】:6 頁
【部分圖文】:
流量數(shù)據(jù)位圖可視化效果
流量數(shù)據(jù)位圖可視化效果
流量數(shù)據(jù)的實際概念是按層次結(jié)構(gòu)組織的一維字節(jié)流。這類數(shù)據(jù)主要由字節(jié)、數(shù)據(jù)包、會話和結(jié)構(gòu)信息組成。這類序列類型數(shù)據(jù)非常適合采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行流量分類。進(jìn)一步地,預(yù)處理后的流量數(shù)據(jù)規(guī)模和每張圖片的尺寸都類似于MNIST手寫體識別數(shù)據(jù)信息,因此本文采用LeNet-5[10]的CNN結(jié)構(gòu),模型結(jié)構(gòu)如圖2所示。流量數(shù)據(jù)處理的具體過程如下。首先輸入層接收IDX格式的流量圖像信息,并適當(dāng)調(diào)整像素值,讓其由0~255直接轉(zhuǎn)換為0~1,實現(xiàn)歸一化。在卷積層C1運算處理時,流量數(shù)據(jù)經(jīng)過卷積層C1,由尺寸為5×5的卷積核進(jìn)行處理。由于C1層共具有32個通道,所以最終會生成32個尺寸為28×28的特征圖。經(jīng)過處理的特征圖進(jìn)入池化層P1,該層會對特征圖進(jìn)行一次2×2的最大值池化處理,最終生成為32個尺寸為14×14的特征圖。經(jīng)過池化操作的特征圖進(jìn)入第二個卷積層C2,該卷積層的卷積核尺寸與C1相同,都是5×5,但是該層共具有64個通道,所以最后會生成64個尺寸為14×14的特征圖。然后進(jìn)入第二個池化層P2,在此層會對特征圖進(jìn)行2×2的最大值池化操作,與P1層操作相同,所以共生成64個7×7的特征圖;接著會被兩個全連接層處理,最后輸出數(shù)據(jù)其輸出節(jié)點數(shù)分別為1 024和10。最后,使用一個Softmax函數(shù)將輸出結(jié)果轉(zhuǎn)換為0~1的概率值。CNN各層輸入、輸出及參數(shù)設(shè)置如表1所示。
本文編號:3287661
本文鏈接:http://sikaile.net/guanlilunwen/ydhl/3287661.html
最近更新
教材專著