類圖像處理面向大數(shù)據(jù)XSS入侵智能檢測(cè)研究
發(fā)布時(shí)間:2021-02-18 17:10
通過類圖像處理方法對(duì)訪問流量語料庫大數(shù)據(jù)進(jìn)行詞向量化處理,實(shí)現(xiàn)面向大數(shù)據(jù)XSS入侵智能檢測(cè)研究。利用類圖像處理方法進(jìn)行數(shù)據(jù)獲取、數(shù)據(jù)清洗、數(shù)據(jù)抽樣、特征提取等數(shù)據(jù)預(yù)處理;設(shè)計(jì)基于神經(jīng)網(wǎng)絡(luò)的詞向量化算法,實(shí)現(xiàn)詞向量化得到詞向量大數(shù)據(jù);通過理論分析和推導(dǎo),實(shí)現(xiàn)多種不同深度的深層神經(jīng)網(wǎng)絡(luò)智能檢測(cè)算法;設(shè)計(jì)不同的超參數(shù)并進(jìn)行反復(fù)的實(shí)驗(yàn),分別得到最高識(shí)別率、最低識(shí)別率、識(shí)別率均值、方差、標(biāo)準(zhǔn)差、識(shí)別率變化曲線圖和平均絕對(duì)誤差變化曲線圖等結(jié)果。實(shí)驗(yàn)結(jié)果表明,該方法具有識(shí)別率高、穩(wěn)定性好、總體性能優(yōu)良等特點(diǎn)。
【文章來源】:計(jì)算機(jī)應(yīng)用與軟件. 2020,37(02)北大核心
【文章頁數(shù)】:7 頁
【部分圖文】:
類圖像處理大數(shù)據(jù)日志文本向量化原理圖
(2) 構(gòu)建基于神經(jīng)網(wǎng)絡(luò)的詞向量化模型結(jié)構(gòu)[5-9],包括輸入層、投射層和輸出層,利用輸入樣本,訓(xùn)練模型,獲得分布式詞向量,相應(yīng)模型及訓(xùn)練過程如圖2所示。(3) 統(tǒng)計(jì)正樣本詞集,用詞頻最高的3 000個(gè)詞構(gòu)成詞庫,其他標(biāo)記為“COM”,本文設(shè)定分布式特征向量為128維度,當(dāng)前詞與預(yù)測(cè)詞最大窗口距離為5,64個(gè)噪聲詞,進(jìn)行5次迭代。
表1 各深層DNNs對(duì)第Ⅰ類大數(shù)據(jù)集進(jìn)行20次實(shí)驗(yàn)得到的識(shí)別率 深度 3 4 5 6 7 1 0.988 1 0.991 1 0.989 5 0.983 9 0.989 0 2 0.993 6 0.993 6 0.993 7 0.993 8 0.993 5 3 0.994 1 0.993 9 0.993 5 0.994 0 0.993 5 4 0.994 6 0.993 9 0.993 8 0.993 0 0.993 6 5 0.994 5 0.994 5 0.994 4 0.993 6 0.993 6 6 0.994 5 0.994 6 0.994 7 0.993 9 0.993 8 7 0.994 5 0.994 7 0.994 7 0.994 2 0.993 6 8 0.994 5 0.994 8 0.994 7 0.994 3 0.993 9 9 0.994 6 0.994 9 0.994 9 0.994 4 0.994 1 10 0.994 9 0.994 8 0.995 1 0.994 4 0.994 3 11 0.995 2 0.994 8 0.995 1 0.994 3 0.994 4 12 0.995 2 0.995 1 0.995 2 0.992 2 0.994 3 13 0.995 3 0.994 8 0.995 0 0.992 6 0.994 4 14 0.995 2 0.994 9 0.994 7 0.993 1 0.994 4 15 0.995 1 0.995 2 0.994 6 0.993 1 0.992 5 16 0.995 5 0.995 4 0.995 0 0.993 1 0.987 0 17 0.995 0 0.995 4 0.994 8 0.993 1 0.988 1 18 0.995 1 0.995 1 0.994 8 0.993 1 0.990 9 19 0.995 4 0.994 5 0.994 3 0.993 1 0.990 9 20 0.995 5 0.995 1 0.995 0 0.993 1 0.990 9(2) 基于各深層DNN設(shè)計(jì)不同的超參數(shù),對(duì)第Ⅱ類大數(shù)據(jù)集進(jìn)行20次實(shí)驗(yàn)得到的識(shí)別率如表2所示�?梢钥闯�,最低識(shí)別率為0.986 4,最高識(shí)別率為0.999 0,識(shí)別率隨著訓(xùn)練次數(shù)的增加而增加,最后也趨于穩(wěn)定。曲線展示如圖4所示。
本文編號(hào):3039845
【文章來源】:計(jì)算機(jī)應(yīng)用與軟件. 2020,37(02)北大核心
【文章頁數(shù)】:7 頁
【部分圖文】:
類圖像處理大數(shù)據(jù)日志文本向量化原理圖
(2) 構(gòu)建基于神經(jīng)網(wǎng)絡(luò)的詞向量化模型結(jié)構(gòu)[5-9],包括輸入層、投射層和輸出層,利用輸入樣本,訓(xùn)練模型,獲得分布式詞向量,相應(yīng)模型及訓(xùn)練過程如圖2所示。(3) 統(tǒng)計(jì)正樣本詞集,用詞頻最高的3 000個(gè)詞構(gòu)成詞庫,其他標(biāo)記為“COM”,本文設(shè)定分布式特征向量為128維度,當(dāng)前詞與預(yù)測(cè)詞最大窗口距離為5,64個(gè)噪聲詞,進(jìn)行5次迭代。
表1 各深層DNNs對(duì)第Ⅰ類大數(shù)據(jù)集進(jìn)行20次實(shí)驗(yàn)得到的識(shí)別率 深度 3 4 5 6 7 1 0.988 1 0.991 1 0.989 5 0.983 9 0.989 0 2 0.993 6 0.993 6 0.993 7 0.993 8 0.993 5 3 0.994 1 0.993 9 0.993 5 0.994 0 0.993 5 4 0.994 6 0.993 9 0.993 8 0.993 0 0.993 6 5 0.994 5 0.994 5 0.994 4 0.993 6 0.993 6 6 0.994 5 0.994 6 0.994 7 0.993 9 0.993 8 7 0.994 5 0.994 7 0.994 7 0.994 2 0.993 6 8 0.994 5 0.994 8 0.994 7 0.994 3 0.993 9 9 0.994 6 0.994 9 0.994 9 0.994 4 0.994 1 10 0.994 9 0.994 8 0.995 1 0.994 4 0.994 3 11 0.995 2 0.994 8 0.995 1 0.994 3 0.994 4 12 0.995 2 0.995 1 0.995 2 0.992 2 0.994 3 13 0.995 3 0.994 8 0.995 0 0.992 6 0.994 4 14 0.995 2 0.994 9 0.994 7 0.993 1 0.994 4 15 0.995 1 0.995 2 0.994 6 0.993 1 0.992 5 16 0.995 5 0.995 4 0.995 0 0.993 1 0.987 0 17 0.995 0 0.995 4 0.994 8 0.993 1 0.988 1 18 0.995 1 0.995 1 0.994 8 0.993 1 0.990 9 19 0.995 4 0.994 5 0.994 3 0.993 1 0.990 9 20 0.995 5 0.995 1 0.995 0 0.993 1 0.990 9(2) 基于各深層DNN設(shè)計(jì)不同的超參數(shù),對(duì)第Ⅱ類大數(shù)據(jù)集進(jìn)行20次實(shí)驗(yàn)得到的識(shí)別率如表2所示�?梢钥闯�,最低識(shí)別率為0.986 4,最高識(shí)別率為0.999 0,識(shí)別率隨著訓(xùn)練次數(shù)的增加而增加,最后也趨于穩(wěn)定。曲線展示如圖4所示。
本文編號(hào):3039845
本文鏈接:http://sikaile.net/guanlilunwen/ydhl/3039845.html
最近更新
教材專著