基于深度學習的網(wǎng)絡(luò)協(xié)議漏洞挖掘方法研究
發(fā)布時間:2021-08-30 23:56
隨著互聯(lián)網(wǎng)時代的發(fā)展,網(wǎng)絡(luò)安全問題的重要性與日劇增,而網(wǎng)絡(luò)協(xié)議作為互聯(lián)網(wǎng)中的基礎(chǔ)設(shè)施,其安全性尤為重要。漏洞挖掘技術(shù)能夠提前發(fā)現(xiàn)潛在安全漏洞。主動挖掘漏洞,防范于未然,是維持網(wǎng)絡(luò)安全重要手段。在針對網(wǎng)絡(luò)協(xié)議的漏洞挖掘方法中,模糊測試是如今最常用也最有效的方法。而模糊測試中測試用例的有效性是發(fā)現(xiàn)協(xié)議或系統(tǒng)未知漏洞的關(guān)鍵。為了提供有效的測試用例,研究者通常會學習并且分析某待測網(wǎng)絡(luò)協(xié)議的格式規(guī)范,然后基于網(wǎng)絡(luò)協(xié)議規(guī)范的先驗知識生成測試用例,對具體的網(wǎng)絡(luò)協(xié)議實現(xiàn)進行模糊測試。然而對各種不同協(xié)議的人工分析需要耗費一定的人力和時間,這也在一定程度上降低了網(wǎng)絡(luò)協(xié)議漏洞挖掘的效率。因此,本文設(shè)計了一種基于模糊測試的網(wǎng)絡(luò)協(xié)議漏洞挖掘方法。該方法適用于各種網(wǎng)絡(luò)協(xié)議源碼的模糊測試,并通過深度學習方法省略了傳統(tǒng)網(wǎng)絡(luò)協(xié)議漏洞挖掘過程中的人工對網(wǎng)絡(luò)協(xié)議的分析。本文工作主要包含以下內(nèi)容:(1)針對測試用例的有效性問題,提出了一種基于深度學習的用例優(yōu)選模型與方法,該方法利用深度學習機制替代了對協(xié)議先驗知識獲取的過程,并且使用通用性的建模方式,從而適用于多種網(wǎng)絡(luò)協(xié)議測試用例的生成。(2)針對網(wǎng)絡(luò)協(xié)議的模糊測試問題,改進...
【文章來源】:電子科技大學四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:99 頁
【學位級別】:碩士
【部分圖文】:
AFL模糊測試方案
第二章漏洞挖掘與深度學習理論綜述列預測等。如圖2-2所示,其基本結(jié)構(gòu)為包含多個節(jié)點的輸入層,輸出層,以及具有多個層次,多個節(jié)點的使用多種方式連接的隱藏層。簡單來說,就是多層神經(jīng)元的組合網(wǎng)絡(luò)結(jié)構(gòu),其中每一層神經(jīng)元包含多個節(jié)點,層與層之間的節(jié)點互相連接。圖2-2神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)BP神經(jīng)網(wǎng)絡(luò)主要可以分為兩個過程,第一個是信號的前向傳播,信號從輸入層進入,經(jīng)過隱藏層,最后傳播到輸出層,第二個是誤差的反向傳播,即從輸出層方向傳播到隱藏層,最后到輸入層。在誤差反向傳播的過程中,BP算法依次調(diào)節(jié)各個神經(jīng)元的權(quán)重和閾值,最終完成模型的訓練。2.3.2卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)(ConcurrentNerualNetwork,CNN)是一種帶有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),最早是為了進行圖像預處理而設(shè)計出的一種模型。CNN網(wǎng)絡(luò)一般包括:(1)輸入層,通常是輸入的圖片等數(shù)據(jù)。(2)卷積層,包含用于卷積計算的過濾器。當給定一張新圖時,CNN并不能準確地知道這些特征到底要匹配原圖的哪些部分,所以它會在原圖中把每一個可能的位置都進行嘗試,相當于把這個特征變成了一個過濾器。(3)池化層,用于縮減矩陣,減少參數(shù)數(shù)量。對于圖片來說,池化就是將輸入圖像進行縮小,減少像素信息,只保留重要信息。(4)全連接層,即全連接的神經(jīng)網(wǎng)絡(luò),在整個卷積神經(jīng)網(wǎng)絡(luò)中起到分類器的作用,即通過卷積,池化等過程后,再經(jīng)過全連接層對結(jié)果進行識別分類。(5)輸出層,用于分類輸出。卷積神經(jīng)網(wǎng)絡(luò)本質(zhì)上是一種從輸入到輸出的映射,它能夠?qū)W習大量的輸入與15
墓亓?。哉~脹ǖ納窬??韁校?閿氬闃?淶慕詰閌腔ハ嗔?擁模?歡??一網(wǎng)絡(luò)層的節(jié)點之間卻是互不關(guān)聯(lián)的。因此,它不能夠很好的表達在同一層的節(jié)點的關(guān)聯(lián)性,即序列數(shù)據(jù)的前后關(guān)聯(lián)性。循環(huán)神經(jīng)網(wǎng)絡(luò)是具有時間聯(lián)結(jié)的前饋神經(jīng)網(wǎng)絡(luò),它們有了狀態(tài),通道與通道之間有了時間上的聯(lián)系。神經(jīng)元的輸入信息,不僅包括前一神經(jīng)細胞層的輸出,還包括它自身在先前通道的狀態(tài),如圖2-3所示,左側(cè)圖形就是RNN模型的基本結(jié)構(gòu),而右側(cè)就是它在時間上進行展開的示意圖。xt是時刻t的輸入,相應的ht,ot分別是對應時刻t的隱藏層和輸出層。圖2-3RNN模型基本結(jié)構(gòu)RNN基本模型的主要問題在于梯度爆炸和消失。同時,在前向過程中,開始時刻的輸入對后面時刻的影響越來越小,這就是長距離依賴問題。在生物體中,神經(jīng)元擁有對過去時序狀態(tài)很強的記憶能力。而RNN中的長距離依賴問題則導致該神經(jīng)網(wǎng)絡(luò)失去了記憶的能力。而后提出的長短期記憶(Long-ShortTermMemory,LSTM)模型就是要解決這兩個問題,該模型通過引入若干門來解決,相比RNN多了一個狀態(tài)。這個狀態(tài)用16
本文編號:3373759
【文章來源】:電子科技大學四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:99 頁
【學位級別】:碩士
【部分圖文】:
AFL模糊測試方案
第二章漏洞挖掘與深度學習理論綜述列預測等。如圖2-2所示,其基本結(jié)構(gòu)為包含多個節(jié)點的輸入層,輸出層,以及具有多個層次,多個節(jié)點的使用多種方式連接的隱藏層。簡單來說,就是多層神經(jīng)元的組合網(wǎng)絡(luò)結(jié)構(gòu),其中每一層神經(jīng)元包含多個節(jié)點,層與層之間的節(jié)點互相連接。圖2-2神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)BP神經(jīng)網(wǎng)絡(luò)主要可以分為兩個過程,第一個是信號的前向傳播,信號從輸入層進入,經(jīng)過隱藏層,最后傳播到輸出層,第二個是誤差的反向傳播,即從輸出層方向傳播到隱藏層,最后到輸入層。在誤差反向傳播的過程中,BP算法依次調(diào)節(jié)各個神經(jīng)元的權(quán)重和閾值,最終完成模型的訓練。2.3.2卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)(ConcurrentNerualNetwork,CNN)是一種帶有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),最早是為了進行圖像預處理而設(shè)計出的一種模型。CNN網(wǎng)絡(luò)一般包括:(1)輸入層,通常是輸入的圖片等數(shù)據(jù)。(2)卷積層,包含用于卷積計算的過濾器。當給定一張新圖時,CNN并不能準確地知道這些特征到底要匹配原圖的哪些部分,所以它會在原圖中把每一個可能的位置都進行嘗試,相當于把這個特征變成了一個過濾器。(3)池化層,用于縮減矩陣,減少參數(shù)數(shù)量。對于圖片來說,池化就是將輸入圖像進行縮小,減少像素信息,只保留重要信息。(4)全連接層,即全連接的神經(jīng)網(wǎng)絡(luò),在整個卷積神經(jīng)網(wǎng)絡(luò)中起到分類器的作用,即通過卷積,池化等過程后,再經(jīng)過全連接層對結(jié)果進行識別分類。(5)輸出層,用于分類輸出。卷積神經(jīng)網(wǎng)絡(luò)本質(zhì)上是一種從輸入到輸出的映射,它能夠?qū)W習大量的輸入與15
墓亓?。哉~脹ǖ納窬??韁校?閿氬闃?淶慕詰閌腔ハ嗔?擁模?歡??一網(wǎng)絡(luò)層的節(jié)點之間卻是互不關(guān)聯(lián)的。因此,它不能夠很好的表達在同一層的節(jié)點的關(guān)聯(lián)性,即序列數(shù)據(jù)的前后關(guān)聯(lián)性。循環(huán)神經(jīng)網(wǎng)絡(luò)是具有時間聯(lián)結(jié)的前饋神經(jīng)網(wǎng)絡(luò),它們有了狀態(tài),通道與通道之間有了時間上的聯(lián)系。神經(jīng)元的輸入信息,不僅包括前一神經(jīng)細胞層的輸出,還包括它自身在先前通道的狀態(tài),如圖2-3所示,左側(cè)圖形就是RNN模型的基本結(jié)構(gòu),而右側(cè)就是它在時間上進行展開的示意圖。xt是時刻t的輸入,相應的ht,ot分別是對應時刻t的隱藏層和輸出層。圖2-3RNN模型基本結(jié)構(gòu)RNN基本模型的主要問題在于梯度爆炸和消失。同時,在前向過程中,開始時刻的輸入對后面時刻的影響越來越小,這就是長距離依賴問題。在生物體中,神經(jīng)元擁有對過去時序狀態(tài)很強的記憶能力。而RNN中的長距離依賴問題則導致該神經(jīng)網(wǎng)絡(luò)失去了記憶的能力。而后提出的長短期記憶(Long-ShortTermMemory,LSTM)模型就是要解決這兩個問題,該模型通過引入若干門來解決,相比RNN多了一個狀態(tài)。這個狀態(tài)用16
本文編號:3373759
本文鏈接:http://sikaile.net/guanlilunwen/ydhl/3373759.html
最近更新
教材專著