一種硬盤故障預測的非監(jiān)督對抗學習方法
發(fā)布時間:2020-12-18 05:11
為解決傳統(tǒng)監(jiān)督學習方法在不均衡數(shù)據(jù)集異常檢測上易出現(xiàn)過擬合的問題,提出一種非監(jiān)督對抗學習方法用于硬盤故障預測。該方法使用長短期記憶神經網絡和全連接層設計了一種可進行二次編碼的自編碼器,只需使用正常樣本進行訓練,通過減小樣本重構誤差和潛在向量之間的距離,使模型學習正常樣本的數(shù)據(jù)分布,從而提高了模型的泛化能力。模型中還引入生成式對抗網絡增強非監(jiān)督學習的效果。在多個數(shù)據(jù)集上的對比實驗顯示,該方法對異常樣本的召回率和精確度都高于傳統(tǒng)的監(jiān)督學習和半監(jiān)督學習分類器,泛化能力更強。所以,該非監(jiān)督對抗學習方法在硬盤故障預測上是有效的。
【文章來源】:西安電子科技大學學報. 2020年02期 北大核心
【文章頁數(shù)】:8 頁
【部分圖文】:
模型的網絡結構
圖1 模型的網絡結構樣本X通過生成器得到樣本的重構,并在第1次編碼時生成潛在向量z,z=fEnc1(X),且z∈Rm,m是z的維度;經由編碼器2的二次編碼生成潛在向量的重構。訓練時不斷減小兩個重構誤差,學習樣本在樣本空間X和潛在向量空間z上的分布。由于樣本層的重構誤差容易受到噪聲干擾,影響檢測效果,所以在檢測階段不再使用樣本層的重構誤差作為異常檢測依據(jù),而是使用更深層的潛在向量的重構誤差作為異常檢測的依據(jù),這樣可以大大提高模型的抗干擾能力。生成式對抗網絡為模型加入對抗學習,通過交替訓練可以得到更好的生成器。
對于3種深度學習方法GANomaly、LSTM-CNN和LSTM-FC,實驗中保留了在驗證階段的感受性曲線和異常分數(shù)的分布圖(為使圖形更加直觀,進行了取對數(shù)處理),分別如圖3和圖4所示。圖4 各模型在NM007數(shù)據(jù)集上異常分數(shù)的分布圖
本文編號:2923417
【文章來源】:西安電子科技大學學報. 2020年02期 北大核心
【文章頁數(shù)】:8 頁
【部分圖文】:
模型的網絡結構
圖1 模型的網絡結構樣本X通過生成器得到樣本的重構,并在第1次編碼時生成潛在向量z,z=fEnc1(X),且z∈Rm,m是z的維度;經由編碼器2的二次編碼生成潛在向量的重構。訓練時不斷減小兩個重構誤差,學習樣本在樣本空間X和潛在向量空間z上的分布。由于樣本層的重構誤差容易受到噪聲干擾,影響檢測效果,所以在檢測階段不再使用樣本層的重構誤差作為異常檢測依據(jù),而是使用更深層的潛在向量的重構誤差作為異常檢測的依據(jù),這樣可以大大提高模型的抗干擾能力。生成式對抗網絡為模型加入對抗學習,通過交替訓練可以得到更好的生成器。
對于3種深度學習方法GANomaly、LSTM-CNN和LSTM-FC,實驗中保留了在驗證階段的感受性曲線和異常分數(shù)的分布圖(為使圖形更加直觀,進行了取對數(shù)處理),分別如圖3和圖4所示。圖4 各模型在NM007數(shù)據(jù)集上異常分數(shù)的分布圖
本文編號:2923417
本文鏈接:http://sikaile.net/kejilunwen/jisuanjikexuelunwen/2923417.html
最近更新
教材專著