基于CNN深度算法改進(jìn)及故障預(yù)測研究
【文章頁數(shù)】:6 頁
【部分圖文】:
圖1故障預(yù)測算法改進(jìn)示意圖
為了挖掘更多的信息量,在輸入序列和日志標(biāo)簽聯(lián)系的基礎(chǔ)上,基于輸入序列和輸出序列進(jìn)行建模,預(yù)測出新的信息源即輸出序列,利用I2、Ia、I1實現(xiàn)故障預(yù)測。算法改進(jìn)示意圖如圖1所示。(2)隨機(jī)梯度下降優(yōu)化算法的改進(jìn)。
圖2數(shù)據(jù)處理流程
(2)數(shù)據(jù)預(yù)處理:如前所述,直接采集初始時的日志像文本一樣包含內(nèi)容項多,不是可以直接用作卷積神經(jīng)網(wǎng)絡(luò)輸入的格式化數(shù)據(jù),因此會基于原始數(shù)據(jù)進(jìn)行處理以保留對象信息。制作出清洗后日志的單詞詞典,在此基礎(chǔ)上實現(xiàn)樣本的提取,做后期的訓(xùn)練和測試。預(yù)處理數(shù)據(jù)主要為三個部分:數(shù)據(jù)清洗、字典構(gòu)建和....
圖3卷積神經(jīng)網(wǎng)絡(luò)示意圖
用日志數(shù)據(jù)對模型進(jìn)行大量訓(xùn)練和測試,實現(xiàn)最優(yōu)化。與傳統(tǒng)CNN不同的是,文中除了CNN特有的三層處理外還包括針對文本處理的詞嵌入層。卷積神經(jīng)網(wǎng)絡(luò)示意圖如圖3所示。(1)詞嵌入層。
圖5CNN訓(xùn)練和測試流程示意圖
在預(yù)處理樣本中采取若干個獨立的小批量樣本,分別計算各自的梯度,通過這些樣本均值算出梯度的無偏估計值。1.4實驗
本文編號:3906263
本文鏈接:http://sikaile.net/guanlilunwen/ydhl/3906263.html