基于長短期記憶神經(jīng)網(wǎng)絡(luò)的空氣質(zhì)量預(yù)測系統(tǒng)設(shè)計
【文章頁數(shù)】:60 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1RNN的結(jié)構(gòu)
河北科技大學(xué)碩士學(xué)位論文10調(diào)整。BP網(wǎng)絡(luò)算法以均方誤差達(dá)到最小值為目的,此過程通過反向傳播實現(xiàn)的。2.2.4遞歸神經(jīng)網(wǎng)絡(luò)遞歸神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,簡稱RNN)是一種循環(huán)網(wǎng)絡(luò)。RNN的結(jié)構(gòu)圖如2-1所示,t表示當(dāng)前時刻,表示輸入層、表示隱含層、表....
圖2-3遺忘門示意圖
第2章相關(guān)理論概述11圖2-2LSTM結(jié)構(gòu)示意圖(1)遺忘門遺忘門通過Sigmoid函數(shù)使用先前的輸出1和當(dāng)前輸入來輸出。輸出范圍是0到1。然后,Sigmoid函數(shù)將發(fā)送到稱為1的當(dāng)前單元格。遺忘門如圖2-3所示。圖2-3遺忘門示意圖(2)輸入門輸入門需要建立一個新的向量來添加新....
圖2-4輸入門示意圖
第2章相關(guān)理論概述11圖2-2LSTM結(jié)構(gòu)示意圖(1)遺忘門遺忘門通過Sigmoid函數(shù)使用先前的輸出1和當(dāng)前輸入來輸出。輸出范圍是0到1。然后,Sigmoid函數(shù)將發(fā)送到稱為1的當(dāng)前單元格。遺忘門如圖2-3所示。圖2-3遺忘門示意圖(2)輸入門輸入門需要建立一個新的向量來添加新....
圖2-5輸出門示意圖
河北科技大學(xué)碩士學(xué)位論文12分[53]。輸出門如圖2-5所示。圖2-5輸出門示意圖(4)記憶單元函數(shù)然后舊單元將更新狀態(tài),舊狀態(tài)1乘以,它可以丟棄需要丟棄的信息。通過添加×給出的信息,它創(chuàng)建了一個新的候選值。更新函數(shù)如圖2-6所示。圖2-6記憶單元函數(shù)示意圖三個門的功能如(2-1....
本文編號:3965046
本文鏈接:http://sikaile.net/wenshubaike/qiuzhijiqiao/3965046.html