基于門控遞歸單元自編碼神經(jīng)網(wǎng)絡(luò)的煤氣化裝置汽包異常工況預(yù)測
發(fā)布時(shí)間:2021-07-03 04:52
汽包液位是煤氣化裝置汽包過程的關(guān)鍵安全參數(shù),汽包工況反映了汽包過程的運(yùn)行狀態(tài),通過對汽包異常工況的預(yù)測,可以及時(shí)監(jiān)控相關(guān)的過程變量、降低事故發(fā)生的風(fēng)險(xiǎn),從而保障煤氣化裝置的安全運(yùn)行。針對難以獲得大量的汽包運(yùn)行數(shù)據(jù)異常樣本問題,本文提出了基于門控遞歸單元(Gated Recurrent Unit,GRU)自編碼神經(jīng)網(wǎng)絡(luò)的煤氣化裝置汽包異常工況預(yù)測方法,利用數(shù)據(jù)間的時(shí)序依賴性重構(gòu)異常樣本從而更好地分析樣本特征,論文的主要研究內(nèi)容及取得的成果如下:1.傳統(tǒng)自編碼神經(jīng)網(wǎng)絡(luò)由于缺少對異常數(shù)據(jù)時(shí)序依賴性的考慮,重構(gòu)的準(zhǔn)確性隨著序列長度的增加而減少,不適用于重構(gòu)長序列的異常數(shù)據(jù)。通過結(jié)合GRU神經(jīng)元優(yōu)秀的長時(shí)間記憶能力和非線性擬合能力,構(gòu)造GRU自編碼神經(jīng)網(wǎng)絡(luò),在異常數(shù)據(jù)重構(gòu)過程中將前一時(shí)刻狀態(tài)信息對當(dāng)前輸入數(shù)據(jù)的影響考慮其中,實(shí)現(xiàn)長序列異常數(shù)據(jù)的有效重構(gòu),采用TE(Tennessee Eastman)過程數(shù)據(jù)對GRU自編碼神經(jīng)網(wǎng)絡(luò)的故障數(shù)據(jù)重構(gòu)性能進(jìn)行了驗(yàn)證。2.通過對汽包數(shù)據(jù)特征分析,提出基于GRU自編碼神經(jīng)網(wǎng)絡(luò)的煤氣化裝置汽包異常液位預(yù)測方法,提早發(fā)現(xiàn)汽包液位超出正常閾值范圍變化的情況。GRU...
【文章來源】:北京化工大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:89 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-1汽包工藝流程圖??Fig.1-1?Steam?drum?process?flow?chart??
?北京化工大學(xué)碩士學(xué)位論文???輸入層(x)???…—穩(wěn)含層(h}??.?輸出層以)??I??pte??i……一.j?i????j?i???j??圖2-1循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2-1?Structures?of?recurrent?neural?networks??輸入層接收時(shí)序數(shù)據(jù)的輸入變量,然后將其傳遞到隱含層,隱含層節(jié)點(diǎn)的作用是??特征的非線性變換和特征空間的映射,從而輸出層輸出下一步預(yù)測的數(shù)據(jù)。循環(huán)神經(jīng)??網(wǎng)絡(luò)在時(shí)間維度上的展開結(jié)構(gòu),如圖2-2所示。??(yt)?|?(^)?(y)?¥p)??*?h?ht-i????ht????ht+i?—???圖2_2循環(huán)神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)展開??Fig.2-2?Unfolded?RNNs??循環(huán)神經(jīng)網(wǎng)絡(luò)具體運(yùn)算過程如下:??h,?=?tanh(^x,?+?Whhh,_x?+?bh)?式(2-1)??yt=g^,+by)?式(2-2)??其中tanh,g是激活函數(shù),是輸入層到隱含層的權(quán)值矩陣,%A是隱含層之間的權(quán)??值矩陣,&是隱含層到輸出層的權(quán)值矩陣,&和\是添加到隱含層和輸出層的偏差??向量,以這樣的方式實(shí)現(xiàn)數(shù)據(jù)隨時(shí)間傳遞的過程。傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)利用基于時(shí)間的??反向傳播算法(Back?Propagation?Through?Time,BPTT)對模型內(nèi)部的權(quán)值等重要參數(shù)進(jìn)??行迭代更新。BPTT前向傳播的公式如下:??a'y=HwhyK?式(2-3)??h=\??10??
?北京化工大學(xué)碩士學(xué)位論文???輸入層(x)???…—穩(wěn)含層(h}??.?輸出層以)??I??pte??i……一.j?i????j?i???j??圖2-1循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2-1?Structures?of?recurrent?neural?networks??輸入層接收時(shí)序數(shù)據(jù)的輸入變量,然后將其傳遞到隱含層,隱含層節(jié)點(diǎn)的作用是??特征的非線性變換和特征空間的映射,從而輸出層輸出下一步預(yù)測的數(shù)據(jù)。循環(huán)神經(jīng)??網(wǎng)絡(luò)在時(shí)間維度上的展開結(jié)構(gòu),如圖2-2所示。??(yt)?|?(^)?(y)?¥p)??*?h?ht-i????ht????ht+i?—???圖2_2循環(huán)神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)展開??Fig.2-2?Unfolded?RNNs??循環(huán)神經(jīng)網(wǎng)絡(luò)具體運(yùn)算過程如下:??h,?=?tanh(^x,?+?Whhh,_x?+?bh)?式(2-1)??yt=g^,+by)?式(2-2)??其中tanh,g是激活函數(shù),是輸入層到隱含層的權(quán)值矩陣,%A是隱含層之間的權(quán)??值矩陣,&是隱含層到輸出層的權(quán)值矩陣,&和\是添加到隱含層和輸出層的偏差??向量,以這樣的方式實(shí)現(xiàn)數(shù)據(jù)隨時(shí)間傳遞的過程。傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)利用基于時(shí)間的??反向傳播算法(Back?Propagation?Through?Time,BPTT)對模型內(nèi)部的權(quán)值等重要參數(shù)進(jìn)??行迭代更新。BPTT前向傳播的公式如下:??a'y=HwhyK?式(2-3)??h=\??10??
本文編號:3261906
【文章來源】:北京化工大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:89 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-1汽包工藝流程圖??Fig.1-1?Steam?drum?process?flow?chart??
?北京化工大學(xué)碩士學(xué)位論文???輸入層(x)???…—穩(wěn)含層(h}??.?輸出層以)??I??pte??i……一.j?i????j?i???j??圖2-1循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2-1?Structures?of?recurrent?neural?networks??輸入層接收時(shí)序數(shù)據(jù)的輸入變量,然后將其傳遞到隱含層,隱含層節(jié)點(diǎn)的作用是??特征的非線性變換和特征空間的映射,從而輸出層輸出下一步預(yù)測的數(shù)據(jù)。循環(huán)神經(jīng)??網(wǎng)絡(luò)在時(shí)間維度上的展開結(jié)構(gòu),如圖2-2所示。??(yt)?|?(^)?(y)?¥p)??*?h?ht-i????ht????ht+i?—???圖2_2循環(huán)神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)展開??Fig.2-2?Unfolded?RNNs??循環(huán)神經(jīng)網(wǎng)絡(luò)具體運(yùn)算過程如下:??h,?=?tanh(^x,?+?Whhh,_x?+?bh)?式(2-1)??yt=g^,+by)?式(2-2)??其中tanh,g是激活函數(shù),是輸入層到隱含層的權(quán)值矩陣,%A是隱含層之間的權(quán)??值矩陣,&是隱含層到輸出層的權(quán)值矩陣,&和\是添加到隱含層和輸出層的偏差??向量,以這樣的方式實(shí)現(xiàn)數(shù)據(jù)隨時(shí)間傳遞的過程。傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)利用基于時(shí)間的??反向傳播算法(Back?Propagation?Through?Time,BPTT)對模型內(nèi)部的權(quán)值等重要參數(shù)進(jìn)??行迭代更新。BPTT前向傳播的公式如下:??a'y=HwhyK?式(2-3)??h=\??10??
?北京化工大學(xué)碩士學(xué)位論文???輸入層(x)???…—穩(wěn)含層(h}??.?輸出層以)??I??pte??i……一.j?i????j?i???j??圖2-1循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2-1?Structures?of?recurrent?neural?networks??輸入層接收時(shí)序數(shù)據(jù)的輸入變量,然后將其傳遞到隱含層,隱含層節(jié)點(diǎn)的作用是??特征的非線性變換和特征空間的映射,從而輸出層輸出下一步預(yù)測的數(shù)據(jù)。循環(huán)神經(jīng)??網(wǎng)絡(luò)在時(shí)間維度上的展開結(jié)構(gòu),如圖2-2所示。??(yt)?|?(^)?(y)?¥p)??*?h?ht-i????ht????ht+i?—???圖2_2循環(huán)神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)展開??Fig.2-2?Unfolded?RNNs??循環(huán)神經(jīng)網(wǎng)絡(luò)具體運(yùn)算過程如下:??h,?=?tanh(^x,?+?Whhh,_x?+?bh)?式(2-1)??yt=g^,+by)?式(2-2)??其中tanh,g是激活函數(shù),是輸入層到隱含層的權(quán)值矩陣,%A是隱含層之間的權(quán)??值矩陣,&是隱含層到輸出層的權(quán)值矩陣,&和\是添加到隱含層和輸出層的偏差??向量,以這樣的方式實(shí)現(xiàn)數(shù)據(jù)隨時(shí)間傳遞的過程。傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)利用基于時(shí)間的??反向傳播算法(Back?Propagation?Through?Time,BPTT)對模型內(nèi)部的權(quán)值等重要參數(shù)進(jìn)??行迭代更新。BPTT前向傳播的公式如下:??a'y=HwhyK?式(2-3)??h=\??10??
本文編號:3261906
本文鏈接:http://sikaile.net/projectlw/hxgylw/3261906.html
最近更新
教材專著