基于LSTM神經(jīng)網(wǎng)絡(luò)的多因子選股模型實(shí)證研究
【文章頁(yè)數(shù)】:44 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1RNN網(wǎng)絡(luò)架構(gòu)
圖2-1RNN網(wǎng)絡(luò)架構(gòu)圖2-1是一個(gè)全連接的只有一層隱藏層的RNN網(wǎng)絡(luò),圖中錯(cuò)綜復(fù)雜,難以理解。為了方便理解,學(xué)者們將RNN遵從時(shí)間輸入的先后順序展開(kāi),展開(kāi)后的結(jié)果如圖2-2所示。
圖2-2RNN網(wǎng)絡(luò)結(jié)構(gòu)展開(kāi)圖
11圖2-2RNN網(wǎng)絡(luò)結(jié)構(gòu)展開(kāi)圖從圖2-2RNN網(wǎng)絡(luò)結(jié)構(gòu)展開(kāi)圖可知,RNN存在三層結(jié)構(gòu),即輸入層x、隱藏層s和輸出層o。U、W、V均代表權(quán)重,依次表示輸入層到隱藏層的權(quán)重、前一個(gè)時(shí)刻隱藏層節(jié)點(diǎn)到后一個(gè)時(shí)刻隱藏層節(jié)點(diǎn)的權(quán)重和隱藏層到輸出層的權(quán)重。在任一時(shí)刻下,....
圖2-3LSTM網(wǎng)絡(luò)結(jié)構(gòu)cell圖
NN的信息傳播過(guò)程中沒(méi)有過(guò)濾和篩選,以至于隨著層數(shù)或距離面的信息很難傳播到較遠(yuǎn)的地方,出現(xiàn)梯度消失的問(wèn)題。M是SeppHochreiter和JurgenSchmidhuber為了解決RNN梯。LSTM之所以能解決RNN的梯度消失問(wèn)題是因?yàn)樗黾尤齨put....
圖3-1離群點(diǎn)處理結(jié)果
數(shù)據(jù)清理、數(shù)據(jù)集成、數(shù)據(jù)變換、數(shù)據(jù)規(guī)約等。數(shù)據(jù)清理是通過(guò)填充缺失值,噪聲,識(shí)別離群點(diǎn),糾正數(shù)據(jù)中的不一致性等步驟來(lái)處理臟數(shù)據(jù),綜上本研用數(shù)據(jù)清理這一方法處理數(shù)據(jù)。(1)離群點(diǎn)處理離群點(diǎn)是指一堆數(shù)據(jù)點(diǎn)在時(shí)間或者空間上,遠(yuǎn)離序列的普遍正常水平的那些值點(diǎn)(包括極大值和極小值)。異常值的....
本文編號(hào):3954814
本文鏈接:http://sikaile.net/jingjilunwen/hongguanjingjilunwen/3954814.html