基于CNN-LSTM的股票價(jià)格預(yù)測及量化選股研究
【文章頁數(shù)】:85 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖3-1M-P神經(jīng)元模型
第三章相關(guān)概念與理論基礎(chǔ)15高層的網(wǎng)絡(luò)表達(dá)由低層表達(dá)組合而成,通過這種方式實(shí)現(xiàn)對輸入數(shù)據(jù)的分級(jí)表達(dá)。由于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)隱藏層數(shù)量很多,從而能夠?qū)崿F(xiàn)無限逼近任何非線性函數(shù),便于對非線性問題進(jìn)行擬合研究。近年來,深度學(xué)習(xí)在很多研究領(lǐng)域突破了傳統(tǒng)機(jī)器學(xué)習(xí)的瓶頸,不斷推動(dòng)著人工智能的....
圖3-2三種常用的激活函數(shù)
西北大學(xué)碩士學(xué)位論文16的線性關(guān)系轉(zhuǎn)化為非線性關(guān)系,常用的激活函數(shù)有ReLU函數(shù)、sigmoid函數(shù)和tanh函數(shù),三種函數(shù)圖像如圖3-2所示。圖3-2三種常用的激活函數(shù)顯然,這三種激活函數(shù)圖像有很大差異因此各自特點(diǎn)也不同,ReLU函數(shù)能夠加快神經(jīng)網(wǎng)絡(luò)模型收斂速度,sigmoid....
圖3-3神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖
西北大學(xué)碩士學(xué)位論文16的線性關(guān)系轉(zhuǎn)化為非線性關(guān)系,常用的激活函數(shù)有ReLU函數(shù)、sigmoid函數(shù)和tanh函數(shù),三種函數(shù)圖像如圖3-2所示。圖3-2三種常用的激活函數(shù)顯然,這三種激活函數(shù)圖像有很大差異因此各自特點(diǎn)也不同,ReLU函數(shù)能夠加快神經(jīng)網(wǎng)絡(luò)模型收斂速度,sigmoid....
圖3-4模型不同擬合程度示意圖
較長的時(shí)間才能達(dá)到收斂,如果學(xué)習(xí)率太大,模型又有可能在最優(yōu)值附近徘徊而無法收斂,在實(shí)際中設(shè)定好初始學(xué)習(xí)率后,通過從大到小試錯(cuò)來確定模型的學(xué)習(xí)率。神經(jīng)網(wǎng)絡(luò)通過反向傳播誤差來調(diào)整模型內(nèi)部參數(shù),最終達(dá)到損失函數(shù)最小化,此時(shí)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練結(jié)束,接下來通過模型在樣本外數(shù)據(jù)上的預(yù)測表現(xiàn)來評(píng)....
本文編號(hào):3962064
本文鏈接:http://sikaile.net/jingjilunwen/jingjiguanlilunwen/3962064.html