基于改進(jìn)LSTM的股價預(yù)測研究
發(fā)布時間:2021-12-16 16:51
股票投資是當(dāng)代社會的比較流行的投資手段之一。伴隨著較高的期望收益,其所具有的高風(fēng)險也不容忽視。不斷尋找最優(yōu)的投資思路是投資者趨吉避兇、規(guī)避投資風(fēng)險的現(xiàn)實需求。投資者與研究人員一直致力于探尋股票價格的變化趨勢及變化規(guī)律,希望能夠相對準(zhǔn)確地預(yù)測未來的股票價格。從傳統(tǒng)的數(shù)據(jù)統(tǒng)計分析方法到現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)模型,都被研究人員用來研究股票價格變化問題。目前,基于長短期記憶神經(jīng)網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)進(jìn)行的擴(kuò)展研究是金融時間序列問題研究方法中比較好的一種。本文正是以LSTM模型為基礎(chǔ)對股票價格預(yù)測問題進(jìn)行了深入研究。為了解決以往實驗研究出現(xiàn)的過擬合,梯度消失,模型崩潰等問題,本文提出了一種基于LSTM-Adaboost改進(jìn)的預(yù)測模型。在模型結(jié)構(gòu)選擇方面,使用了Dropout機(jī)制,同時引入了L2正則項;在激活函數(shù)的選用方面,選用了PRe LU(Parametric Rectified Linear Unit)函數(shù),這樣能夠提高模型預(yù)測效果,增強(qiáng)模型適用性;在數(shù)值實驗部分,選用了兩只股票的價格數(shù)據(jù)以及OHLC-Avg、RSI、MTM和MA共四個主要預(yù)測指標(biāo),使得研...
【文章來源】:遼寧科技大學(xué)遼寧省
【文章頁數(shù)】:68 頁
【學(xué)位級別】:碩士
【部分圖文】:
線性可分SVMFig.2.1LinearlyseparableSVM
2.神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)102.機(jī)器學(xué)習(xí)與深度學(xué)習(xí)為了使研究更具可靠性和優(yōu)越性,文章在第五章選用了四個較為成熟且具有代表性的模型與本文提出的改進(jìn)模型進(jìn)行了對比。本章分別介紹了對比實驗的四個模型,并為第五章所需要的實驗作出了鋪墊。同時,對模型改進(jìn)的方法使用了深度學(xué)習(xí)方面的技術(shù),在本章也進(jìn)行了相應(yīng)的描述。2.1支持向量回歸機(jī)支持向量機(jī)(SupportVectorMachine,SVM)是支持向量回歸機(jī)的基矗SVM是由Comes和Vapnik首先于1995年提出的一種機(jī)器學(xué)習(xí)方法。SVM基于最優(yōu)邊界分類方法,采用結(jié)構(gòu)風(fēng)險最小化原則(StructureRiskMinimization,SRM)以找到置信風(fēng)險和經(jīng)驗風(fēng)險的中心點,因此在分析小樣本數(shù)據(jù)時SVM的分類可以做到很精確。同時,SVM是一個凸二次優(yōu)化問題,能保證找到的極值解就是全局最優(yōu)解,通過降低維度空間非線性樣本通過非線性映射轉(zhuǎn)化為高維度線性映射。支持向量機(jī)模型可以根據(jù)數(shù)據(jù)分成線性可分和線性不可分兩類,如圖2.1,圖2.2所示。圖2.1線性可分SVMFig.2.1LinearlyseparableSVM圖2.2線性不可分SVMFig.2.2Linearnon-separableSVM對于線性可分的SVM問題的解決辦法是使用核函數(shù),對于線性不可分的SVM問題的解決辦法是使用軟間隔和使用核函數(shù)升維的方式使得樣本在高維空間線性可分。而軟間隔方法的中心思想為加入松弛變量和懲罰因子,盡可能將原本線性不可分的數(shù)據(jù)進(jìn)行正確分類,在這里主要以講核函數(shù)為主。核函數(shù)是SVM的核心組成部分,同時SVM的預(yù)測模型的優(yōu)劣性也與核函數(shù)有很大聯(lián)系。SVM常用的核函數(shù)有以下4個[26]:
遼寧科技大學(xué)碩士學(xué)位論文29圖3.3Sigmoid函數(shù)的幾何圖形Fig.3.3ThegeometryoftheSigmoidfunction使用sigmoid激活函數(shù)可以使輸入的聯(lián)系變化的值變換成0~1之間的值進(jìn)行輸出,但對于特別大的正數(shù),輸出則會無限逼近于1;特別小的負(fù)數(shù),輸出則會無限趨近于0。在使用sigmoid激活函數(shù)時往往會出現(xiàn)梯度消失的現(xiàn)象,同時,對于sigmoid函數(shù)每次輸出的值都不是均值,這會造成后一層的神經(jīng)元在一定程度上會得到上一層全部非0的均值輸出之后輸出全為正數(shù)的情況。這樣的情況會丟失許多特征值,造成實驗訓(xùn)練不夠完善,實驗預(yù)測結(jié)果不夠準(zhǔn)確。替代了sigmoid函數(shù),目前很多人使用tanh函數(shù)來彌補(bǔ)sigmoid函數(shù)的一些缺陷。tanh函數(shù)改變了sigmoid函數(shù)的輸出,即在tanh函數(shù)作用下的輸出值是以零為中心的均值,其數(shù)學(xué)表達(dá)形式如式(3.15)、式(3.16),tanh函數(shù)的幾何圖形如圖3.4所示。()tanh()xxxxeefxxee==+(3.15)tanh(x)=2sigmoid(2x)1(3.16)圖3.4Tanh函數(shù)的幾何圖形Fig.3.4ThegeometryoftheTanhfunction
本文編號:3538484
【文章來源】:遼寧科技大學(xué)遼寧省
【文章頁數(shù)】:68 頁
【學(xué)位級別】:碩士
【部分圖文】:
線性可分SVMFig.2.1LinearlyseparableSVM
2.神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)102.機(jī)器學(xué)習(xí)與深度學(xué)習(xí)為了使研究更具可靠性和優(yōu)越性,文章在第五章選用了四個較為成熟且具有代表性的模型與本文提出的改進(jìn)模型進(jìn)行了對比。本章分別介紹了對比實驗的四個模型,并為第五章所需要的實驗作出了鋪墊。同時,對模型改進(jìn)的方法使用了深度學(xué)習(xí)方面的技術(shù),在本章也進(jìn)行了相應(yīng)的描述。2.1支持向量回歸機(jī)支持向量機(jī)(SupportVectorMachine,SVM)是支持向量回歸機(jī)的基矗SVM是由Comes和Vapnik首先于1995年提出的一種機(jī)器學(xué)習(xí)方法。SVM基于最優(yōu)邊界分類方法,采用結(jié)構(gòu)風(fēng)險最小化原則(StructureRiskMinimization,SRM)以找到置信風(fēng)險和經(jīng)驗風(fēng)險的中心點,因此在分析小樣本數(shù)據(jù)時SVM的分類可以做到很精確。同時,SVM是一個凸二次優(yōu)化問題,能保證找到的極值解就是全局最優(yōu)解,通過降低維度空間非線性樣本通過非線性映射轉(zhuǎn)化為高維度線性映射。支持向量機(jī)模型可以根據(jù)數(shù)據(jù)分成線性可分和線性不可分兩類,如圖2.1,圖2.2所示。圖2.1線性可分SVMFig.2.1LinearlyseparableSVM圖2.2線性不可分SVMFig.2.2Linearnon-separableSVM對于線性可分的SVM問題的解決辦法是使用核函數(shù),對于線性不可分的SVM問題的解決辦法是使用軟間隔和使用核函數(shù)升維的方式使得樣本在高維空間線性可分。而軟間隔方法的中心思想為加入松弛變量和懲罰因子,盡可能將原本線性不可分的數(shù)據(jù)進(jìn)行正確分類,在這里主要以講核函數(shù)為主。核函數(shù)是SVM的核心組成部分,同時SVM的預(yù)測模型的優(yōu)劣性也與核函數(shù)有很大聯(lián)系。SVM常用的核函數(shù)有以下4個[26]:
遼寧科技大學(xué)碩士學(xué)位論文29圖3.3Sigmoid函數(shù)的幾何圖形Fig.3.3ThegeometryoftheSigmoidfunction使用sigmoid激活函數(shù)可以使輸入的聯(lián)系變化的值變換成0~1之間的值進(jìn)行輸出,但對于特別大的正數(shù),輸出則會無限逼近于1;特別小的負(fù)數(shù),輸出則會無限趨近于0。在使用sigmoid激活函數(shù)時往往會出現(xiàn)梯度消失的現(xiàn)象,同時,對于sigmoid函數(shù)每次輸出的值都不是均值,這會造成后一層的神經(jīng)元在一定程度上會得到上一層全部非0的均值輸出之后輸出全為正數(shù)的情況。這樣的情況會丟失許多特征值,造成實驗訓(xùn)練不夠完善,實驗預(yù)測結(jié)果不夠準(zhǔn)確。替代了sigmoid函數(shù),目前很多人使用tanh函數(shù)來彌補(bǔ)sigmoid函數(shù)的一些缺陷。tanh函數(shù)改變了sigmoid函數(shù)的輸出,即在tanh函數(shù)作用下的輸出值是以零為中心的均值,其數(shù)學(xué)表達(dá)形式如式(3.15)、式(3.16),tanh函數(shù)的幾何圖形如圖3.4所示。()tanh()xxxxeefxxee==+(3.15)tanh(x)=2sigmoid(2x)1(3.16)圖3.4Tanh函數(shù)的幾何圖形Fig.3.4ThegeometryoftheTanhfunction
本文編號:3538484
本文鏈接:http://sikaile.net/guanlilunwen/huobilw/3538484.html
最近更新
教材專著