隨機(jī)金融價(jià)格深度學(xué)習(xí)預(yù)測模型與統(tǒng)計(jì)分析
發(fā)布時間:2020-07-14 23:42
【摘要】:近年隨著人工智能的發(fā)展,神經(jīng)網(wǎng)絡(luò)模型及深度學(xué)習(xí)在各個領(lǐng)域引起了廣泛的關(guān)注,利用神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)模型擬合和預(yù)測時間序列也成為一些科學(xué)研究熱門課題。鑒于人工神經(jīng)網(wǎng)絡(luò)在金融經(jīng)濟(jì)預(yù)測領(lǐng)域的應(yīng)用前景,提高其預(yù)測精度具有十分重要的意義。本文提出了一種新的,由復(fù)雜度不變距離(CID)控制的學(xué)習(xí)率結(jié)構(gòu),通常CID被用來測量兩個時間序列之間差異復(fù)雜度。此外,隨機(jī)時效性神經(jīng)網(wǎng)絡(luò)(STNN)是一種用于預(yù)測時間序列的有監(jiān)督模型;谏鲜鰞煞N理論,本文提出了一種新的神經(jīng)網(wǎng)絡(luò)模型(CID-STN)以提高預(yù)測精度。同時為深入比較CID-STNN和STNN的預(yù)測性能,將時間序列分解為若干本真模函數(shù),并利用這些本真模函數(shù)對模型進(jìn)行訓(xùn)練。此外,對模型進(jìn)行了交叉檢驗(yàn)以調(diào)整超參數(shù),在避免過擬合的前提下評估模型的預(yù)測能力,說明了 CID-STNN模型的相對有效性和優(yōu)越性。為了提高金融市場價(jià)格波動預(yù)測的準(zhǔn)確性,本文將長短記憶型神經(jīng)網(wǎng)絡(luò)(LSTM)深度學(xué)習(xí)模型應(yīng)用于金融時間序列擬合。在傳統(tǒng)的長短記憶型神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域,比如自然語言處理語義分析等,為提高其訓(xùn)練精度使用大量的數(shù)據(jù)訓(xùn)練是一種常規(guī)做法。為了通過擴(kuò)展訓(xùn)練集的大小來提高預(yù)測精度,遷移學(xué)習(xí)提供了一種啟發(fā)式的數(shù)據(jù)擴(kuò)展方法。此外考慮到每一個歷史數(shù)據(jù)的等價(jià)性來訓(xùn)練長期短期記憶,很難反映金融市場真實(shí)準(zhǔn)確的變化。本文創(chuàng)新地提出了一種具有先驗(yàn)經(jīng)驗(yàn)的數(shù)據(jù)遷移算法,它提供了一種更有效的數(shù)據(jù)擴(kuò)展思路。為了深入比較初始數(shù)據(jù)和數(shù)據(jù)遷移后的預(yù)測性能訓(xùn)練性能,將時間序列分解為若干本真模函數(shù),并利用這些本真模函數(shù)對模型進(jìn)行訓(xùn)練。通過評價(jià)該模型的預(yù)測能力,對西德克薩斯輕質(zhì)原油(WTI)、布倫特原油(Brent)的預(yù)測效果進(jìn)行了實(shí)證研究,并證明了其相應(yīng)的優(yōu)越性。
【學(xué)位授予單位】:北京交通大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:F224;F830
【圖文】:
圖1.神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu).逡逑Fig.邋1.邋Topology邋of邋neural邋network邋for邋BPNN邋architecture.逡逑圖1展示了三層的BPNN結(jié)構(gòu),該BPNN模型的結(jié)構(gòu)為mx/ixl,這意味著逡逑輸入層的節(jié)點(diǎn)數(shù)為m,隱藏層的神經(jīng)元個數(shù)選擇《個,輸出層由一個單獨(dú)的神逡逑4逡逑
第2章CID隨機(jī)時效性神經(jīng)網(wǎng)絡(luò)逡逑說,C/認(rèn)會隨著迭代次數(shù)&增加而下降,而C/認(rèn)下降導(dǎo)致;7下降,直接降低逡逑梯度下降的收斂速度。圖2顯示了學(xué)習(xí)率隨著迭代次數(shù)增加而發(fā)生的變化,可逡逑以明顯地從圖中看出趨勢;7隨著迭代次數(shù)的增加下降到一個較低的水平。逡逑0.161邐I邐i邐i邐I邐I邐I邐I邐I邐i逡逑0.14邋-邐0邋different邋learning邋rate邋-逡逑012-邐77邋=邋0邋006邋xCID/b邐-逡逑5邋01邋-邐'逡逑0)邋0邐'%>.逡逑c邋0邋08邋-邐_邐-逡逑-逡逑002邋,逡逑Q邐^^I—逡逑0邐10邐20邐30邐40邐50邐60邐70邐80邐90邐100逡逑Iteration邋times逡逑圖2.每次迭代步驟所對應(yīng)的學(xué)習(xí)率.逡逑Fig.邋2.邋Learning邋rate邋for邋every邋iterative邋step.逡逑圖3說明了擬議的CID-STNN預(yù)測系統(tǒng)的偽代碼和算法程序,具體通過以下逡逑五個步驟進(jìn)行說明:逡逑?S啤入?執(zhí)行輸入訓(xùn)練集D邋=邋{(:^辦,…,尤?,,:^+]):邋r邋=邋1,...,M},并輸入學(xué)習(xí)率逡逑和神經(jīng)元數(shù)量等超參數(shù),這些參數(shù)在程序前通過交叉驗(yàn)證進(jìn)行確認(rèn)。逡逑S^p2.?規(guī)范數(shù)據(jù)集,初始化CID-STNN中的所有權(quán)重,使所有權(quán)重初始狀態(tài)都逡逑是隨機(jī)的并服從平均分布。逡逑3.?計(jì)算CID學(xué)習(xí)率,并使用這個新的學(xué)習(xí)率執(zhí)行訓(xùn)練模型。逡逑4:在計(jì)算CID之后,計(jì)算下一交易日的收盤價(jià),并計(jì)算局部誤差以及梯逡逑度
圖2.每次迭代步驟所對應(yīng)的學(xué)習(xí)率.逡逑Fig.邋2.邋Learning邋rate邋for邋every邋iterative邋step.逡逑圖3說明了擬議的CID-STNN預(yù)測系統(tǒng)的偽代碼和算法程序,具體通過以下逡逑五個步驟進(jìn)行說明:逡逑?S啤入?執(zhí)行輸入訓(xùn)練集D邋=邋{(:^辦,…,尤?,,:^+]):邋r邋=邋1,...,M},并輸入學(xué)習(xí)率逡逑和神經(jīng)元數(shù)量等超參數(shù),這些參數(shù)在程序前通過交叉驗(yàn)證進(jìn)行確認(rèn)。逡逑S^p2.?規(guī)范數(shù)據(jù)集,初始化CID-STNN中的所有權(quán)重,使所有權(quán)重初始狀態(tài)都逡逑是隨機(jī)的并服從平均分布。逡逑3.?計(jì)算CID學(xué)習(xí)率,并使用這個新的學(xué)習(xí)率執(zhí)行訓(xùn)練模型。逡逑4:在計(jì)算CID之后,計(jì)算下一交易日的收盤價(jià),并計(jì)算局部誤差以及梯逡逑度,并進(jìn)一步更新模型里的權(quán)重和偏置。逡逑5.?依次輸入測試集(test邋set)中的所有數(shù)據(jù)并循環(huán)上述過程,直到用完所有逡逑數(shù)據(jù)
本文編號:2755655
【學(xué)位授予單位】:北京交通大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:F224;F830
【圖文】:
圖1.神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu).逡逑Fig.邋1.邋Topology邋of邋neural邋network邋for邋BPNN邋architecture.逡逑圖1展示了三層的BPNN結(jié)構(gòu),該BPNN模型的結(jié)構(gòu)為mx/ixl,這意味著逡逑輸入層的節(jié)點(diǎn)數(shù)為m,隱藏層的神經(jīng)元個數(shù)選擇《個,輸出層由一個單獨(dú)的神逡逑4逡逑
第2章CID隨機(jī)時效性神經(jīng)網(wǎng)絡(luò)逡逑說,C/認(rèn)會隨著迭代次數(shù)&增加而下降,而C/認(rèn)下降導(dǎo)致;7下降,直接降低逡逑梯度下降的收斂速度。圖2顯示了學(xué)習(xí)率隨著迭代次數(shù)增加而發(fā)生的變化,可逡逑以明顯地從圖中看出趨勢;7隨著迭代次數(shù)的增加下降到一個較低的水平。逡逑0.161邐I邐i邐i邐I邐I邐I邐I邐I邐i逡逑0.14邋-邐0邋different邋learning邋rate邋-逡逑012-邐77邋=邋0邋006邋xCID/b邐-逡逑5邋01邋-邐'逡逑0)邋0邐'%>.逡逑c邋0邋08邋-邐_邐-逡逑-逡逑002邋,逡逑Q邐^^I—逡逑0邐10邐20邐30邐40邐50邐60邐70邐80邐90邐100逡逑Iteration邋times逡逑圖2.每次迭代步驟所對應(yīng)的學(xué)習(xí)率.逡逑Fig.邋2.邋Learning邋rate邋for邋every邋iterative邋step.逡逑圖3說明了擬議的CID-STNN預(yù)測系統(tǒng)的偽代碼和算法程序,具體通過以下逡逑五個步驟進(jìn)行說明:逡逑?S啤入?執(zhí)行輸入訓(xùn)練集D邋=邋{(:^辦,…,尤?,,:^+]):邋r邋=邋1,...,M},并輸入學(xué)習(xí)率逡逑和神經(jīng)元數(shù)量等超參數(shù),這些參數(shù)在程序前通過交叉驗(yàn)證進(jìn)行確認(rèn)。逡逑S^p2.?規(guī)范數(shù)據(jù)集,初始化CID-STNN中的所有權(quán)重,使所有權(quán)重初始狀態(tài)都逡逑是隨機(jī)的并服從平均分布。逡逑3.?計(jì)算CID學(xué)習(xí)率,并使用這個新的學(xué)習(xí)率執(zhí)行訓(xùn)練模型。逡逑4:在計(jì)算CID之后,計(jì)算下一交易日的收盤價(jià),并計(jì)算局部誤差以及梯逡逑度
圖2.每次迭代步驟所對應(yīng)的學(xué)習(xí)率.逡逑Fig.邋2.邋Learning邋rate邋for邋every邋iterative邋step.逡逑圖3說明了擬議的CID-STNN預(yù)測系統(tǒng)的偽代碼和算法程序,具體通過以下逡逑五個步驟進(jìn)行說明:逡逑?S啤入?執(zhí)行輸入訓(xùn)練集D邋=邋{(:^辦,…,尤?,,:^+]):邋r邋=邋1,...,M},并輸入學(xué)習(xí)率逡逑和神經(jīng)元數(shù)量等超參數(shù),這些參數(shù)在程序前通過交叉驗(yàn)證進(jìn)行確認(rèn)。逡逑S^p2.?規(guī)范數(shù)據(jù)集,初始化CID-STNN中的所有權(quán)重,使所有權(quán)重初始狀態(tài)都逡逑是隨機(jī)的并服從平均分布。逡逑3.?計(jì)算CID學(xué)習(xí)率,并使用這個新的學(xué)習(xí)率執(zhí)行訓(xùn)練模型。逡逑4:在計(jì)算CID之后,計(jì)算下一交易日的收盤價(jià),并計(jì)算局部誤差以及梯逡逑度,并進(jìn)一步更新模型里的權(quán)重和偏置。逡逑5.?依次輸入測試集(test邋set)中的所有數(shù)據(jù)并循環(huán)上述過程,直到用完所有逡逑數(shù)據(jù)
【參考文獻(xiàn)】
相關(guān)期刊論文 前2條
1 祁亨年;支持向量機(jī)及其應(yīng)用研究綜述[J];計(jì)算機(jī)工程;2004年10期
2 張學(xué)工;關(guān)于統(tǒng)計(jì)學(xué)習(xí)理論與支持向量機(jī)[J];自動化學(xué)報(bào);2000年01期
本文編號:2755655
本文鏈接:http://sikaile.net/jingjilunwen/hongguanjingjilunwen/2755655.html
最近更新
教材專著