天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于小波變換的數(shù)據(jù)預(yù)處理和LSTM在股價(jià)預(yù)測中的應(yīng)用

發(fā)布時(shí)間:2022-01-04 06:55
  對(duì)于利潤最大化,基于模型的股票價(jià)格預(yù)測可以為投資者提供有價(jià)值的指導(dǎo)。然而,金融數(shù)據(jù)中存在高噪聲,使用原始數(shù)據(jù)訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)無法實(shí)現(xiàn)準(zhǔn)確地預(yù)測股票價(jià)格。為了解決這一問題,采用廣泛應(yīng)用于信號(hào)去噪的小波變換去噪方法對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)處理,實(shí)驗(yàn)結(jié)果表明,采用軟/硬閾值方法進(jìn)行數(shù)據(jù)預(yù)處理可以明顯抑制噪聲。在本課題研究中,主要工作有:首次提出使用小波變換的方法來對(duì)原始股票數(shù)據(jù)作預(yù)處理,并將預(yù)處理數(shù)據(jù)應(yīng)用于模型訓(xùn)練;改進(jìn)了原始的小波去噪方法,改進(jìn)后的方法進(jìn)行數(shù)據(jù)預(yù)處理的模型訓(xùn)練結(jié)果性能得到提升;此外,還提出了一種新的多優(yōu)化組合小波變換(MOCWT)方法,實(shí)驗(yàn)結(jié)果表明該方法對(duì)原始數(shù)據(jù)預(yù)處理的效果最好,在該方法中,提出了一種新的閾值去噪函數(shù)來對(duì)原始數(shù)據(jù)進(jìn)行預(yù)處理,以降低信號(hào)重構(gòu)中的失真程度。本課題實(shí)驗(yàn)中,利用小波預(yù)處理后的數(shù)據(jù)作為長短時(shí)記憶網(wǎng)絡(luò)(LSTM)模型的訓(xùn)練數(shù)據(jù)來進(jìn)行訓(xùn)練,從而進(jìn)行股價(jià)預(yù)測。LSTM是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),因?yàn)樗旧砭哂械莫?dú)特的“門循環(huán)”結(jié)構(gòu)使得LSTM更適合于處理和預(yù)測較長時(shí)間間距和時(shí)間序列延遲類的問題。LSTM是一種典型的非線性模型,通常被看作是一個(gè)復(fù)雜的非線性... 

【文章來源】:天津工業(yè)大學(xué)天津市

【文章頁數(shù)】:61 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于小波變換的數(shù)據(jù)預(yù)處理和LSTM在股價(jià)預(yù)測中的應(yīng)用


階躍函數(shù)圖像

示意圖,神經(jīng)元,示意圖,神經(jīng)網(wǎng)絡(luò)


天津工業(yè)大學(xué)碩士學(xué)位論文16有著重要意義。在感知機(jī)的訓(xùn)練過程中,對(duì)于訓(xùn)練樣本(x,y),感知機(jī)的權(quán)重會(huì)做如下調(diào)整:iiiwww公式(2-3)ii(xyyw)公式(2-4)其中η∈(0,1)為學(xué)習(xí)率,從上式中可以看出,感知機(jī)對(duì)于訓(xùn)練樣本的正確分類,即有yy,感知機(jī)將不做任何調(diào)整,反之,則根據(jù)錯(cuò)誤的程度進(jìn)行權(quán)重的調(diào)整。2.4.3前向傳播算法在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中,通常使用前向傳播算法[30]的計(jì)算得到神經(jīng)網(wǎng)絡(luò)的輸出。不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)的前向傳播方式也不盡相同,當(dāng)前大多神經(jīng)網(wǎng)絡(luò)所使用的前向傳播算法中,全連接的神經(jīng)網(wǎng)絡(luò)的前向傳播模式最為簡單。神經(jīng)網(wǎng)絡(luò)是由多個(gè)神經(jīng)元構(gòu)成,神經(jīng)元是構(gòu)成神經(jīng)網(wǎng)絡(luò)的最小單元,圖2-2是一個(gè)最簡單的神經(jīng)元結(jié)構(gòu)。圖2-2神經(jīng)元結(jié)構(gòu)示意圖圖2-2表明,一個(gè)神經(jīng)元可以有多個(gè)輸入和一個(gè)輸出,其中,除了其他神經(jīng)元的輸出可以作為神經(jīng)元的輸入以外,整個(gè)神經(jīng)網(wǎng)絡(luò)的輸入也可以作為神經(jīng)元的輸入。輸出是所有輸入的加權(quán)和,其中,不同的輸入的權(quán)重可作為神經(jīng)元的參數(shù)。所謂神經(jīng)網(wǎng)絡(luò)的優(yōu)化就是在訓(xùn)練過程中不斷地對(duì)神經(jīng)元中參數(shù)取值優(yōu)化的過程,如圖2-3是一個(gè)三層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖。

示意圖,神經(jīng)網(wǎng)絡(luò),示意圖,損失函數(shù)


第二章理論研究基礎(chǔ)及相關(guān)技術(shù)介紹17圖2-3三層神經(jīng)網(wǎng)絡(luò)前向傳播示意圖通常情況下,使用三部分信息即可求得神經(jīng)網(wǎng)絡(luò)前向傳播的計(jì)算結(jié)果。其中,必不可少的是神經(jīng)網(wǎng)絡(luò)的輸入,該輸入值可以是具體的特征向量,這些特征向量可以從實(shí)體中取得。此外,必須定義神經(jīng)網(wǎng)絡(luò)的內(nèi)部連接結(jié)構(gòu),該結(jié)構(gòu)指定了神經(jīng)網(wǎng)絡(luò)內(nèi)部不同神經(jīng)元之間的輸入輸出的關(guān)系,通常此結(jié)構(gòu)的設(shè)定是否合理對(duì)于神經(jīng)網(wǎng)絡(luò)解決特定問題的最終性能起到了重要的作用。最后一部分是神經(jīng)元的參數(shù),在圖2-3中,使用w來表示神經(jīng)元中的參數(shù),w的上下標(biāo)分別代表了神經(jīng)網(wǎng)絡(luò)的層數(shù)和連接點(diǎn)的編號(hào)。當(dāng)指定神經(jīng)網(wǎng)絡(luò)的輸入,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和邊上的權(quán)重時(shí),就可以通過前向傳播算法來計(jì)算出神經(jīng)網(wǎng)絡(luò)的輸出。2.4.4BP神經(jīng)網(wǎng)絡(luò)在深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中,一個(gè)較為合理的損失函數(shù)通常會(huì)被用來度量訓(xùn)練樣本的輸出損失,通過最小化這個(gè)損失函數(shù)的值的方式,來實(shí)現(xiàn)對(duì)整個(gè)神經(jīng)網(wǎng)絡(luò)的調(diào)整尋優(yōu)。在對(duì)損失函數(shù)優(yōu)化求極值的過程中,使用梯度下降法來逐步迭代完成優(yōu)化的方法較為普遍。其中,反向傳播[31]算法即為深度神經(jīng)網(wǎng)絡(luò)的損失函數(shù)采用梯度下降法來進(jìn)行迭代優(yōu)化求極小值的過程中的核心算法,被稱為誤差反向傳播神經(jīng)網(wǎng)絡(luò),簡稱BP神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)是被應(yīng)用于神經(jīng)網(wǎng)絡(luò)優(yōu)化中最普遍的神經(jīng)網(wǎng)絡(luò)模型之一。在BP神經(jīng)網(wǎng)絡(luò)中,梯度下降算法會(huì)通過反向傳播的方式來不斷調(diào)整整個(gè)網(wǎng)絡(luò)的權(quán)重和偏置,即所謂的調(diào)參過程,使得網(wǎng)絡(luò)的誤差取得最小值。BP神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)中,主要包含三個(gè)部分,其中有輸入層、隱藏層和輸出層。在BP網(wǎng)絡(luò)的訓(xùn)練過程中,信息的正向傳播會(huì)得到網(wǎng)絡(luò)的輸出結(jié)果,誤差的反向傳播來實(shí)現(xiàn)參數(shù)的調(diào)優(yōu)。輸入層用來接受外界的輸入信息,并將信息傳遞給


本文編號(hào):3567892

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/3567892.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶5e524***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com