天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > AI論文 >

73Adaboost算法改進BP神經網絡預測研究

發(fā)布時間:2016-11-15 23:10

  本文關鍵詞:Adaboost算法改進BP神經網絡預測研究,由筆耕文化傳播整理發(fā)布。


CN43—1258/TPISSN1007—130;計算機工程與科學;ComputerEngineering&Scie;第35卷第8期2013年8月;V01.35,No.8,Aug.2013;文章編號:1007一130X(2013)08—0;Adaboost算法改進BP神經網絡預測研究;李翔,朱全銀;(淮陰工學院計算機工程學院,江蘇淮安223003;摘要:針對

CN43—1258/TPISSN1007—130X

計算機工程與科學

ComputerEngineering&Science

第35卷第8期2013年8月

V01.35,No.8,Aug.2013

文章編號:1007一130X(2013)08—0096—07

Adaboost算法改進BP神經網絡預測研究。

李翔,朱全銀

(淮陰工學院計算機工程學院,江蘇淮安223003)

摘要:針對傳統(tǒng)BP神經網絡容易陷入局部極小、預測精度低的問題,提出使用Adaboost算法和

BP神經網絡相結合的方法,提高網絡預測精度和泛化能力。該方法首先對樣本數(shù)據(jù)進行預處理并初始化測試數(shù)據(jù)分布權值;然后通過選取不同的隱含層節(jié)點數(shù)、節(jié)點傳遞函數(shù)、訓練函數(shù)、網絡學習函數(shù)構造出不同類型的BP弱預測器并對樣本數(shù)據(jù)進行反復訓練;最后使用Adaboost算法將得到的多個BP神經網絡弱預測器組成新的強預測器。對UCI數(shù)據(jù)庫中數(shù)據(jù)集進行仿真實驗,結果表明本方法比傳統(tǒng)BP網絡預測平均誤差絕對值減少近50%,提高了網絡預測精度,為神經網絡預測提供借鑒。

關鍵詞:神經網絡;強預測器;迭代算法;adaboost算法中圖分類號:TPl83

doi:10.3969/j.issn.1007—130X.2013.08.015

文獻標志碼:A

PredictionofimprovedBPneuralnetwork

byAdaboostalgorithm

LIXiang,ZHUQuan—yin

(Facultyof

Computer

Engineering,HuaiyinInstituteofTechnology,Huai’an223003,China)

Abstract:ThetraditionalBP(BackPropagation)neuralnetworkiseasy

andhasloweraccuracy.AccordingBPneuralnetworkisproposed

to

to

to

fallintolocalminimum

thisproblem,amethodthatcombinestheAdaboostalgorithmand

improvethepredictionaccuracyandgeneralizationabilityoftheneural

network.Firstly,themethodpreprocessesthehistoricaldataandinitializesthedistributionweightsof

test

data.Secondly,itselectsdifferenthiddenlayernodes,nodetransferfunctions,trainingfunctions,

toconstruct

andnetworklearningfunctionsweakpredictorsofBPneuralnetworkandtrainsthesample

to

datarepeatedly.Finally,itmademoreweakpredictorsofBPneuralnetwork

form

newstrongpre—

dictorbyAdaboostalgorithm.ThedatabaseofUCI(UniversityofCaliforniaIrvine)isusedinexperi-ments.Theresultsshowthatthismethodpared

to

can

reducenearly50%forthemean

error

absolutevaluecorn—

thetraditionalBPnetwork,andimprovethepredictionaccuracyofnetwork.Sothismethod

providesreferencesfortheneuralnetworkprediction.

Keywords:neuralnetwork;strongpredictor;iterativealgorithm;adaboostalgorithm

絡具有較高的預測精度、較好的通用性、較強的非

引言

反向傳播BP(BackPropagation)神經網絡是一種按誤差逆?zhèn)鞑ニ惴ㄓ柧毜亩鄬忧梆伨W絡,是目前應用最廣泛的神經網絡模型之一[1]。BP神經網

線性映射能力等優(yōu)點。但是,BP神經網絡也存在一些缺陷,主要表現(xiàn)為容易陷入局部極小值、算法收斂速度較慢、隱含單元的數(shù)目選擇尚無一般性指導原則、新加入的學習樣本對已學完樣本的學習結果影響較大等問題。

收稿日期:2012—06—18}修回日期:2012—10—22

基金項目:國家星火計劃資助項且(2011GA690190);江蘇省屬高校自然科學重大基礎研究資助項目(11KJA460001)通訊地址:223003江蘇省淮安市大學城淮陰工學院計算機工程學院

Address:FacultyofComputerEngineering,HuaiyinInstituteofTechnology,Huai’an

223003,Jiangsu,P,R.China

李翔等:Adahoost算法改進BP神經網絡預測研究針對以上問題,提出了很多BP網絡改進方

法。文獻[2,3]提出通過采用附加動量法和變學習

率改進BP網絡。附加動量法有助于使網絡從誤差曲面的局部極小值中跳出,但對于絕大多數(shù)實際應用問題,該方法訓練速度仍然較慢。變學習率方法根據(jù)誤差變化自適應調整,使權系數(shù)調整向誤差

減少的方向變化,但該方法仍然存在權值修正量較

小的問題,導致學習率降低。文獻[4,5]提出使用粒子群算法優(yōu)化BP網絡,使網絡訓練收斂到全局的最優(yōu),已解決了BP算法易陷入局部極小值的問題,但該算法只能有限提高原有BP神經網絡的預測精度,并不能把預測誤差較大的BP神經網絡優(yōu)化為能夠準確預測的BP網絡,且對樣本數(shù)量少、樣本分布不均勻而造成預測誤差大的問題,優(yōu)化后

的網絡預測能力一般得不到明顯提高。文獻[61提

出將Adaboost算法應用到BP網絡,但選用的數(shù)據(jù)記錄僅有11條,預測結果可信度不足。

本文針對上述問題,提出BP神經網絡結合Adaboost算法組成的強預測器的方法,并用UCI

數(shù)據(jù)庫中的數(shù)據(jù)集進行仿真實驗,證明本文所提方

法的有效性。

BP神經網絡與Adaboost算法

2.1

BP神經網絡原理

BP神經網絡是一種有監(jiān)督學習多層前饋神經

網絡,其主要特點是信號前向傳遞、誤差反向傳播[7]。在信號前向傳遞過程中,輸入信號從輸入層

進入,經過隱含層處理,到達輸出層。每一層的神經元狀態(tài)只影響下一層的神經元狀態(tài)。判斷輸出層的結果是否為期望輸出,如果不是,則轉入反向傳播,然后根據(jù)預測誤差調整網絡權值和閾值,從而使BP神經網絡預測輸出不斷逼近期望輸出[8],BP神經網絡的拓撲結構如圖1所示。

輸人層

患舍層

輸出層

Figure1

Topological

structure

ofBPneuralnetwork

圖1BP神經網絡拓撲結構圖

97

圖1中,zl,z:,…,z。是BP神經網絡的輸入值,姐!,Y。是BP神經網絡的預測值,∞a和∞業(yè)為BP神經網絡權值。

2.2

Adaboost算法原理

Adaboost是一種迭代算法,通過對弱學習算

法的加強而得到強學習算法,即通過一個包含關鍵特征的弱分類器集合,構建出具有理想分類能力的強分類器口]。Adaboost算法的優(yōu)點在于它使用加權后選取的訓練數(shù)據(jù)代替隨機選取的訓練樣本,將弱分類器聯(lián)合起來,使用加權的投票機制代替平均投票機制[1

0。。

2.3基于Adaboost算法的BP神經網絡預測模型

本文通過對BP神經網絡選取不同參數(shù)來構造多類BP弱預測器,然后使用Adaboost算法將得到的多個弱預測器組成新的強預測器。

BP神經網絡在Matlab中的構造函數(shù)為:

net

newff(P,T,S,TF,BTF,BLF,PF,IPF,

OPF,DDF),其中,P為輸人數(shù)據(jù)矩陣,T為輸出

數(shù)據(jù)矩陣,S為隱含層節(jié)點數(shù),”為節(jié)點傳遞函

數(shù),BTF為訓練函數(shù),BLF為網絡學習函數(shù),PF為性能分析函數(shù),IPF為輸人處理函數(shù),oPF為輸

出處理函數(shù),DDF為驗證數(shù)據(jù)劃分函數(shù)。一般通

過設置S、”、BTF、BLF幾個參數(shù)來改變BP神

經網絡性能,可選擇值如表1所示。

Table1

Fuction

paramete隋ofBP

ne刪network

裹1

BP神經圈絡函數(shù)參斂

參數(shù)含義

可選參散及Maflab實璦函數(shù)

s<n一1(^為輸人層節(jié)點數(shù))

。融舍層s</石再■萬+n(n為輸入層節(jié)點數(shù),m為輸出

。

節(jié)點數(shù)層節(jié)點數(shù).n為o~lo的常數(shù))

S—Ibn(n為輸入層節(jié)點數(shù))

仃薹言蠖黧蘭№

硬限幅傳遞函數(shù)hardlim

對數(shù)S型傳遞函數(shù)Iogsig

梯度下降BP算法弼練函數(shù)traingd

動量反傳的梯度下降BP算法訓練函數(shù)traingdm

。,。訓練動態(tài)自適應學習率的BP算法訓練函數(shù)traingda函數(shù)

動量反傳和動態(tài)自適應學習率的梯度下降BP算法調練函數(shù)traiagdx

Levenberg_Marquardt的BP算法訓練函數(shù)trainlm

…網絡學BP學習規(guī)則函數(shù)learngd

~‘習函數(shù)帶動量項的BP學習規(guī)則函數(shù)learngdrrl

通過newff函數(shù)及S、TF、BTF、BLF等參數(shù)

的調整,可以構造出不同類型的BP弱預測器。

本文提出的基于Adaboost算法的BP神經網

98

Computer

Engineering&Science計算機工程與科學2013,35(8)

絡預測算法流程如圖2所示。

[捧磁據(jù)選擇)HB嘲預測器供型1)卜

叫BP弱預測器供型2)卜Adaboos!

‰㈤=半×{宇,妒l副

踟㈤一室峰塑型

圣(bg擊)

實驗與結果分析7、。一。一,!弧

3?1實驗數(shù)據(jù)

l樣本數(shù)據(jù)預處理卜_叫船弱預測器供型3)卜.

L叫BP弱預測器供型帕卜

Figure2

算法迭

代運算

2Adaboost算法的BP神經網絡預測算法流程圖3基于甜BP基于算法詳細步驟如下:

步驟1樣本數(shù)據(jù)選擇及網絡初始化。令迭

neu銎法ne的twork神wi經th黼二法流程圖

,‘J

Predictionalgorithmflowchart

代次數(shù)t一1時,權值分布ln(i)=÷l,i=1,2,

…,咒,其中九為訓練集樣本的數(shù)量,令初始誤差率£。一o。根據(jù)樣本輸入輸出維數(shù)設計網絡結構,并對BP網絡權值和閾值咖(o<≯<1)進行初始化設置。

步驟2樣本數(shù)據(jù)預處理。步驟3

BP弱預測器預測。通過選取不同

UCI數(shù)據(jù)庫是美國加州大學歐文分校(Uni—

versityofCalifornia

Irvine)提供的用于機器學習

的著名數(shù)據(jù)庫,該庫目前共有220個數(shù)據(jù)集,并且其數(shù)目還在不斷增加。本實驗選擇UCI數(shù)據(jù)庫中

的Computer

Hardware、Concrete

Compressive

Strength兩個數(shù)據(jù)集進行回歸預測,數(shù)據(jù)集下載地址為http://archive.ics.uci.edu/ml/datasets/。

Computer

Hardware數(shù)據(jù)集包含209條計算

BP神經網絡函數(shù)構造不同類別BP弱預測器。對

機CUP性能數(shù)據(jù),該數(shù)據(jù)集共有10個屬性,分別為VendorName(P1)、ModelName(P2)、MYCT(P3)、MMIN(P。)、MMAX(P5)、CACH(P6)、

CHMIN(P7)、CHMAX(P。)、PRP(Z0)、ERP

于£=1,…,丁進行迭代,在訓練第t個弱預測器

時,使用BP神經網絡對訓練數(shù)據(jù)進行訓練,建立回歸模型g。(z)一y。

計算g。(z)的誤差率e。:

(Z,。),其中PRP為硬件廠商公布的性能,ERP為預測性能。從中隨機選取169組數(shù)據(jù)作為訓練數(shù)據(jù),40組數(shù)據(jù)作為測試數(shù)據(jù),選。校场。作為訓練屬性,選取磊作為實際輸出,Z。。供參考。

Computer

e。一>:D。(i)

其中i滿足I壘魚生二苧I>≯。

Yi

步驟4測試數(shù)據(jù)權重調整。令B=e;,更新

權重如下,式中Bf為標準化因子:

Table2

Hardware數(shù)據(jù)集原始數(shù)據(jù)如表2所

示。

ComputerhardwaredatasetComputerHardware數(shù)據(jù)集

Pt

P7

Ps

z9

表2

釋號PL

adviser

P2

P3

P‘Ps

32/60470v/7470v/7a470v/7b470v/7c

vs-100

125256600025616128198

2amdahl2980003200032832269

3amdahl2980003200032832220

amdahl29800032000328化駝;

amdahl29

8000

16000

328

208

;i

480

512

;

8000

;

32

wang

盯帖

209

wang

vs-904801000400000

李翔等:Adaboost算法改進BP神經網絡預測研究

ConcreteCompressive

Strength數(shù)據(jù)集包含1

030條混凝土抗壓強度數(shù)據(jù),該數(shù)據(jù)集共有9個屬性Cement(P1)、Blast

FurnaceSlag(P2)、FlyAsh

(P3)、Water(P4)、Superplasticizer(P5)、Coarse

Aggregate(P6)、FineAggregate(P7)、Age(P8)、

450050400廠—P

f}

99

I匕=型望型1

350

掣300

250噻200

150

Concrete(Z9),其中,Concrete(Z9)為輸出的混凝土抗壓強度。從中隨機選。保埃埃敖M數(shù)據(jù)作為訓練數(shù)據(jù),30組數(shù)據(jù)作為測試數(shù)據(jù)。Concrete

pressive

Com—

10050

Strength數(shù)據(jù)集原始數(shù)據(jù)如表3所示。

10

152025303540

3.2實驗及結果分析

使用10個BP神經網絡構成弱預測器序列,

Figure3

Computer

Hardware預測樣本

error

Absolutevalueofcomputerhardwarprediction

Computer

這lo個BP神經網絡的S、玎、BTF、BLF參數(shù)選

擇如表4所示。

Table

圖3

帖∞

Hardware預測誤差絕對值圖

ParameterselectionofBPweakpredictor

表4BP弱預測器參數(shù)選擇

七’

》(

如巧加

博m,00

淵媸

51510

ConcreteCompressive

20

25

30

Strength預測樣本

Figure4

Absolutevalueof

error

Concretecompressivestrengthprediction

圖4ConcreteCompressiveStrength預測誤差絕對值圖

Computer

sive

ComputerHardware和ConcreteCompres—

sive

Hardware和ConcreteCompres—

Strength數(shù)據(jù)集的網絡訓練過程中誤差均方

下降曲線分別如圖5和圖6所示。

Computersive

Strength數(shù)據(jù)集的強預測器預測誤差絕對值Hardware和ConcreteCompres—

和弱預測器預測平均誤差絕對值圖分別如圖3和圖4所示。

Table3

ConcreteConcrete

Strength數(shù)據(jù)集的網絡訓練回歸狀態(tài)圖分別

如圖7和圖8所示。

compressivestrengthdataset

表3

序號

Pl

P2

P3

CompressiveStrength數(shù)據(jù)集

P5

P6

P7

P8

P4Z9

79.99

54000

1622.5104067628

2540

O1622.510556762861.89

332.5

142.5O

228093259427040.27

4332.5142.5O228093259436541.05

5198.6132.4O1920978.4825.536044.30

1029159.1186.7O175.6

11.3989.6788.92832.77

1030

260.9

100.5

78.3200.68.6864.5761.52832.40

100

Computer

Engineering&Science計算機工程與科學2013,,35(8)

Training:R--O

0.5

93251

Validation:R=O92141

o。

一4-

暨0

寧±‰

昌冬

0南

噸C

¨

幫一0.5圭

蘭C

言一1

TargetTest:R=0.96907

All:R=092884

蘭o

024

lOEpoehs

Figure5

Decline

curve

ofComputerHardware

圖5

Computer

Hardware誤差均方下降曲線

Figure8

Regression

Concrete

state

ofConcreteCompressiveStrength

圖8

CompressiveStrength回歸狀態(tài)圖Contrastbetweenmean

predictionresults

Table7

error

absolutevalueof

表7預測結果平均誤差絕對值對比

預測模型co平m均pu誤ter差H絕ar對dw值are

c帆;{i!;蕊8iw

2.294.78

20Epochs

AdaboostBP33.89

Figure6

Decline

curve

ofConcrete

BP68.36

CompressiveStrengthMSE

圖6

ConcreteCompressiveStrength誤差均方下降曲線

Training:R--0.98424

使用相關系數(shù)R來表示擬合的好壞,R的取值范圍為[o1],R越接近1,表明方程的變量對Y的解釋能力越強,這個模型對數(shù)據(jù)擬合得也較好。

從圖3可以看出,ComputerHardware數(shù)據(jù)集預測誤差值中,強預測器預測誤差明顯小于弱預測器預測誤差,強預測器整體預測誤差較小,預測結果較好。從圖5可以看出,ComputerHardware數(shù)據(jù)集訓練的誤差均方下降曲線收斂速度較快,在第

g寧

詈一0

毒一

罨。

±鮚

Test:R:o91412

All:R=0.96907

四步時達到最好的驗證集效果為0.0055,誤差曲線開始趨于平緩,誤差值基本不再發(fā)生變化,效果較好。從圖7可以看出,強預測器預測的訓練集

05

喜}g

有一0

05

R一0.984R一0.914

2,驗證集R一0.9863,測試集1,總體R一0.9690,回歸預測結果很好。

Compressive

芎e‘

-0.5Target

從圖4可以看出,Concrete

Strength數(shù)據(jù)集預測誤差值中,強預測器預測誤差

state

Figure7

Regression

ofComputerHardware明顯小于弱預測器預測誤差,強預測器整體預測誤差較小,預測結果較好。從圖6可以看出,Con-

crete

圖7ComputerHardware回歸狀態(tài)圖

Computer

Hardware數(shù)據(jù)集測預誤差如表5

Compressive

Compressive

Strength數(shù)據(jù)集訓練的誤差均

所示,Concrete表7所示。

Strength數(shù)據(jù)集預測

方下降曲線在第15步時達到最好的驗證集效果為

0.002

誤差如表6所示,預測結果平均誤差絕對值對比如

1,誤差曲線開始趨于平緩,誤差值基本不再

發(fā)生變化,效果較好。從圖8可以看出,強預測器

 

 

下載地址:73Adaboost算法改進BP神經網絡預測研究_圖文.Doc

  【】

最新搜索

Adaboost算法改進BP神經網絡預測研究_圖文

幼兒園師帶徒協(xié)議書

小學漢語拼音字母表卡片(四線格版)03

52替魏延辯誣

962011年時事政治(國內外)[1]

銷售精英激勵與實戰(zhàn)技能提升15

18拳擊比賽的技巧

四五六單元上冊教案語文71

71二年級上豎式計算

100年后45


  本文關鍵詞:Adaboost算法改進BP神經網絡預測研究,由筆耕文化傳播整理發(fā)布。



本文編號:176400

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/rengongzhinen/176400.html


Copyright(c)文論論文網All Rights Reserved | 網站地圖 |

版權申明:資料由用戶c31c1***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com