73Adaboost算法改進BP神經網絡預測研究
本文關鍵詞:Adaboost算法改進BP神經網絡預測研究,由筆耕文化傳播整理發(fā)布。
CN43—1258/TPISSN1007—130;計算機工程與科學;ComputerEngineering&Scie;第35卷第8期2013年8月;V01.35,No.8,Aug.2013;文章編號:1007一130X(2013)08—0;Adaboost算法改進BP神經網絡預測研究;李翔,朱全銀;(淮陰工學院計算機工程學院,江蘇淮安223003;摘要:針對
CN43—1258/TPISSN1007—130X
計算機工程與科學
ComputerEngineering&Science
第35卷第8期2013年8月
V01.35,No.8,Aug.2013
文章編號:1007一130X(2013)08—0096—07
Adaboost算法改進BP神經網絡預測研究。
李翔,朱全銀
(淮陰工學院計算機工程學院,江蘇淮安223003)
摘要:針對傳統(tǒng)BP神經網絡容易陷入局部極小、預測精度低的問題,提出使用Adaboost算法和
BP神經網絡相結合的方法,提高網絡預測精度和泛化能力。該方法首先對樣本數(shù)據(jù)進行預處理并初始化測試數(shù)據(jù)分布權值;然后通過選取不同的隱含層節(jié)點數(shù)、節(jié)點傳遞函數(shù)、訓練函數(shù)、網絡學習函數(shù)構造出不同類型的BP弱預測器并對樣本數(shù)據(jù)進行反復訓練;最后使用Adaboost算法將得到的多個BP神經網絡弱預測器組成新的強預測器。對UCI數(shù)據(jù)庫中數(shù)據(jù)集進行仿真實驗,結果表明本方法比傳統(tǒng)BP網絡預測平均誤差絕對值減少近50%,提高了網絡預測精度,為神經網絡預測提供借鑒。
關鍵詞:神經網絡;強預測器;迭代算法;adaboost算法中圖分類號:TPl83
doi:10.3969/j.issn.1007—130X.2013.08.015
文獻標志碼:A
PredictionofimprovedBPneuralnetwork
byAdaboostalgorithm
LIXiang,ZHUQuan—yin
(Facultyof
Computer
Engineering,HuaiyinInstituteofTechnology,Huai’an223003,China)
Abstract:ThetraditionalBP(BackPropagation)neuralnetworkiseasy
andhasloweraccuracy.AccordingBPneuralnetworkisproposed
to
to
to
fallintolocalminimum
thisproblem,amethodthatcombinestheAdaboostalgorithmand
improvethepredictionaccuracyandgeneralizationabilityoftheneural
network.Firstly,themethodpreprocessesthehistoricaldataandinitializesthedistributionweightsof
test
data.Secondly,itselectsdifferenthiddenlayernodes,nodetransferfunctions,trainingfunctions,
toconstruct
andnetworklearningfunctionsweakpredictorsofBPneuralnetworkandtrainsthesample
to
datarepeatedly.Finally,itmademoreweakpredictorsofBPneuralnetwork
form
a
newstrongpre—
dictorbyAdaboostalgorithm.ThedatabaseofUCI(UniversityofCaliforniaIrvine)isusedinexperi-ments.Theresultsshowthatthismethodpared
to
can
reducenearly50%forthemean
error
absolutevaluecorn—
thetraditionalBPnetwork,andimprovethepredictionaccuracyofnetwork.Sothismethod
providesreferencesfortheneuralnetworkprediction.
Keywords:neuralnetwork;strongpredictor;iterativealgorithm;adaboostalgorithm
絡具有較高的預測精度、較好的通用性、較強的非
引言
反向傳播BP(BackPropagation)神經網絡是一種按誤差逆?zhèn)鞑ニ惴ㄓ柧毜亩鄬忧梆伨W絡,是目前應用最廣泛的神經網絡模型之一[1]。BP神經網
線性映射能力等優(yōu)點。但是,BP神經網絡也存在一些缺陷,主要表現(xiàn)為容易陷入局部極小值、算法收斂速度較慢、隱含單元的數(shù)目選擇尚無一般性指導原則、新加入的學習樣本對已學完樣本的學習結果影響較大等問題。
收稿日期:2012—06—18}修回日期:2012—10—22
基金項目:國家星火計劃資助項且(2011GA690190);江蘇省屬高校自然科學重大基礎研究資助項目(11KJA460001)通訊地址:223003江蘇省淮安市大學城淮陰工學院計算機工程學院
Address:FacultyofComputerEngineering,HuaiyinInstituteofTechnology,Huai’an
223003,Jiangsu,P,R.China
李翔等:Adahoost算法改進BP神經網絡預測研究針對以上問題,提出了很多BP網絡改進方
法。文獻[2,3]提出通過采用附加動量法和變學習
率改進BP網絡。附加動量法有助于使網絡從誤差曲面的局部極小值中跳出,但對于絕大多數(shù)實際應用問題,該方法訓練速度仍然較慢。變學習率方法根據(jù)誤差變化自適應調整,使權系數(shù)調整向誤差
減少的方向變化,但該方法仍然存在權值修正量較
小的問題,導致學習率降低。文獻[4,5]提出使用粒子群算法優(yōu)化BP網絡,使網絡訓練收斂到全局的最優(yōu),已解決了BP算法易陷入局部極小值的問題,但該算法只能有限提高原有BP神經網絡的預測精度,并不能把預測誤差較大的BP神經網絡優(yōu)化為能夠準確預測的BP網絡,且對樣本數(shù)量少、樣本分布不均勻而造成預測誤差大的問題,優(yōu)化后
的網絡預測能力一般得不到明顯提高。文獻[61提
出將Adaboost算法應用到BP網絡,但選用的數(shù)據(jù)記錄僅有11條,預測結果可信度不足。
本文針對上述問題,提出BP神經網絡結合Adaboost算法組成的強預測器的方法,并用UCI
數(shù)據(jù)庫中的數(shù)據(jù)集進行仿真實驗,證明本文所提方
法的有效性。
2
BP神經網絡與Adaboost算法
2.1
BP神經網絡原理
BP神經網絡是一種有監(jiān)督學習多層前饋神經
網絡,其主要特點是信號前向傳遞、誤差反向傳播[7]。在信號前向傳遞過程中,輸入信號從輸入層
進入,經過隱含層處理,到達輸出層。每一層的神經元狀態(tài)只影響下一層的神經元狀態(tài)。判斷輸出層的結果是否為期望輸出,如果不是,則轉入反向傳播,然后根據(jù)預測誤差調整網絡權值和閾值,從而使BP神經網絡預測輸出不斷逼近期望輸出[8],BP神經網絡的拓撲結構如圖1所示。
輸人層
患舍層
輸出層
Figure1
Topological
structure
ofBPneuralnetwork
圖1BP神經網絡拓撲結構圖
97
圖1中,zl,z:,…,z。是BP神經網絡的輸入值,姐!,Y。是BP神經網絡的預測值,∞a和∞業(yè)為BP神經網絡權值。
2.2
Adaboost算法原理
Adaboost是一種迭代算法,通過對弱學習算
法的加強而得到強學習算法,即通過一個包含關鍵特征的弱分類器集合,構建出具有理想分類能力的強分類器口]。Adaboost算法的優(yōu)點在于它使用加權后選取的訓練數(shù)據(jù)代替隨機選取的訓練樣本,將弱分類器聯(lián)合起來,使用加權的投票機制代替平均投票機制[1
0。。
2.3基于Adaboost算法的BP神經網絡預測模型
本文通過對BP神經網絡選取不同參數(shù)來構造多類BP弱預測器,然后使用Adaboost算法將得到的多個弱預測器組成新的強預測器。
BP神經網絡在Matlab中的構造函數(shù)為:
net
newff(P,T,S,TF,BTF,BLF,PF,IPF,
OPF,DDF),其中,P為輸人數(shù)據(jù)矩陣,T為輸出
數(shù)據(jù)矩陣,S為隱含層節(jié)點數(shù),”為節(jié)點傳遞函
數(shù),BTF為訓練函數(shù),BLF為網絡學習函數(shù),PF為性能分析函數(shù),IPF為輸人處理函數(shù),oPF為輸
出處理函數(shù),DDF為驗證數(shù)據(jù)劃分函數(shù)。一般通
過設置S、”、BTF、BLF幾個參數(shù)來改變BP神
經網絡性能,可選擇值如表1所示。
Table1
Fuction
paramete隋ofBP
ne刪network
裹1
BP神經圈絡函數(shù)參斂
參數(shù)含義
可選參散及Maflab實璦函數(shù)
s<n一1(^為輸人層節(jié)點數(shù))
。融舍層s</石再■萬+n(n為輸入層節(jié)點數(shù),m為輸出
。
節(jié)點數(shù)層節(jié)點數(shù).n為o~lo的常數(shù))
S—Ibn(n為輸入層節(jié)點數(shù))
仃薹言蠖黧蘭№
硬限幅傳遞函數(shù)hardlim
對數(shù)S型傳遞函數(shù)Iogsig
梯度下降BP算法弼練函數(shù)traingd
動量反傳的梯度下降BP算法訓練函數(shù)traingdm
…
。,。訓練動態(tài)自適應學習率的BP算法訓練函數(shù)traingda函數(shù)
動量反傳和動態(tài)自適應學習率的梯度下降BP算法調練函數(shù)traiagdx
Levenberg_Marquardt的BP算法訓練函數(shù)trainlm
…網絡學BP學習規(guī)則函數(shù)learngd
~‘習函數(shù)帶動量項的BP學習規(guī)則函數(shù)learngdrrl
通過newff函數(shù)及S、TF、BTF、BLF等參數(shù)
的調整,可以構造出不同類型的BP弱預測器。
本文提出的基于Adaboost算法的BP神經網
98
Computer
Engineering&Science計算機工程與科學2013,35(8)
絡預測算法流程如圖2所示。
[捧磁據(jù)選擇)HB嘲預測器供型1)卜
叫BP弱預測器供型2)卜Adaboos!
i
‰㈤=半×{宇,妒l副
踟㈤一室峰塑型
圣(bg擊)
實驗與結果分析7、。一。一,!弧
3?1實驗數(shù)據(jù)
l樣本數(shù)據(jù)預處理卜_叫船弱預測器供型3)卜.
L叫BP弱預測器供型帕卜
Figure2
算法迭
代運算
圖
2Adaboost算法的BP神經網絡預測算法流程圖3基于甜BP基于算法詳細步驟如下:
步驟1樣本數(shù)據(jù)選擇及網絡初始化。令迭
neu銎法ne的twork神wi經th黼二法流程圖
L
,‘J
Predictionalgorithmflowchart
代次數(shù)t一1時,權值分布ln(i)=÷l,i=1,2,
…,咒,其中九為訓練集樣本的數(shù)量,令初始誤差率£。一o。根據(jù)樣本輸入輸出維數(shù)設計網絡結構,并對BP網絡權值和閾值咖(o<≯<1)進行初始化設置。
步驟2樣本數(shù)據(jù)預處理。步驟3
BP弱預測器預測。通過選取不同
UCI數(shù)據(jù)庫是美國加州大學歐文分校(Uni—
versityofCalifornia
Irvine)提供的用于機器學習
的著名數(shù)據(jù)庫,該庫目前共有220個數(shù)據(jù)集,并且其數(shù)目還在不斷增加。本實驗選擇UCI數(shù)據(jù)庫中
的Computer
Hardware、Concrete
Compressive
Strength兩個數(shù)據(jù)集進行回歸預測,數(shù)據(jù)集下載地址為http://archive.ics.uci.edu/ml/datasets/。
Computer
Hardware數(shù)據(jù)集包含209條計算
BP神經網絡函數(shù)構造不同類別BP弱預測器。對
機CUP性能數(shù)據(jù),該數(shù)據(jù)集共有10個屬性,分別為VendorName(P1)、ModelName(P2)、MYCT(P3)、MMIN(P。)、MMAX(P5)、CACH(P6)、
CHMIN(P7)、CHMAX(P。)、PRP(Z0)、ERP
于£=1,…,丁進行迭代,在訓練第t個弱預測器
時,使用BP神經網絡對訓練數(shù)據(jù)進行訓練,建立回歸模型g。(z)一y。
計算g。(z)的誤差率e。:
(Z,。),其中PRP為硬件廠商公布的性能,ERP為預測性能。從中隨機選取169組數(shù)據(jù)作為訓練數(shù)據(jù),40組數(shù)據(jù)作為測試數(shù)據(jù),選。校场。作為訓練屬性,選取磊作為實際輸出,Z。。供參考。
Computer
e。一>:D。(i)
其中i滿足I壘魚生二苧I>≯。
Yi
步驟4測試數(shù)據(jù)權重調整。令B=e;,更新
權重如下,式中Bf為標準化因子:
Table2
Hardware數(shù)據(jù)集原始數(shù)據(jù)如表2所
示。
ComputerhardwaredatasetComputerHardware數(shù)據(jù)集
Pt
P7
Ps
z9
表2
釋號PL
1
adviser
P2
P3
P‘Ps
32/60470v/7470v/7a470v/7b470v/7c
i
vs-100
125256600025616128198
2amdahl2980003200032832269
3amdahl2980003200032832220
4
amdahl29800032000328化駝;
5
amdahl29
8000
16000
328
1
208
;i
480
i
512
;
8000
;
32
i
0
wang
盯帖
209
wang
vs-904801000400000
李翔等:Adaboost算法改進BP神經網絡預測研究
ConcreteCompressive
Strength數(shù)據(jù)集包含1
030條混凝土抗壓強度數(shù)據(jù),該數(shù)據(jù)集共有9個屬性Cement(P1)、Blast
FurnaceSlag(P2)、FlyAsh
(P3)、Water(P4)、Superplasticizer(P5)、Coarse
Aggregate(P6)、FineAggregate(P7)、Age(P8)、
450050400廠—P
f}
99
I匕=型望型1
1
0
350
掣300
250噻200
150
Concrete(Z9),其中,Concrete(Z9)為輸出的混凝土抗壓強度。從中隨機選。保埃埃敖M數(shù)據(jù)作為訓練數(shù)據(jù),30組數(shù)據(jù)作為測試數(shù)據(jù)。Concrete
pressive
Com—
10050
Strength數(shù)據(jù)集原始數(shù)據(jù)如表3所示。
5
10
152025303540
3.2實驗及結果分析
使用10個BP神經網絡構成弱預測器序列,
Figure3
Computer
Hardware預測樣本
error
Absolutevalueofcomputerhardwarprediction
Computer
這lo個BP神經網絡的S、玎、BTF、BLF參數(shù)選
擇如表4所示。
Table
圖3
帖∞
弘
Hardware預測誤差絕對值圖
4
ParameterselectionofBPweakpredictor
表4BP弱預測器參數(shù)選擇
遙
七’
》(
如巧加
博m,00
鼎
淵媸
51510
ConcreteCompressive
20
25
30
Strength預測樣本
Figure4
Absolutevalueof
error
Concretecompressivestrengthprediction
圖4ConcreteCompressiveStrength預測誤差絕對值圖
Computer
sive
ComputerHardware和ConcreteCompres—
sive
Hardware和ConcreteCompres—
Strength數(shù)據(jù)集的網絡訓練過程中誤差均方
下降曲線分別如圖5和圖6所示。
Computersive
Strength數(shù)據(jù)集的強預測器預測誤差絕對值Hardware和ConcreteCompres—
和弱預測器預測平均誤差絕對值圖分別如圖3和圖4所示。
Table3
ConcreteConcrete
Strength數(shù)據(jù)集的網絡訓練回歸狀態(tài)圖分別
如圖7和圖8所示。
compressivestrengthdataset
表3
序號
1
Pl
P2
P3
CompressiveStrength數(shù)據(jù)集
P5
P6
P7
P8
P4Z9
79.99
54000
1622.5104067628
2540
O
O1622.510556762861.89
3
332.5
142.5O
228093259427040.27
4332.5142.5O228093259436541.05
5198.6132.4O1920978.4825.536044.30
:
●
:
●
:
●
1029159.1186.7O175.6
11.3989.6788.92832.77
1030
260.9
100.5
78.3200.68.6864.5761.52832.40
100
Computer
Engineering&Science計算機工程與科學2013,,35(8)
Training:R--O
0.5
93251
Validation:R=O92141
o。
g
篙
q
寧
一4-
暨0
寧±‰
昌冬
0南
噸C
¨
幫一0.5圭
導
土
星
蘭C
言一1
TargetTest:R=0.96907
All:R=092884
蘭o
024
6
lOEpoehs
0
Figure5
Decline
curve
ofComputerHardware
圖5
Computer
Hardware誤差均方下降曲線
Figure8
Regression
Concrete
state
ofConcreteCompressiveStrength
圖8
CompressiveStrength回歸狀態(tài)圖Contrastbetweenmean
predictionresults
Table7
error
absolutevalueof
表7預測結果平均誤差絕對值對比
預測模型co平m均pu誤ter差H絕ar對dw值are
c帆;{i!;蕊8iw
2.294.78
20Epochs
AdaboostBP33.89
Figure6
Decline
curve
ofConcrete
BP68.36
CompressiveStrengthMSE
圖6
卜
ConcreteCompressiveStrength誤差均方下降曲線
Training:R--0.98424
使用相關系數(shù)R來表示擬合的好壞,R的取值范圍為[o1],R越接近1,表明方程的變量對Y的解釋能力越強,這個模型對數(shù)據(jù)擬合得也較好。
從圖3可以看出,ComputerHardware數(shù)據(jù)集預測誤差值中,強預測器預測誤差明顯小于弱預測器預測誤差,強預測器整體預測誤差較小,預測結果較好。從圖5可以看出,ComputerHardware數(shù)據(jù)集訓練的誤差均方下降曲線收斂速度較快,在第
g寧
老
毒
冬
詈一0
1
圣
毒一
罨。
±鮚
Test:R:o91412
l
All:R=0.96907
四步時達到最好的驗證集效果為0.0055,誤差曲線開始趨于平緩,誤差值基本不再發(fā)生變化,效果較好。從圖7可以看出,強預測器預測的訓練集
05
喜}g
0
有一0
土
05
R一0.984R一0.914
2,驗證集R一0.9863,測試集1,總體R一0.9690,回歸預測結果很好。
Compressive
己
芎e‘
-0.5Target
0
一
●
從圖4可以看出,Concrete
Strength數(shù)據(jù)集預測誤差值中,強預測器預測誤差
state
Figure7
Regression
ofComputerHardware明顯小于弱預測器預測誤差,強預測器整體預測誤差較小,預測結果較好。從圖6可以看出,Con-
crete
圖7ComputerHardware回歸狀態(tài)圖
Computer
Hardware數(shù)據(jù)集測預誤差如表5
Compressive
Compressive
Strength數(shù)據(jù)集訓練的誤差均
所示,Concrete表7所示。
Strength數(shù)據(jù)集預測
方下降曲線在第15步時達到最好的驗證集效果為
0.002
誤差如表6所示,預測結果平均誤差絕對值對比如
1,誤差曲線開始趨于平緩,誤差值基本不再
發(fā)生變化,效果較好。從圖8可以看出,強預測器
下載地址:73Adaboost算法改進BP神經網絡預測研究_圖文.Doc
【】最新搜索
Adaboost算法改進BP神經網絡預測研究_圖文
幼兒園師帶徒協(xié)議書
小學漢語拼音字母表卡片(四線格版)03
52替魏延辯誣
962011年時事政治(國內外)[1]
銷售精英激勵與實戰(zhàn)技能提升15
18拳擊比賽的技巧
四五六單元上冊教案語文71
71二年級上豎式計算
100年后45
本文關鍵詞:Adaboost算法改進BP神經網絡預測研究,由筆耕文化傳播整理發(fā)布。
本文編號:176400
本文鏈接:http://sikaile.net/kejilunwen/rengongzhinen/176400.html