73Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究
本文關(guān)鍵詞:Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究,由筆耕文化傳播整理發(fā)布。
CN43—1258/TPISSN1007—130;計算機(jī)工程與科學(xué);ComputerEngineering&Scie;第35卷第8期2013年8月;V01.35,No.8,Aug.2013;文章編號:1007一130X(2013)08—0;Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究;李翔,朱全銀;(淮陰工學(xué)院計算機(jī)工程學(xué)院,江蘇淮安223003;摘要:針對
CN43—1258/TPISSN1007—130X
計算機(jī)工程與科學(xué)
ComputerEngineering&Science
第35卷第8期2013年8月
V01.35,No.8,Aug.2013
文章編號:1007一130X(2013)08—0096—07
Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究。
李翔,朱全銀
(淮陰工學(xué)院計算機(jī)工程學(xué)院,江蘇淮安223003)
摘要:針對傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)容易陷入局部極小、預(yù)測精度低的問題,提出使用Adaboost算法和
BP神經(jīng)網(wǎng)絡(luò)相結(jié)合的方法,提高網(wǎng)絡(luò)預(yù)測精度和泛化能力。該方法首先對樣本數(shù)據(jù)進(jìn)行預(yù)處理并初始化測試數(shù)據(jù)分布權(quán)值;然后通過選取不同的隱含層節(jié)點數(shù)、節(jié)點傳遞函數(shù)、訓(xùn)練函數(shù)、網(wǎng)絡(luò)學(xué)習(xí)函數(shù)構(gòu)造出不同類型的BP弱預(yù)測器并對樣本數(shù)據(jù)進(jìn)行反復(fù)訓(xùn)練;最后使用Adaboost算法將得到的多個BP神經(jīng)網(wǎng)絡(luò)弱預(yù)測器組成新的強(qiáng)預(yù)測器。對UCI數(shù)據(jù)庫中數(shù)據(jù)集進(jìn)行仿真實驗,結(jié)果表明本方法比傳統(tǒng)BP網(wǎng)絡(luò)預(yù)測平均誤差絕對值減少近50%,提高了網(wǎng)絡(luò)預(yù)測精度,為神經(jīng)網(wǎng)絡(luò)預(yù)測提供借鑒。
關(guān)鍵詞:神經(jīng)網(wǎng)絡(luò);強(qiáng)預(yù)測器;迭代算法;adaboost算法中圖分類號:TPl83
doi:10.3969/j.issn.1007—130X.2013.08.015
文獻(xiàn)標(biāo)志碼:A
PredictionofimprovedBPneuralnetwork
byAdaboostalgorithm
LIXiang,ZHUQuan—yin
(Facultyof
Computer
Engineering,HuaiyinInstituteofTechnology,Huai’an223003,China)
Abstract:ThetraditionalBP(BackPropagation)neuralnetworkiseasy
andhasloweraccuracy.AccordingBPneuralnetworkisproposed
to
to
to
fallintolocalminimum
thisproblem,amethodthatcombinestheAdaboostalgorithmand
improvethepredictionaccuracyandgeneralizationabilityoftheneural
network.Firstly,themethodpreprocessesthehistoricaldataandinitializesthedistributionweightsof
test
data.Secondly,itselectsdifferenthiddenlayernodes,nodetransferfunctions,trainingfunctions,
toconstruct
andnetworklearningfunctionsweakpredictorsofBPneuralnetworkandtrainsthesample
to
datarepeatedly.Finally,itmademoreweakpredictorsofBPneuralnetwork
form
a
newstrongpre—
dictorbyAdaboostalgorithm.ThedatabaseofUCI(UniversityofCaliforniaIrvine)isusedinexperi-ments.Theresultsshowthatthismethodpared
to
can
reducenearly50%forthemean
error
absolutevaluecorn—
thetraditionalBPnetwork,andimprovethepredictionaccuracyofnetwork.Sothismethod
providesreferencesfortheneuralnetworkprediction.
Keywords:neuralnetwork;strongpredictor;iterativealgorithm;adaboostalgorithm
絡(luò)具有較高的預(yù)測精度、較好的通用性、較強(qiáng)的非
引言
反向傳播BP(BackPropagation)神經(jīng)網(wǎng)絡(luò)是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一[1]。BP神經(jīng)網(wǎng)
線性映射能力等優(yōu)點。但是,BP神經(jīng)網(wǎng)絡(luò)也存在一些缺陷,主要表現(xiàn)為容易陷入局部極小值、算法收斂速度較慢、隱含單元的數(shù)目選擇尚無一般性指導(dǎo)原則、新加入的學(xué)習(xí)樣本對已學(xué)完樣本的學(xué)習(xí)結(jié)果影響較大等問題。
收稿日期:2012—06—18}修回日期:2012—10—22
基金項目:國家星火計劃資助項且(2011GA690190);江蘇省屬高校自然科學(xué)重大基礎(chǔ)研究資助項目(11KJA460001)通訊地址:223003江蘇省淮安市大學(xué)城淮陰工學(xué)院計算機(jī)工程學(xué)院
Address:FacultyofComputerEngineering,HuaiyinInstituteofTechnology,Huai’an
223003,Jiangsu,P,R.China
李翔等:Adahoost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究針對以上問題,提出了很多BP網(wǎng)絡(luò)改進(jìn)方
法。文獻(xiàn)[2,3]提出通過采用附加動量法和變學(xué)習(xí)
率改進(jìn)BP網(wǎng)絡(luò)。附加動量法有助于使網(wǎng)絡(luò)從誤差曲面的局部極小值中跳出,但對于絕大多數(shù)實際應(yīng)用問題,該方法訓(xùn)練速度仍然較慢。變學(xué)習(xí)率方法根據(jù)誤差變化自適應(yīng)調(diào)整,使權(quán)系數(shù)調(diào)整向誤差
減少的方向變化,但該方法仍然存在權(quán)值修正量較
小的問題,導(dǎo)致學(xué)習(xí)率降低。文獻(xiàn)[4,5]提出使用粒子群算法優(yōu)化BP網(wǎng)絡(luò),使網(wǎng)絡(luò)訓(xùn)練收斂到全局的最優(yōu),已解決了BP算法易陷入局部極小值的問題,但該算法只能有限提高原有BP神經(jīng)網(wǎng)絡(luò)的預(yù)測精度,并不能把預(yù)測誤差較大的BP神經(jīng)網(wǎng)絡(luò)優(yōu)化為能夠準(zhǔn)確預(yù)測的BP網(wǎng)絡(luò),且對樣本數(shù)量少、樣本分布不均勻而造成預(yù)測誤差大的問題,優(yōu)化后
的網(wǎng)絡(luò)預(yù)測能力一般得不到明顯提高。文獻(xiàn)[61提
出將Adaboost算法應(yīng)用到BP網(wǎng)絡(luò),但選用的數(shù)據(jù)記錄僅有11條,預(yù)測結(jié)果可信度不足。
本文針對上述問題,提出BP神經(jīng)網(wǎng)絡(luò)結(jié)合Adaboost算法組成的強(qiáng)預(yù)測器的方法,并用UCI
數(shù)據(jù)庫中的數(shù)據(jù)集進(jìn)行仿真實驗,證明本文所提方
法的有效性。
2
BP神經(jīng)網(wǎng)絡(luò)與Adaboost算法
2.1
BP神經(jīng)網(wǎng)絡(luò)原理
BP神經(jīng)網(wǎng)絡(luò)是一種有監(jiān)督學(xué)習(xí)多層前饋神經(jīng)
網(wǎng)絡(luò),其主要特點是信號前向傳遞、誤差反向傳播[7]。在信號前向傳遞過程中,輸入信號從輸入層
進(jìn)入,經(jīng)過隱含層處理,到達(dá)輸出層。每一層的神經(jīng)元狀態(tài)只影響下一層的神經(jīng)元狀態(tài)。判斷輸出層的結(jié)果是否為期望輸出,如果不是,則轉(zhuǎn)入反向傳播,然后根據(jù)預(yù)測誤差調(diào)整網(wǎng)絡(luò)權(quán)值和閾值,從而使BP神經(jīng)網(wǎng)絡(luò)預(yù)測輸出不斷逼近期望輸出[8],BP神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)如圖1所示。
輸人層
患舍層
輸出層
Figure1
Topological
structure
ofBPneuralnetwork
圖1BP神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)圖
97
圖1中,zl,z:,…,z。是BP神經(jīng)網(wǎng)絡(luò)的輸入值,姐。…,Y。是BP神經(jīng)網(wǎng)絡(luò)的預(yù)測值,∞a和∞業(yè)為BP神經(jīng)網(wǎng)絡(luò)權(quán)值。
2.2
Adaboost算法原理
Adaboost是一種迭代算法,通過對弱學(xué)習(xí)算
法的加強(qiáng)而得到強(qiáng)學(xué)習(xí)算法,即通過一個包含關(guān)鍵特征的弱分類器集合,構(gòu)建出具有理想分類能力的強(qiáng)分類器口]。Adaboost算法的優(yōu)點在于它使用加權(quán)后選取的訓(xùn)練數(shù)據(jù)代替隨機(jī)選取的訓(xùn)練樣本,將弱分類器聯(lián)合起來,使用加權(quán)的投票機(jī)制代替平均投票機(jī)制[1
0。。
2.3基于Adaboost算法的BP神經(jīng)網(wǎng)絡(luò)預(yù)測模型
本文通過對BP神經(jīng)網(wǎng)絡(luò)選取不同參數(shù)來構(gòu)造多類BP弱預(yù)測器,然后使用Adaboost算法將得到的多個弱預(yù)測器組成新的強(qiáng)預(yù)測器。
BP神經(jīng)網(wǎng)絡(luò)在Matlab中的構(gòu)造函數(shù)為:
net
newff(P,T,S,TF,BTF,BLF,PF,IPF,
OPF,DDF),其中,P為輸人數(shù)據(jù)矩陣,T為輸出
數(shù)據(jù)矩陣,S為隱含層節(jié)點數(shù),”為節(jié)點傳遞函
數(shù),BTF為訓(xùn)練函數(shù),BLF為網(wǎng)絡(luò)學(xué)習(xí)函數(shù),PF為性能分析函數(shù),IPF為輸人處理函數(shù),oPF為輸
出處理函數(shù),DDF為驗證數(shù)據(jù)劃分函數(shù)。一般通
過設(shè)置S、”、BTF、BLF幾個參數(shù)來改變BP神
經(jīng)網(wǎng)絡(luò)性能,可選擇值如表1所示。
Table1
Fuction
paramete隋ofBP
ne刪network
裹1
BP神經(jīng)圈絡(luò)函數(shù)參斂
參數(shù)含義
可選參散及Maflab實璦函數(shù)
s<n一1(^為輸人層節(jié)點數(shù))
。融舍層s</石再■萬+n(n為輸入層節(jié)點數(shù),m為輸出
。
節(jié)點數(shù)層節(jié)點數(shù).n為o~lo的常數(shù))
S—Ibn(n為輸入層節(jié)點數(shù))
仃薹言蠖黧蘭№
硬限幅傳遞函數(shù)hardlim
對數(shù)S型傳遞函數(shù)Iogsig
梯度下降BP算法弼練函數(shù)traingd
動量反傳的梯度下降BP算法訓(xùn)練函數(shù)traingdm
…
。,。訓(xùn)練動態(tài)自適應(yīng)學(xué)習(xí)率的BP算法訓(xùn)練函數(shù)traingda函數(shù)
動量反傳和動態(tài)自適應(yīng)學(xué)習(xí)率的梯度下降BP算法調(diào)練函數(shù)traiagdx
Levenberg_Marquardt的BP算法訓(xùn)練函數(shù)trainlm
…網(wǎng)絡(luò)學(xué)BP學(xué)習(xí)規(guī)則函數(shù)learngd
~‘習(xí)函數(shù)帶動量項的BP學(xué)習(xí)規(guī)則函數(shù)learngdrrl
通過newff函數(shù)及S、TF、BTF、BLF等參數(shù)
的調(diào)整,可以構(gòu)造出不同類型的BP弱預(yù)測器。
本文提出的基于Adaboost算法的BP神經(jīng)網(wǎng)
98
Computer
Engineering&Science計算機(jī)工程與科學(xué)2013,35(8)
絡(luò)預(yù)測算法流程如圖2所示。
[捧磁據(jù)選擇)HB嘲預(yù)測器供型1)卜
叫BP弱預(yù)測器供型2)卜Adaboos!
i
‰㈤=半×{宇,妒l副
踟㈤一室峰塑型
圣(bg擊)
實驗與結(jié)果分析7、。一。一,!弧
3?1實驗數(shù)據(jù)
l樣本數(shù)據(jù)預(yù)處理卜_叫船弱預(yù)測器供型3)卜.
L叫BP弱預(yù)測器供型帕卜
Figure2
算法迭
代運算
圖
2Adaboost算法的BP神經(jīng)網(wǎng)絡(luò)預(yù)測算法流程圖3基于甜BP基于算法詳細(xì)步驟如下:
步驟1樣本數(shù)據(jù)選擇及網(wǎng)絡(luò)初始化。令迭
neu銎法ne的twork神wi經(jīng)th黼二法流程圖
L
,‘J
Predictionalgorithmflowchart
代次數(shù)t一1時,權(quán)值分布ln(i)=÷l,i=1,2,
…,咒,其中九為訓(xùn)練集樣本的數(shù)量,令初始誤差率£。一o。根據(jù)樣本輸入輸出維數(shù)設(shè)計網(wǎng)絡(luò)結(jié)構(gòu),并對BP網(wǎng)絡(luò)權(quán)值和閾值咖(o<≯<1)進(jìn)行初始化設(shè)置。
步驟2樣本數(shù)據(jù)預(yù)處理。步驟3
BP弱預(yù)測器預(yù)測。通過選取不同
UCI數(shù)據(jù)庫是美國加州大學(xué)歐文分校(Uni—
versityofCalifornia
Irvine)提供的用于機(jī)器學(xué)習(xí)
的著名數(shù)據(jù)庫,該庫目前共有220個數(shù)據(jù)集,并且其數(shù)目還在不斷增加。本實驗選擇UCI數(shù)據(jù)庫中
的Computer
Hardware、Concrete
Compressive
Strength兩個數(shù)據(jù)集進(jìn)行回歸預(yù)測,數(shù)據(jù)集下載地址為http://archive.ics.uci.edu/ml/datasets/。
Computer
Hardware數(shù)據(jù)集包含209條計算
BP神經(jīng)網(wǎng)絡(luò)函數(shù)構(gòu)造不同類別BP弱預(yù)測器。對
機(jī)CUP性能數(shù)據(jù),該數(shù)據(jù)集共有10個屬性,分別為VendorName(P1)、ModelName(P2)、MYCT(P3)、MMIN(P。)、MMAX(P5)、CACH(P6)、
CHMIN(P7)、CHMAX(P。)、PRP(Z0)、ERP
于£=1,…,丁進(jìn)行迭代,在訓(xùn)練第t個弱預(yù)測器
時,使用BP神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立回歸模型g。(z)一y。
計算g。(z)的誤差率e。:
(Z,。),其中PRP為硬件廠商公布的性能,ERP為預(yù)測性能。從中隨機(jī)選。保叮菇M數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),40組數(shù)據(jù)作為測試數(shù)據(jù),選。校场。作為訓(xùn)練屬性,選取磊作為實際輸出,Z。。供參考。
Computer
e。一>:D。(i)
其中i滿足I壘魚生二苧I>≯。
Yi
步驟4測試數(shù)據(jù)權(quán)重調(diào)整。令B=e;,更新
權(quán)重如下,式中Bf為標(biāo)準(zhǔn)化因子:
Table2
Hardware數(shù)據(jù)集原始數(shù)據(jù)如表2所
示。
ComputerhardwaredatasetComputerHardware數(shù)據(jù)集
Pt
P7
Ps
z9
表2
釋號PL
1
adviser
P2
P3
P‘Ps
32/60470v/7470v/7a470v/7b470v/7c
i
vs-100
125256600025616128198
2amdahl2980003200032832269
3amdahl2980003200032832220
4
amdahl29800032000328化駝;
5
amdahl29
8000
16000
328
1
208
;i
480
i
512
;
8000
;
32
i
0
wang
盯帖
209
wang
vs-904801000400000
李翔等:Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究
ConcreteCompressive
Strength數(shù)據(jù)集包含1
030條混凝土抗壓強(qiáng)度數(shù)據(jù),該數(shù)據(jù)集共有9個屬性Cement(P1)、Blast
FurnaceSlag(P2)、FlyAsh
(P3)、Water(P4)、Superplasticizer(P5)、Coarse
Aggregate(P6)、FineAggregate(P7)、Age(P8)、
450050400廠—P
f}
99
I匕=型望型1
1
0
350
掣300
250噻200
150
Concrete(Z9),其中,Concrete(Z9)為輸出的混凝土抗壓強(qiáng)度。從中隨機(jī)選。保埃埃敖M數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),30組數(shù)據(jù)作為測試數(shù)據(jù)。Concrete
pressive
Com—
10050
Strength數(shù)據(jù)集原始數(shù)據(jù)如表3所示。
5
10
152025303540
3.2實驗及結(jié)果分析
使用10個BP神經(jīng)網(wǎng)絡(luò)構(gòu)成弱預(yù)測器序列,
Figure3
Computer
Hardware預(yù)測樣本
error
Absolutevalueofcomputerhardwarprediction
Computer
這lo個BP神經(jīng)網(wǎng)絡(luò)的S、玎、BTF、BLF參數(shù)選
擇如表4所示。
Table
圖3
帖∞
弘
Hardware預(yù)測誤差絕對值圖
4
ParameterselectionofBPweakpredictor
表4BP弱預(yù)測器參數(shù)選擇
遙
七’
》(
如巧加
博m,00
鼎
淵媸
51510
ConcreteCompressive
20
25
30
Strength預(yù)測樣本
Figure4
Absolutevalueof
error
Concretecompressivestrengthprediction
圖4ConcreteCompressiveStrength預(yù)測誤差絕對值圖
Computer
sive
ComputerHardware和ConcreteCompres—
sive
Hardware和ConcreteCompres—
Strength數(shù)據(jù)集的網(wǎng)絡(luò)訓(xùn)練過程中誤差均方
下降曲線分別如圖5和圖6所示。
Computersive
Strength數(shù)據(jù)集的強(qiáng)預(yù)測器預(yù)測誤差絕對值Hardware和ConcreteCompres—
和弱預(yù)測器預(yù)測平均誤差絕對值圖分別如圖3和圖4所示。
Table3
ConcreteConcrete
Strength數(shù)據(jù)集的網(wǎng)絡(luò)訓(xùn)練回歸狀態(tài)圖分別
如圖7和圖8所示。
compressivestrengthdataset
表3
序號
1
Pl
P2
P3
CompressiveStrength數(shù)據(jù)集
P5
P6
P7
P8
P4Z9
79.99
54000
1622.5104067628
2540
O
O1622.510556762861.89
3
332.5
142.5O
228093259427040.27
4332.5142.5O228093259436541.05
5198.6132.4O1920978.4825.536044.30
:
●
:
●
:
●
1029159.1186.7O175.6
11.3989.6788.92832.77
1030
260.9
100.5
78.3200.68.6864.5761.52832.40
100
Computer
Engineering&Science計算機(jī)工程與科學(xué)2013,,35(8)
Training:R--O
0.5
93251
Validation:R=O92141
o。
g
篙
q
寧
一4-
暨0
寧±‰
昌冬
0南
噸C
¨
幫一0.5圭
導(dǎo)
土
星
蘭C
言一1
TargetTest:R=0.96907
All:R=092884
蘭o
024
6
lOEpoehs
0
Figure5
Decline
curve
ofComputerHardware
圖5
Computer
Hardware誤差均方下降曲線
Figure8
Regression
Concrete
state
ofConcreteCompressiveStrength
圖8
CompressiveStrength回歸狀態(tài)圖Contrastbetweenmean
predictionresults
Table7
error
absolutevalueof
表7預(yù)測結(jié)果平均誤差絕對值對比
預(yù)測模型co平m均pu誤ter差H絕ar?qū)Γ洌髦担幔颍?/p>
c帆;{i;蕊8iw
2.294.78
20Epochs
AdaboostBP33.89
Figure6
Decline
curve
ofConcrete
BP68.36
CompressiveStrengthMSE
圖6
卜
ConcreteCompressiveStrength誤差均方下降曲線
Training:R--0.98424
使用相關(guān)系數(shù)R來表示擬合的好壞,R的取值范圍為[o1],R越接近1,表明方程的變量對Y的解釋能力越強(qiáng),這個模型對數(shù)據(jù)擬合得也較好。
從圖3可以看出,ComputerHardware數(shù)據(jù)集預(yù)測誤差值中,強(qiáng)預(yù)測器預(yù)測誤差明顯小于弱預(yù)測器預(yù)測誤差,強(qiáng)預(yù)測器整體預(yù)測誤差較小,預(yù)測結(jié)果較好。從圖5可以看出,ComputerHardware數(shù)據(jù)集訓(xùn)練的誤差均方下降曲線收斂速度較快,在第
g寧
老
毒
冬
詈一0
1
圣
毒一
罨。
±鮚
Test:R:o91412
l
All:R=0.96907
四步時達(dá)到最好的驗證集效果為0.0055,誤差曲線開始趨于平緩,誤差值基本不再發(fā)生變化,效果較好。從圖7可以看出,強(qiáng)預(yù)測器預(yù)測的訓(xùn)練集
05
喜}g
0
有一0
土
05
R一0.984R一0.914
2,驗證集R一0.9863,測試集1,總體R一0.9690,回歸預(yù)測結(jié)果很好。
Compressive
己
芎e‘
-0.5Target
0
一
●
從圖4可以看出,Concrete
Strength數(shù)據(jù)集預(yù)測誤差值中,強(qiáng)預(yù)測器預(yù)測誤差
state
Figure7
Regression
ofComputerHardware明顯小于弱預(yù)測器預(yù)測誤差,強(qiáng)預(yù)測器整體預(yù)測誤差較小,預(yù)測結(jié)果較好。從圖6可以看出,Con-
crete
圖7ComputerHardware回歸狀態(tài)圖
Computer
Hardware數(shù)據(jù)集測預(yù)誤差如表5
Compressive
Compressive
Strength數(shù)據(jù)集訓(xùn)練的誤差均
所示,Concrete表7所示。
Strength數(shù)據(jù)集預(yù)測
方下降曲線在第15步時達(dá)到最好的驗證集效果為
0.002
誤差如表6所示,預(yù)測結(jié)果平均誤差絕對值對比如
1,誤差曲線開始趨于平緩,誤差值基本不再
發(fā)生變化,效果較好。從圖8可以看出,強(qiáng)預(yù)測器
下載地址:73Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究_圖文.Doc
【】最新搜索
Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究_圖文
幼兒園師帶徒協(xié)議書
小學(xué)漢語拼音字母表卡片(四線格版)03
52替魏延辯誣
962011年時事政治(國內(nèi)外)[1]
銷售精英激勵與實戰(zhàn)技能提升15
18拳擊比賽的技巧
四五六單元上冊教案語文71
71二年級上豎式計算
100年后45
本文關(guān)鍵詞:Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究,由筆耕文化傳播整理發(fā)布。
本文編號:176400
本文鏈接:http://sikaile.net/kejilunwen/rengongzhinen/176400.html