天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > AI論文 >

73Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究

發(fā)布時間:2016-11-15 23:10

  本文關(guān)鍵詞:Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究,由筆耕文化傳播整理發(fā)布。


CN43—1258/TPISSN1007—130;計算機(jī)工程與科學(xué);ComputerEngineering&Scie;第35卷第8期2013年8月;V01.35,No.8,Aug.2013;文章編號:1007一130X(2013)08—0;Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究;李翔,朱全銀;(淮陰工學(xué)院計算機(jī)工程學(xué)院,江蘇淮安223003;摘要:針對

CN43—1258/TPISSN1007—130X

計算機(jī)工程與科學(xué)

ComputerEngineering&Science

第35卷第8期2013年8月

V01.35,No.8,Aug.2013

文章編號:1007一130X(2013)08—0096—07

Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究。

李翔,朱全銀

(淮陰工學(xué)院計算機(jī)工程學(xué)院,江蘇淮安223003)

摘要:針對傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)容易陷入局部極小、預(yù)測精度低的問題,提出使用Adaboost算法和

BP神經(jīng)網(wǎng)絡(luò)相結(jié)合的方法,提高網(wǎng)絡(luò)預(yù)測精度和泛化能力。該方法首先對樣本數(shù)據(jù)進(jìn)行預(yù)處理并初始化測試數(shù)據(jù)分布權(quán)值;然后通過選取不同的隱含層節(jié)點數(shù)、節(jié)點傳遞函數(shù)、訓(xùn)練函數(shù)、網(wǎng)絡(luò)學(xué)習(xí)函數(shù)構(gòu)造出不同類型的BP弱預(yù)測器并對樣本數(shù)據(jù)進(jìn)行反復(fù)訓(xùn)練;最后使用Adaboost算法將得到的多個BP神經(jīng)網(wǎng)絡(luò)弱預(yù)測器組成新的強(qiáng)預(yù)測器。對UCI數(shù)據(jù)庫中數(shù)據(jù)集進(jìn)行仿真實驗,結(jié)果表明本方法比傳統(tǒng)BP網(wǎng)絡(luò)預(yù)測平均誤差絕對值減少近50%,提高了網(wǎng)絡(luò)預(yù)測精度,為神經(jīng)網(wǎng)絡(luò)預(yù)測提供借鑒。

關(guān)鍵詞:神經(jīng)網(wǎng)絡(luò);強(qiáng)預(yù)測器;迭代算法;adaboost算法中圖分類號:TPl83

doi:10.3969/j.issn.1007—130X.2013.08.015

文獻(xiàn)標(biāo)志碼:A

PredictionofimprovedBPneuralnetwork

byAdaboostalgorithm

LIXiang,ZHUQuan—yin

(Facultyof

Computer

Engineering,HuaiyinInstituteofTechnology,Huai’an223003,China)

Abstract:ThetraditionalBP(BackPropagation)neuralnetworkiseasy

andhasloweraccuracy.AccordingBPneuralnetworkisproposed

to

to

to

fallintolocalminimum

thisproblem,amethodthatcombinestheAdaboostalgorithmand

improvethepredictionaccuracyandgeneralizationabilityoftheneural

network.Firstly,themethodpreprocessesthehistoricaldataandinitializesthedistributionweightsof

test

data.Secondly,itselectsdifferenthiddenlayernodes,nodetransferfunctions,trainingfunctions,

toconstruct

andnetworklearningfunctionsweakpredictorsofBPneuralnetworkandtrainsthesample

to

datarepeatedly.Finally,itmademoreweakpredictorsofBPneuralnetwork

form

newstrongpre—

dictorbyAdaboostalgorithm.ThedatabaseofUCI(UniversityofCaliforniaIrvine)isusedinexperi-ments.Theresultsshowthatthismethodpared

to

can

reducenearly50%forthemean

error

absolutevaluecorn—

thetraditionalBPnetwork,andimprovethepredictionaccuracyofnetwork.Sothismethod

providesreferencesfortheneuralnetworkprediction.

Keywords:neuralnetwork;strongpredictor;iterativealgorithm;adaboostalgorithm

絡(luò)具有較高的預(yù)測精度、較好的通用性、較強(qiáng)的非

引言

反向傳播BP(BackPropagation)神經(jīng)網(wǎng)絡(luò)是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一[1]。BP神經(jīng)網(wǎng)

線性映射能力等優(yōu)點。但是,BP神經(jīng)網(wǎng)絡(luò)也存在一些缺陷,主要表現(xiàn)為容易陷入局部極小值、算法收斂速度較慢、隱含單元的數(shù)目選擇尚無一般性指導(dǎo)原則、新加入的學(xué)習(xí)樣本對已學(xué)完樣本的學(xué)習(xí)結(jié)果影響較大等問題。

收稿日期:2012—06—18}修回日期:2012—10—22

基金項目:國家星火計劃資助項且(2011GA690190);江蘇省屬高校自然科學(xué)重大基礎(chǔ)研究資助項目(11KJA460001)通訊地址:223003江蘇省淮安市大學(xué)城淮陰工學(xué)院計算機(jī)工程學(xué)院

Address:FacultyofComputerEngineering,HuaiyinInstituteofTechnology,Huai’an

223003,Jiangsu,P,R.China

李翔等:Adahoost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究針對以上問題,提出了很多BP網(wǎng)絡(luò)改進(jìn)方

法。文獻(xiàn)[2,3]提出通過采用附加動量法和變學(xué)習(xí)

率改進(jìn)BP網(wǎng)絡(luò)。附加動量法有助于使網(wǎng)絡(luò)從誤差曲面的局部極小值中跳出,但對于絕大多數(shù)實際應(yīng)用問題,該方法訓(xùn)練速度仍然較慢。變學(xué)習(xí)率方法根據(jù)誤差變化自適應(yīng)調(diào)整,使權(quán)系數(shù)調(diào)整向誤差

減少的方向變化,但該方法仍然存在權(quán)值修正量較

小的問題,導(dǎo)致學(xué)習(xí)率降低。文獻(xiàn)[4,5]提出使用粒子群算法優(yōu)化BP網(wǎng)絡(luò),使網(wǎng)絡(luò)訓(xùn)練收斂到全局的最優(yōu),已解決了BP算法易陷入局部極小值的問題,但該算法只能有限提高原有BP神經(jīng)網(wǎng)絡(luò)的預(yù)測精度,并不能把預(yù)測誤差較大的BP神經(jīng)網(wǎng)絡(luò)優(yōu)化為能夠準(zhǔn)確預(yù)測的BP網(wǎng)絡(luò),且對樣本數(shù)量少、樣本分布不均勻而造成預(yù)測誤差大的問題,優(yōu)化后

的網(wǎng)絡(luò)預(yù)測能力一般得不到明顯提高。文獻(xiàn)[61提

出將Adaboost算法應(yīng)用到BP網(wǎng)絡(luò),但選用的數(shù)據(jù)記錄僅有11條,預(yù)測結(jié)果可信度不足。

本文針對上述問題,提出BP神經(jīng)網(wǎng)絡(luò)結(jié)合Adaboost算法組成的強(qiáng)預(yù)測器的方法,并用UCI

數(shù)據(jù)庫中的數(shù)據(jù)集進(jìn)行仿真實驗,證明本文所提方

法的有效性。

BP神經(jīng)網(wǎng)絡(luò)與Adaboost算法

2.1

BP神經(jīng)網(wǎng)絡(luò)原理

BP神經(jīng)網(wǎng)絡(luò)是一種有監(jiān)督學(xué)習(xí)多層前饋神經(jīng)

網(wǎng)絡(luò),其主要特點是信號前向傳遞、誤差反向傳播[7]。在信號前向傳遞過程中,輸入信號從輸入層

進(jìn)入,經(jīng)過隱含層處理,到達(dá)輸出層。每一層的神經(jīng)元狀態(tài)只影響下一層的神經(jīng)元狀態(tài)。判斷輸出層的結(jié)果是否為期望輸出,如果不是,則轉(zhuǎn)入反向傳播,然后根據(jù)預(yù)測誤差調(diào)整網(wǎng)絡(luò)權(quán)值和閾值,從而使BP神經(jīng)網(wǎng)絡(luò)預(yù)測輸出不斷逼近期望輸出[8],BP神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)如圖1所示。

輸人層

患舍層

輸出層

Figure1

Topological

structure

ofBPneuralnetwork

圖1BP神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)圖

97

圖1中,zl,z:,…,z。是BP神經(jīng)網(wǎng)絡(luò)的輸入值,姐。…,Y。是BP神經(jīng)網(wǎng)絡(luò)的預(yù)測值,∞a和∞業(yè)為BP神經(jīng)網(wǎng)絡(luò)權(quán)值。

2.2

Adaboost算法原理

Adaboost是一種迭代算法,通過對弱學(xué)習(xí)算

法的加強(qiáng)而得到強(qiáng)學(xué)習(xí)算法,即通過一個包含關(guān)鍵特征的弱分類器集合,構(gòu)建出具有理想分類能力的強(qiáng)分類器口]。Adaboost算法的優(yōu)點在于它使用加權(quán)后選取的訓(xùn)練數(shù)據(jù)代替隨機(jī)選取的訓(xùn)練樣本,將弱分類器聯(lián)合起來,使用加權(quán)的投票機(jī)制代替平均投票機(jī)制[1

0。。

2.3基于Adaboost算法的BP神經(jīng)網(wǎng)絡(luò)預(yù)測模型

本文通過對BP神經(jīng)網(wǎng)絡(luò)選取不同參數(shù)來構(gòu)造多類BP弱預(yù)測器,然后使用Adaboost算法將得到的多個弱預(yù)測器組成新的強(qiáng)預(yù)測器。

BP神經(jīng)網(wǎng)絡(luò)在Matlab中的構(gòu)造函數(shù)為:

net

newff(P,T,S,TF,BTF,BLF,PF,IPF,

OPF,DDF),其中,P為輸人數(shù)據(jù)矩陣,T為輸出

數(shù)據(jù)矩陣,S為隱含層節(jié)點數(shù),”為節(jié)點傳遞函

數(shù),BTF為訓(xùn)練函數(shù),BLF為網(wǎng)絡(luò)學(xué)習(xí)函數(shù),PF為性能分析函數(shù),IPF為輸人處理函數(shù),oPF為輸

出處理函數(shù),DDF為驗證數(shù)據(jù)劃分函數(shù)。一般通

過設(shè)置S、”、BTF、BLF幾個參數(shù)來改變BP神

經(jīng)網(wǎng)絡(luò)性能,可選擇值如表1所示。

Table1

Fuction

paramete隋ofBP

ne刪network

裹1

BP神經(jīng)圈絡(luò)函數(shù)參斂

參數(shù)含義

可選參散及Maflab實璦函數(shù)

s<n一1(^為輸人層節(jié)點數(shù))

。融舍層s</石再■萬+n(n為輸入層節(jié)點數(shù),m為輸出

。

節(jié)點數(shù)層節(jié)點數(shù).n為o~lo的常數(shù))

S—Ibn(n為輸入層節(jié)點數(shù))

仃薹言蠖黧蘭№

硬限幅傳遞函數(shù)hardlim

對數(shù)S型傳遞函數(shù)Iogsig

梯度下降BP算法弼練函數(shù)traingd

動量反傳的梯度下降BP算法訓(xùn)練函數(shù)traingdm

。,。訓(xùn)練動態(tài)自適應(yīng)學(xué)習(xí)率的BP算法訓(xùn)練函數(shù)traingda函數(shù)

動量反傳和動態(tài)自適應(yīng)學(xué)習(xí)率的梯度下降BP算法調(diào)練函數(shù)traiagdx

Levenberg_Marquardt的BP算法訓(xùn)練函數(shù)trainlm

…網(wǎng)絡(luò)學(xué)BP學(xué)習(xí)規(guī)則函數(shù)learngd

~‘習(xí)函數(shù)帶動量項的BP學(xué)習(xí)規(guī)則函數(shù)learngdrrl

通過newff函數(shù)及S、TF、BTF、BLF等參數(shù)

的調(diào)整,可以構(gòu)造出不同類型的BP弱預(yù)測器。

本文提出的基于Adaboost算法的BP神經(jīng)網(wǎng)

98

Computer

Engineering&Science計算機(jī)工程與科學(xué)2013,35(8)

絡(luò)預(yù)測算法流程如圖2所示。

[捧磁據(jù)選擇)HB嘲預(yù)測器供型1)卜

叫BP弱預(yù)測器供型2)卜Adaboos!

‰㈤=半×{宇,妒l副

踟㈤一室峰塑型

圣(bg擊)

實驗與結(jié)果分析7、。一。一,!弧

3?1實驗數(shù)據(jù)

l樣本數(shù)據(jù)預(yù)處理卜_叫船弱預(yù)測器供型3)卜.

L叫BP弱預(yù)測器供型帕卜

Figure2

算法迭

代運算

2Adaboost算法的BP神經(jīng)網(wǎng)絡(luò)預(yù)測算法流程圖3基于甜BP基于算法詳細(xì)步驟如下:

步驟1樣本數(shù)據(jù)選擇及網(wǎng)絡(luò)初始化。令迭

neu銎法ne的twork神wi經(jīng)th黼二法流程圖

,‘J

Predictionalgorithmflowchart

代次數(shù)t一1時,權(quán)值分布ln(i)=÷l,i=1,2,

…,咒,其中九為訓(xùn)練集樣本的數(shù)量,令初始誤差率£。一o。根據(jù)樣本輸入輸出維數(shù)設(shè)計網(wǎng)絡(luò)結(jié)構(gòu),并對BP網(wǎng)絡(luò)權(quán)值和閾值咖(o<≯<1)進(jìn)行初始化設(shè)置。

步驟2樣本數(shù)據(jù)預(yù)處理。步驟3

BP弱預(yù)測器預(yù)測。通過選取不同

UCI數(shù)據(jù)庫是美國加州大學(xué)歐文分校(Uni—

versityofCalifornia

Irvine)提供的用于機(jī)器學(xué)習(xí)

的著名數(shù)據(jù)庫,該庫目前共有220個數(shù)據(jù)集,并且其數(shù)目還在不斷增加。本實驗選擇UCI數(shù)據(jù)庫中

的Computer

Hardware、Concrete

Compressive

Strength兩個數(shù)據(jù)集進(jìn)行回歸預(yù)測,數(shù)據(jù)集下載地址為http://archive.ics.uci.edu/ml/datasets/。

Computer

Hardware數(shù)據(jù)集包含209條計算

BP神經(jīng)網(wǎng)絡(luò)函數(shù)構(gòu)造不同類別BP弱預(yù)測器。對

機(jī)CUP性能數(shù)據(jù),該數(shù)據(jù)集共有10個屬性,分別為VendorName(P1)、ModelName(P2)、MYCT(P3)、MMIN(P。)、MMAX(P5)、CACH(P6)、

CHMIN(P7)、CHMAX(P。)、PRP(Z0)、ERP

于£=1,…,丁進(jìn)行迭代,在訓(xùn)練第t個弱預(yù)測器

時,使用BP神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,建立回歸模型g。(z)一y。

計算g。(z)的誤差率e。:

(Z,。),其中PRP為硬件廠商公布的性能,ERP為預(yù)測性能。從中隨機(jī)選。保叮菇M數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),40組數(shù)據(jù)作為測試數(shù)據(jù),選。校场。作為訓(xùn)練屬性,選取磊作為實際輸出,Z。。供參考。

Computer

e。一>:D。(i)

其中i滿足I壘魚生二苧I>≯。

Yi

步驟4測試數(shù)據(jù)權(quán)重調(diào)整。令B=e;,更新

權(quán)重如下,式中Bf為標(biāo)準(zhǔn)化因子:

Table2

Hardware數(shù)據(jù)集原始數(shù)據(jù)如表2所

示。

ComputerhardwaredatasetComputerHardware數(shù)據(jù)集

Pt

P7

Ps

z9

表2

釋號PL

adviser

P2

P3

P‘Ps

32/60470v/7470v/7a470v/7b470v/7c

vs-100

125256600025616128198

2amdahl2980003200032832269

3amdahl2980003200032832220

amdahl29800032000328化駝;

amdahl29

8000

16000

328

208

;i

480

512

;

8000

32

wang

盯帖

209

wang

vs-904801000400000

李翔等:Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究

ConcreteCompressive

Strength數(shù)據(jù)集包含1

030條混凝土抗壓強(qiáng)度數(shù)據(jù),該數(shù)據(jù)集共有9個屬性Cement(P1)、Blast

FurnaceSlag(P2)、FlyAsh

(P3)、Water(P4)、Superplasticizer(P5)、Coarse

Aggregate(P6)、FineAggregate(P7)、Age(P8)、

450050400廠—P

f}

99

I匕=型望型1

350

掣300

250噻200

150

Concrete(Z9),其中,Concrete(Z9)為輸出的混凝土抗壓強(qiáng)度。從中隨機(jī)選。保埃埃敖M數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),30組數(shù)據(jù)作為測試數(shù)據(jù)。Concrete

pressive

Com—

10050

Strength數(shù)據(jù)集原始數(shù)據(jù)如表3所示。

10

152025303540

3.2實驗及結(jié)果分析

使用10個BP神經(jīng)網(wǎng)絡(luò)構(gòu)成弱預(yù)測器序列,

Figure3

Computer

Hardware預(yù)測樣本

error

Absolutevalueofcomputerhardwarprediction

Computer

這lo個BP神經(jīng)網(wǎng)絡(luò)的S、玎、BTF、BLF參數(shù)選

擇如表4所示。

Table

圖3

帖∞

Hardware預(yù)測誤差絕對值圖

ParameterselectionofBPweakpredictor

表4BP弱預(yù)測器參數(shù)選擇

七’

》(

如巧加

博m,00

淵媸

51510

ConcreteCompressive

20

25

30

Strength預(yù)測樣本

Figure4

Absolutevalueof

error

Concretecompressivestrengthprediction

圖4ConcreteCompressiveStrength預(yù)測誤差絕對值圖

Computer

sive

ComputerHardware和ConcreteCompres—

sive

Hardware和ConcreteCompres—

Strength數(shù)據(jù)集的網(wǎng)絡(luò)訓(xùn)練過程中誤差均方

下降曲線分別如圖5和圖6所示。

Computersive

Strength數(shù)據(jù)集的強(qiáng)預(yù)測器預(yù)測誤差絕對值Hardware和ConcreteCompres—

和弱預(yù)測器預(yù)測平均誤差絕對值圖分別如圖3和圖4所示。

Table3

ConcreteConcrete

Strength數(shù)據(jù)集的網(wǎng)絡(luò)訓(xùn)練回歸狀態(tài)圖分別

如圖7和圖8所示。

compressivestrengthdataset

表3

序號

Pl

P2

P3

CompressiveStrength數(shù)據(jù)集

P5

P6

P7

P8

P4Z9

79.99

54000

1622.5104067628

2540

O1622.510556762861.89

332.5

142.5O

228093259427040.27

4332.5142.5O228093259436541.05

5198.6132.4O1920978.4825.536044.30

1029159.1186.7O175.6

11.3989.6788.92832.77

1030

260.9

100.5

78.3200.68.6864.5761.52832.40

100

Computer

Engineering&Science計算機(jī)工程與科學(xué)2013,,35(8)

Training:R--O

0.5

93251

Validation:R=O92141

o。

一4-

暨0

寧±‰

昌冬

0南

噸C

¨

幫一0.5圭

導(dǎo)

蘭C

言一1

TargetTest:R=0.96907

All:R=092884

蘭o

024

lOEpoehs

Figure5

Decline

curve

ofComputerHardware

圖5

Computer

Hardware誤差均方下降曲線

Figure8

Regression

Concrete

state

ofConcreteCompressiveStrength

圖8

CompressiveStrength回歸狀態(tài)圖Contrastbetweenmean

predictionresults

Table7

error

absolutevalueof

表7預(yù)測結(jié)果平均誤差絕對值對比

預(yù)測模型co平m均pu誤ter差H絕ar?qū)Γ洌髦担幔颍?/p>

c帆;{i;蕊8iw

2.294.78

20Epochs

AdaboostBP33.89

Figure6

Decline

curve

ofConcrete

BP68.36

CompressiveStrengthMSE

圖6

ConcreteCompressiveStrength誤差均方下降曲線

Training:R--0.98424

使用相關(guān)系數(shù)R來表示擬合的好壞,R的取值范圍為[o1],R越接近1,表明方程的變量對Y的解釋能力越強(qiáng),這個模型對數(shù)據(jù)擬合得也較好。

從圖3可以看出,ComputerHardware數(shù)據(jù)集預(yù)測誤差值中,強(qiáng)預(yù)測器預(yù)測誤差明顯小于弱預(yù)測器預(yù)測誤差,強(qiáng)預(yù)測器整體預(yù)測誤差較小,預(yù)測結(jié)果較好。從圖5可以看出,ComputerHardware數(shù)據(jù)集訓(xùn)練的誤差均方下降曲線收斂速度較快,在第

g寧

詈一0

毒一

罨。

±鮚

Test:R:o91412

All:R=0.96907

四步時達(dá)到最好的驗證集效果為0.0055,誤差曲線開始趨于平緩,誤差值基本不再發(fā)生變化,效果較好。從圖7可以看出,強(qiáng)預(yù)測器預(yù)測的訓(xùn)練集

05

喜}g

有一0

05

R一0.984R一0.914

2,驗證集R一0.9863,測試集1,總體R一0.9690,回歸預(yù)測結(jié)果很好。

Compressive

芎e‘

-0.5Target

從圖4可以看出,Concrete

Strength數(shù)據(jù)集預(yù)測誤差值中,強(qiáng)預(yù)測器預(yù)測誤差

state

Figure7

Regression

ofComputerHardware明顯小于弱預(yù)測器預(yù)測誤差,強(qiáng)預(yù)測器整體預(yù)測誤差較小,預(yù)測結(jié)果較好。從圖6可以看出,Con-

crete

圖7ComputerHardware回歸狀態(tài)圖

Computer

Hardware數(shù)據(jù)集測預(yù)誤差如表5

Compressive

Compressive

Strength數(shù)據(jù)集訓(xùn)練的誤差均

所示,Concrete表7所示。

Strength數(shù)據(jù)集預(yù)測

方下降曲線在第15步時達(dá)到最好的驗證集效果為

0.002

誤差如表6所示,預(yù)測結(jié)果平均誤差絕對值對比如

1,誤差曲線開始趨于平緩,誤差值基本不再

發(fā)生變化,效果較好。從圖8可以看出,強(qiáng)預(yù)測器

 

 

下載地址:73Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究_圖文.Doc

  【】

最新搜索

Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究_圖文

幼兒園師帶徒協(xié)議書

小學(xué)漢語拼音字母表卡片(四線格版)03

52替魏延辯誣

962011年時事政治(國內(nèi)外)[1]

銷售精英激勵與實戰(zhàn)技能提升15

18拳擊比賽的技巧

四五六單元上冊教案語文71

71二年級上豎式計算

100年后45


  本文關(guān)鍵詞:Adaboost算法改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測研究,由筆耕文化傳播整理發(fā)布。



本文編號:176400

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/rengongzhinen/176400.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶c31c1***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com
午夜成年人黄片免费观看| 欧美日韩一区二区综合| 欧美在线观看视频免费不卡| 日韩一区二区三区观看| 国产成人精品一区在线观看 | 五月情婷婷综合激情综合狠狠| 日本精品啪啪一区二区三区| 内用黄老外示儒术出处| 国产亚洲欧美自拍中文自拍| 91天堂免费在线观看| 色偷偷亚洲女人天堂观看 | 欧美乱码精品一区二区三| 小黄片大全欧美一区二区| 国产午夜免费在线视频| 亚洲国产av在线视频| 美女露小粉嫩91精品久久久| 亚洲最新中文字幕在线视频| 一级片二级片欧美日韩| 很黄很污在线免费观看| 91久久精品国产成人| 香蕉久久夜色精品国产尤物 | 国产午夜在线精品视频| av国产熟妇露脸在线观看| 色无极东京热男人的天堂| 精品欧美日韩一二三区| 大香蕉久久精品一区二区字幕 | 久久精品久久久精品久久| 日韩国产亚洲欧美激情| 欧美成人国产精品高清| 黄色国产一区二区三区| 久久婷婷综合色拍亚洲| 午夜视频成人在线观看| 免费在线观看欧美喷水黄片| 黑人粗大一区二区三区| 婷婷伊人综合中文字幕| 久久精品国产99精品最新| 国产爆操白丝美女在线观看| 日本三区不卡高清更新二区| 欧美日本精品视频在线观看| 黄片在线免费观看全集| 久久婷婷综合色拍亚洲|