短期交通流深度學(xué)習(xí)預(yù)測(cè)模型及其并行訓(xùn)練
發(fā)布時(shí)間:2020-12-28 03:43
實(shí)時(shí)、準(zhǔn)確的短期交通流預(yù)測(cè)是交通控制與交通誘導(dǎo)的前提,對(duì)交通擁堵的緩解、社會(huì)經(jīng)濟(jì)的進(jìn)步有著重要的意義。深度學(xué)習(xí)的出現(xiàn)為交通流預(yù)測(cè)提供了新的思路,本文采用深度信念網(wǎng)絡(luò)(deepbeliefnetwork,DBN)與棧式自動(dòng)編碼器(stacked autoencoder,SAE)兩種深度網(wǎng)絡(luò)分別構(gòu)建交通流預(yù)測(cè)模型,通過(guò)無(wú)監(jiān)督學(xué)習(xí)的方式提取交通流特征。然而,DBN與SAE預(yù)測(cè)模型的訓(xùn)練過(guò)程是非常耗時(shí)的,不能很好滿(mǎn)足交通流預(yù)測(cè)應(yīng)用系統(tǒng)的實(shí)時(shí)性要求。本文提出了一種基于數(shù)據(jù)并行方式的并行訓(xùn)練策略,分析了并行訓(xùn)練的可行性,推導(dǎo)了并行訓(xùn)練的公式,從而縮短了兩種交通流預(yù)測(cè)模型的訓(xùn)練時(shí)間,提高了預(yù)測(cè)應(yīng)用的實(shí)時(shí)性。具體研究?jī)?nèi)容如下:首先,選取單路段單個(gè)斷面的交通流量為研究對(duì)象,基于兩種深度學(xué)習(xí)網(wǎng)絡(luò)分別構(gòu)建交通流預(yù)測(cè)模型,并完成模型的訓(xùn)練與測(cè)試過(guò)程。將其測(cè)試結(jié)果與傳統(tǒng)模型的測(cè)試結(jié)果進(jìn)行對(duì)比。本文選用的傳統(tǒng)模型包括BP神經(jīng)網(wǎng)絡(luò)(backpropagation neural network,BP-NN)與支持向量機(jī)(support vectormachine,SVM)。仿真結(jié)果表明,兩種基于深度網(wǎng)絡(luò)的模型預(yù)測(cè)精度...
【文章來(lái)源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:88 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-4?Tanh函數(shù)??Figure?2-4?Tanh?function??
?5?10??圖2-4?Tanh函數(shù)??Figure?2-4?Tanh?function??相對(duì)于sigmoid函數(shù),tanh函數(shù)的輸出以0為中心,用其作為激活函數(shù),收斂??速度也較快。但與sigmoid函數(shù)相似,選用tanh函數(shù)作為激活函數(shù),在誤差反傳過(guò)??程中依然會(huì)出現(xiàn)梯度消失的問(wèn)題。??(3)?ReLU?函數(shù)??16??
常是在誤差函數(shù)表達(dá)式中入項(xiàng),項(xiàng)L1正則化的處理方法是通過(guò)限定權(quán)值來(lái)得到一個(gè)稀疏合問(wèn)題。??化??L2?regularization)與L1正則化相似,也是對(duì)誤差函數(shù)進(jìn)E?=?E0+^-Y,w2L1正則化的原理相似,同樣是對(duì)權(quán)值進(jìn)行限定。使用L2過(guò)程中可以將權(quán)值的范數(shù)限制在一定范圍內(nèi),使最終的ight?decay)。權(quán)值衰減使模型復(fù)雜度降低,從而解決過(guò)t??是針對(duì)模型來(lái)解決過(guò)擬合問(wèn)題的一種方法,采用直接減如圖2-6所示。Dropout方法的具體過(guò)程是在每一次迭代層的一部分神經(jīng)元,丟棄比例視具體情況而定。這樣在,可以得到稀疏的網(wǎng)絡(luò)參數(shù),從而減少參數(shù)的計(jì)算量。??
本文編號(hào):2943065
【文章來(lái)源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:88 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-4?Tanh函數(shù)??Figure?2-4?Tanh?function??
?5?10??圖2-4?Tanh函數(shù)??Figure?2-4?Tanh?function??相對(duì)于sigmoid函數(shù),tanh函數(shù)的輸出以0為中心,用其作為激活函數(shù),收斂??速度也較快。但與sigmoid函數(shù)相似,選用tanh函數(shù)作為激活函數(shù),在誤差反傳過(guò)??程中依然會(huì)出現(xiàn)梯度消失的問(wèn)題。??(3)?ReLU?函數(shù)??16??
常是在誤差函數(shù)表達(dá)式中入項(xiàng),項(xiàng)L1正則化的處理方法是通過(guò)限定權(quán)值來(lái)得到一個(gè)稀疏合問(wèn)題。??化??L2?regularization)與L1正則化相似,也是對(duì)誤差函數(shù)進(jìn)E?=?E0+^-Y,w2L1正則化的原理相似,同樣是對(duì)權(quán)值進(jìn)行限定。使用L2過(guò)程中可以將權(quán)值的范數(shù)限制在一定范圍內(nèi),使最終的ight?decay)。權(quán)值衰減使模型復(fù)雜度降低,從而解決過(guò)t??是針對(duì)模型來(lái)解決過(guò)擬合問(wèn)題的一種方法,采用直接減如圖2-6所示。Dropout方法的具體過(guò)程是在每一次迭代層的一部分神經(jīng)元,丟棄比例視具體情況而定。這樣在,可以得到稀疏的網(wǎng)絡(luò)參數(shù),從而減少參數(shù)的計(jì)算量。??
本文編號(hào):2943065
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/2943065.html
最近更新
教材專(zhuān)著