面向公交到達(dá)時(shí)間應(yīng)用的循環(huán)神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)算法系統(tǒng)實(shí)現(xiàn)
發(fā)布時(shí)間:2021-03-04 00:29
在城市的交通系統(tǒng)中,公交網(wǎng)絡(luò)系統(tǒng)是非常重要的一部分,而在構(gòu)建智能公交系統(tǒng)的過(guò)程中,提高公交網(wǎng)絡(luò)資源利用率以及準(zhǔn)確預(yù)測(cè)公共交通車輛到達(dá)時(shí)間極為關(guān)鍵。準(zhǔn)確預(yù)測(cè)公交車到達(dá)時(shí)間是公共交通領(lǐng)域的難題。傳統(tǒng)的預(yù)測(cè)方法主要利用到達(dá)時(shí)間和站間距離,而沒(méi)有充分利用乘客數(shù)量、停留時(shí)間、公交行駛效率等動(dòng)態(tài)因素,而這對(duì)公交到站時(shí)間有顯著影響。與此同時(shí),近年來(lái)人工智能新硬件與公共交通結(jié)合是提升城市交通智能化的新興發(fā)展趨勢(shì),但是如何對(duì)算法進(jìn)行性能優(yōu)化、如何通過(guò)集成度高的平臺(tái)(如FPGA、嵌入式等)進(jìn)行算法實(shí)現(xiàn)也是需要討論及解決的問(wèn)題。為了克服傳統(tǒng)方法的缺點(diǎn),本文提出了公交行駛效率的評(píng)定方法與一種基于具有雙階段注意機(jī)制的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的新型公交車到達(dá)時(shí)間預(yù)測(cè)方法。首先,本文通過(guò)對(duì)共公共交通行駛車輛到達(dá)時(shí)間預(yù)測(cè)的模型及算法的深入研究,發(fā)現(xiàn)DA-RNN(基于雙階段注意力的遞歸神經(jīng)網(wǎng)絡(luò))的性能優(yōu)于其他經(jīng)典的預(yù)測(cè)模型。我們選擇引入注意機(jī)制以從異構(gòu)信息中自適應(yīng)地選擇最相關(guān)的因素,并建立了一個(gè)基于DA-RNN(基于雙階段注意的遞歸神經(jīng)網(wǎng)絡(luò))的預(yù)測(cè)網(wǎng)絡(luò)。其次,本文發(fā)現(xiàn)在公交到達(dá)時(shí)間預(yù)測(cè)模型中輸入動(dòng)態(tài)因素可以提高公交車到站...
【文章來(lái)源】:山東大學(xué)山東省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:72 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1預(yù)測(cè)模型類型圖??2.1.2平均速度??另外一類歷史數(shù)據(jù)模型使用公共交通車輛運(yùn)行在目標(biāo)線路上的平均速度來(lái)??
?山東大學(xué)碩士學(xué)位論文???效地提供令人滿意的公交車到達(dá)時(shí)間預(yù)測(cè)信息。??隱藏層??輸入層??圖2-2神經(jīng)元網(wǎng)絡(luò)??2.3.3多層感知器(MLP)??多層感知器(MLP)【42]是由完全連接的層組成的簡(jiǎn)單神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)為前向??結(jié)構(gòu),可以將一組的輸入向量作為信息映射到一組輸出向量上。MLP神經(jīng)網(wǎng)絡(luò)??的層數(shù)為三層,在每一層中都含有16個(gè)神經(jīng)元。??也可以將多層感知器(MLP)當(dāng)作為一個(gè)有向圖,該模型由一個(gè)一個(gè)的節(jié)點(diǎn)??層相互連接構(gòu)成,其中每一個(gè)節(jié)點(diǎn)層都全連接到下一個(gè)節(jié)點(diǎn)層。層中的每個(gè)節(jié)點(diǎn)??也可以稱為處理單元,這些單元都是含有非線性激活函數(shù)的神經(jīng)元。??2.3.4?RNN??基本的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是由人工神經(jīng)元組織成的連續(xù)的層的網(wǎng)絡(luò)。給??定層中的每個(gè)節(jié)點(diǎn)都通過(guò)有向(單向)連接與下一個(gè)連續(xù)層中的每個(gè)其他節(jié)點(diǎn)進(jìn)??行連接。每個(gè)節(jié)點(diǎn)(神經(jīng)元)都有一個(gè)時(shí)變的實(shí)值激活。每個(gè)連接(突觸)都有一個(gè)??可修改的實(shí)值權(quán)重。節(jié)點(diǎn)要么是輸入節(jié)點(diǎn)(從網(wǎng)絡(luò)外部接收數(shù)據(jù)),要么是輸出節(jié)??18??
那些沒(méi)有分割成子序列的連續(xù)輸入流。在那之??后,相關(guān)學(xué)者對(duì)結(jié)構(gòu)進(jìn)行了改進(jìn),將遺忘門(mén)也添加到了內(nèi)存塊中[45],之前模型中??的問(wèn)題也就不存在了。遺忘門(mén)存在的作用是,它可以在細(xì)胞之前添加一個(gè)輸入,??而這個(gè)輸入就是遺忘門(mén)自身,這個(gè)操作通過(guò)細(xì)胞的自回歸連接完成,同時(shí)使得細(xì)??胞的內(nèi)部狀態(tài)進(jìn)行了縮放,同這些操作自適應(yīng)地進(jìn)行遺忘或重置細(xì)胞的記憶。除??此之外,目前現(xiàn)階段LSTM的結(jié)構(gòu)也可以學(xué)習(xí)了解到輸出結(jié)果的精確計(jì)時(shí),這是??由于結(jié)構(gòu)中包含著從內(nèi)部的單元到同一單元中的門(mén)的窺視孔連接[4呔如下圖2-3??為簡(jiǎn)單的LSTM結(jié)構(gòu)。??/?V??ct-l?HX)?^0???Cf??x?.?t?\??\?'???(tanh)??ft?it?y?ot—^??Qt??I??C?g?)?C?g?)?(tanh)?(?〇?)??t?k?“?t?k?>?k??ht-i?—????,ht??v????-J??Xt-1??圖2-3簡(jiǎn)單的LSTM結(jié)構(gòu)??2.4方法選擇??相較于以上所述其他方法,_方法具有比較高的預(yù)測(cè)結(jié)果時(shí)間精度。主要??原因是RNN具有捕獲長(zhǎng)期依賴關(guān)系的能力。在此基礎(chǔ)上,我們進(jìn)一步探索了?_??20??
本文編號(hào):3062229
【文章來(lái)源】:山東大學(xué)山東省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:72 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1預(yù)測(cè)模型類型圖??2.1.2平均速度??另外一類歷史數(shù)據(jù)模型使用公共交通車輛運(yùn)行在目標(biāo)線路上的平均速度來(lái)??
?山東大學(xué)碩士學(xué)位論文???效地提供令人滿意的公交車到達(dá)時(shí)間預(yù)測(cè)信息。??隱藏層??輸入層??圖2-2神經(jīng)元網(wǎng)絡(luò)??2.3.3多層感知器(MLP)??多層感知器(MLP)【42]是由完全連接的層組成的簡(jiǎn)單神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)為前向??結(jié)構(gòu),可以將一組的輸入向量作為信息映射到一組輸出向量上。MLP神經(jīng)網(wǎng)絡(luò)??的層數(shù)為三層,在每一層中都含有16個(gè)神經(jīng)元。??也可以將多層感知器(MLP)當(dāng)作為一個(gè)有向圖,該模型由一個(gè)一個(gè)的節(jié)點(diǎn)??層相互連接構(gòu)成,其中每一個(gè)節(jié)點(diǎn)層都全連接到下一個(gè)節(jié)點(diǎn)層。層中的每個(gè)節(jié)點(diǎn)??也可以稱為處理單元,這些單元都是含有非線性激活函數(shù)的神經(jīng)元。??2.3.4?RNN??基本的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是由人工神經(jīng)元組織成的連續(xù)的層的網(wǎng)絡(luò)。給??定層中的每個(gè)節(jié)點(diǎn)都通過(guò)有向(單向)連接與下一個(gè)連續(xù)層中的每個(gè)其他節(jié)點(diǎn)進(jìn)??行連接。每個(gè)節(jié)點(diǎn)(神經(jīng)元)都有一個(gè)時(shí)變的實(shí)值激活。每個(gè)連接(突觸)都有一個(gè)??可修改的實(shí)值權(quán)重。節(jié)點(diǎn)要么是輸入節(jié)點(diǎn)(從網(wǎng)絡(luò)外部接收數(shù)據(jù)),要么是輸出節(jié)??18??
那些沒(méi)有分割成子序列的連續(xù)輸入流。在那之??后,相關(guān)學(xué)者對(duì)結(jié)構(gòu)進(jìn)行了改進(jìn),將遺忘門(mén)也添加到了內(nèi)存塊中[45],之前模型中??的問(wèn)題也就不存在了。遺忘門(mén)存在的作用是,它可以在細(xì)胞之前添加一個(gè)輸入,??而這個(gè)輸入就是遺忘門(mén)自身,這個(gè)操作通過(guò)細(xì)胞的自回歸連接完成,同時(shí)使得細(xì)??胞的內(nèi)部狀態(tài)進(jìn)行了縮放,同這些操作自適應(yīng)地進(jìn)行遺忘或重置細(xì)胞的記憶。除??此之外,目前現(xiàn)階段LSTM的結(jié)構(gòu)也可以學(xué)習(xí)了解到輸出結(jié)果的精確計(jì)時(shí),這是??由于結(jié)構(gòu)中包含著從內(nèi)部的單元到同一單元中的門(mén)的窺視孔連接[4呔如下圖2-3??為簡(jiǎn)單的LSTM結(jié)構(gòu)。??/?V??ct-l?HX)?^0???Cf??x?.?t?\??\?'???(tanh)??ft?it?y?ot—^??Qt??I??C?g?)?C?g?)?(tanh)?(?〇?)??t?k?“?t?k?>?k??ht-i?—????,ht??v????-J??Xt-1??圖2-3簡(jiǎn)單的LSTM結(jié)構(gòu)??2.4方法選擇??相較于以上所述其他方法,_方法具有比較高的預(yù)測(cè)結(jié)果時(shí)間精度。主要??原因是RNN具有捕獲長(zhǎng)期依賴關(guān)系的能力。在此基礎(chǔ)上,我們進(jìn)一步探索了?_??20??
本文編號(hào):3062229
本文鏈接:http://sikaile.net/shoufeilunwen/boshibiyelunwen/3062229.html
最近更新
教材專著