寬度學(xué)習(xí)在集裝箱吞吐量預(yù)測(cè)中的應(yīng)用研究
發(fā)布時(shí)間:2021-01-25 23:41
近年,隨著我國(guó)“一帶一路”的國(guó)家級(jí)頂層合作倡議的推廣,海上航運(yùn)業(yè)將在未來(lái)承載我國(guó)主要貿(mào)易貨物的運(yùn)輸工作,對(duì)我國(guó)的社會(huì)經(jīng)濟(jì)發(fā)展具有重要的助推作用。但是由于貨運(yùn)量呈現(xiàn)出的增長(zhǎng)不確定性,很多港口的貨運(yùn)量都出現(xiàn)過(guò)飽和狀態(tài),貨船不得不在近港海域進(jìn)入待機(jī)狀態(tài)。因此,有效地提前預(yù)知港口的倉(cāng)儲(chǔ)物流量不僅可以提高港口作業(yè)效率,節(jié)省開(kāi)支成本;還可以為航運(yùn)時(shí)間規(guī)劃,航線路徑優(yōu)化提供決策支持。本文提案的寬度學(xué)習(xí)系統(tǒng)(BLS,broad learning system)在集裝箱吞吐量預(yù)測(cè)中的應(yīng)用研究,是通過(guò)應(yīng)用管理運(yùn)籌學(xué)領(lǐng)域的熱點(diǎn)研究解決目前工程應(yīng)用領(lǐng)域遇到的痛點(diǎn)問(wèn)題。首先,寬度學(xué)習(xí)系統(tǒng)是一種不需要深度結(jié)構(gòu)的高效增量機(jī)器學(xué)習(xí)方法,是基于將映射特征作為隨機(jī)向量函數(shù)鏈接神經(jīng)網(wǎng)絡(luò)(RVFLNN,random vector functional link neural network)輸入的思想設(shè)計(jì),數(shù)據(jù)的特征節(jié)點(diǎn)和增強(qiáng)節(jié)點(diǎn)以有效且高效的方式完成模型訓(xùn)練過(guò)程。同時(shí),BLS算法中引入激活函數(shù)概念,使線性問(wèn)題可以在非線性空間上得到更好的解決。然而,由于BLS是典型的分類識(shí)別算法,所以本文將對(duì)BLS進(jìn)行諸多改良,構(gòu)建基于BL...
【文章來(lái)源】:大連海事大學(xué)遼寧省 211工程院校
【文章頁(yè)數(shù)】:53 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.1房?jī)r(jià)波動(dòng)圖??Fig.?2.1?Price?fluctuation?Chart??-6?-??
?大連海事大學(xué)專業(yè)學(xué)位碩士學(xué)位論文???3.2支持向量回歸模型??邏輯回歸的假設(shè)函數(shù)為:??hff(x)?=?—^?(3.16)??\+e ̄0x??當(dāng)/z0(x)的輸出趨近于1時(shí),遠(yuǎn)大于0;當(dāng)?shù)妮敵鲒吔冢皶r(shí),fx遠(yuǎn)小于??0。表達(dá)式為:??hd(x)?\,d'x??0?(^17、??hg(x)^O,0Tx??0??S型激勵(lì)函數(shù)如圖3.1所示。??1?I?■?■?1?I?t?■_—?■_?I?I??09?-?/?-??0?8?-?/?-??0.7?■?/?-??0.6?_?/?-??0?5?-?/?'??0?4?-?/?-??0?3???/?-??0.2?-?/?-??0.1?-?y?-??^10?-8?-6?-4?-2?0?2?4?6?8?10??圖3.?I?S型激勵(lì)函數(shù)??Fig.?3.1?S-type?excitation?function??邏輯回歸代價(jià)函數(shù)為:??Cost?(he(x),y)?=?-y\og?—^-(l-^)log(l?^?-)?(3.18)??\+e?\+e??SVR代價(jià)函數(shù)為:??_?=-丄?|>(,)l〇g(響<〇))?+?(l-嚴(yán))l〇g(l_W)))?(3.19)??w?L?,=i?.??從代價(jià)函數(shù)表達(dá)式可以看出,對(duì)于總代價(jià)函數(shù)而言,通常是對(duì)所有的訓(xùn)練樣本求和。??當(dāng)y=l時(shí),l-y=0,目標(biāo)函數(shù)只有第一項(xiàng)起作用;當(dāng)y=0時(shí),目標(biāo)函數(shù)第一項(xiàng)被消除只??有第二項(xiàng)起作用。??-9?-??
?大連海事大學(xué)專業(yè)學(xué)位碩士學(xué)位論文???圖3.2隨機(jī)向量函數(shù)連接網(wǎng)絡(luò)??Fig.?3.2?Functional-link?neural?network??然后,網(wǎng)絡(luò)可以表示為如下圖3.3M所示。我們可以將輸入層和增強(qiáng)層并排放置,??并將它們視為一個(gè)整體網(wǎng)絡(luò)。我們將輸入層到增強(qiáng)層之間的連接權(quán)重隨機(jī)初始化。按照??這種方式,網(wǎng)絡(luò)的輸入層變?yōu)樘卣鲗蛹釉鰪?qiáng)層,網(wǎng)絡(luò)的連接形式山非線性關(guān)系轉(zhuǎn)變?yōu)榫??性關(guān)系。??4?(^)?(^)?□=>?(^)?????(,H)??ij?^{XWh^/3J??X??圖3.3同結(jié)構(gòu)隨機(jī)向量函數(shù)連接網(wǎng)絡(luò)??-13?-??
本文編號(hào):3000092
【文章來(lái)源】:大連海事大學(xué)遼寧省 211工程院校
【文章頁(yè)數(shù)】:53 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.1房?jī)r(jià)波動(dòng)圖??Fig.?2.1?Price?fluctuation?Chart??-6?-??
?大連海事大學(xué)專業(yè)學(xué)位碩士學(xué)位論文???3.2支持向量回歸模型??邏輯回歸的假設(shè)函數(shù)為:??hff(x)?=?—^?(3.16)??\+e ̄0x??當(dāng)/z0(x)的輸出趨近于1時(shí),遠(yuǎn)大于0;當(dāng)?shù)妮敵鲒吔冢皶r(shí),fx遠(yuǎn)小于??0。表達(dá)式為:??hd(x)?\,d'x??0?(^17、??hg(x)^O,0Tx??0??S型激勵(lì)函數(shù)如圖3.1所示。??1?I?■?■?1?I?t?■_—?■_?I?I??09?-?/?-??0?8?-?/?-??0.7?■?/?-??0.6?_?/?-??0?5?-?/?'??0?4?-?/?-??0?3???/?-??0.2?-?/?-??0.1?-?y?-??^10?-8?-6?-4?-2?0?2?4?6?8?10??圖3.?I?S型激勵(lì)函數(shù)??Fig.?3.1?S-type?excitation?function??邏輯回歸代價(jià)函數(shù)為:??Cost?(he(x),y)?=?-y\og?—^-(l-^)log(l?^?-)?(3.18)??\+e?\+e??SVR代價(jià)函數(shù)為:??_?=-丄?|>(,)l〇g(響<〇))?+?(l-嚴(yán))l〇g(l_W)))?(3.19)??w?L?,=i?.??從代價(jià)函數(shù)表達(dá)式可以看出,對(duì)于總代價(jià)函數(shù)而言,通常是對(duì)所有的訓(xùn)練樣本求和。??當(dāng)y=l時(shí),l-y=0,目標(biāo)函數(shù)只有第一項(xiàng)起作用;當(dāng)y=0時(shí),目標(biāo)函數(shù)第一項(xiàng)被消除只??有第二項(xiàng)起作用。??-9?-??
?大連海事大學(xué)專業(yè)學(xué)位碩士學(xué)位論文???圖3.2隨機(jī)向量函數(shù)連接網(wǎng)絡(luò)??Fig.?3.2?Functional-link?neural?network??然后,網(wǎng)絡(luò)可以表示為如下圖3.3M所示。我們可以將輸入層和增強(qiáng)層并排放置,??并將它們視為一個(gè)整體網(wǎng)絡(luò)。我們將輸入層到增強(qiáng)層之間的連接權(quán)重隨機(jī)初始化。按照??這種方式,網(wǎng)絡(luò)的輸入層變?yōu)樘卣鲗蛹釉鰪?qiáng)層,網(wǎng)絡(luò)的連接形式山非線性關(guān)系轉(zhuǎn)變?yōu)榫??性關(guān)系。??4?(^)?(^)?□=>?(^)?????(,H)??ij?^{XWh^/3J??X??圖3.3同結(jié)構(gòu)隨機(jī)向量函數(shù)連接網(wǎng)絡(luò)??-13?-??
本文編號(hào):3000092
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/3000092.html
最近更新
教材專著