基于神經(jīng)網(wǎng)絡實現(xiàn)光網(wǎng)絡OSNR估計及鏈路軟故障定位
【文章頁數(shù)】:65 頁
【學位級別】:碩士
【部分圖文】:
圖2-1MP神經(jīng)元模型
神經(jīng)網(wǎng)絡的提出是出于對生物神經(jīng)網(wǎng)絡的思考,模擬生物大腦的網(wǎng)絡處理方式。在生物神經(jīng)網(wǎng)絡中,每個神經(jīng)元之間互連,當神經(jīng)元接收了外部的輸入,其神經(jīng)元電位處于較高電平時,神經(jīng)元會處于“興奮”狀態(tài),會向其他神經(jīng)元傳遞化學物質(zhì)。如圖2-1所示,一直沿用至今的“感知網(wǎng)絡(Multilayer....
圖2-2DNN基本結(jié)構(gòu)
圖2-1MP神經(jīng)元模型將多個神經(jīng)元按不同的層次結(jié)構(gòu)進行連接擴展,就產(chǎn)生了神經(jīng)網(wǎng)絡。如圖2-2,神經(jīng)網(wǎng)絡的結(jié)構(gòu)為一個輸入層,一個輸出層,及大于等于一層的隱藏層,通常把大于三層隱藏層的神經(jīng)網(wǎng)絡稱為深度神經(jīng)網(wǎng)絡。假設輸入層有5個神經(jīng)元,隱藏層第一層有10個神經(jīng)元,則他們之間會產(chǎn)生50....
圖2-3四種激活函數(shù)
ReLu函數(shù)的全稱為RectifiedLinearUnits,ReLu是目前深層神經(jīng)網(wǎng)絡中經(jīng)常使用的激活函數(shù),是一個斜坡函數(shù),定義為:ReLu對于隨機梯度下降的收斂有巨大的加速作用,但當x是小于0的時候,從此所有流過這個神經(jīng)元的梯度將都變成0,這個時候這個ReLu神經(jīng)元在訓練....
圖2-4BP算法步驟
因此,得到神經(jīng)網(wǎng)絡的最后輸出后,再使用BP算法,通過迭代調(diào)整來更新權重值,進而優(yōu)化神經(jīng)網(wǎng)絡模型,最終實際結(jié)果與預測結(jié)果之間的誤差得以進一步減小。通常將交叉熵作為神經(jīng)網(wǎng)絡的損失函數(shù),用來衡量神經(jīng)網(wǎng)絡期望輸出向量Y與輸出向量?Y的距離。交叉熵產(chǎn)生于信息論里面的信息壓縮編碼技術,但是它....
本文編號:3974756
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3974756.html