基于深度學(xué)習(xí)的標(biāo)點(diǎn)預(yù)測(cè)研究
【文章頁(yè)數(shù)】:53 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.3LSTM網(wǎng)絡(luò)結(jié)構(gòu)??I??Figure?2.3?The?network?structure?of?LSTM??I??長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM)?1|61使用目的內(nèi)存單元來(lái)存儲(chǔ)信息,這是為丫克服上??
基于深度學(xué)習(xí)的中文語(yǔ)音轉(zhuǎn)錄標(biāo)點(diǎn)預(yù)測(cè)研究??爆炸的問(wèn)題[15],它只能訪問(wèn)有限的上下文范圍,所以提出了?LSTM的結(jié)構(gòu),如??圖2.3所示。??V?!??Output?Gate?“??\?@??\?“??\?Forget?Gate??/?V?/??、一’??Input?Gate?“....
圖2.1隱馬可夫過(guò)程
圖2.1隱馬可夫過(guò)程Figure2.1HiddenMarkovprocess示例共分為兩層。第一層是馬爾科夫轉(zhuǎn)移過(guò)程,第二層是該行的輸出,也就以觀測(cè)的輸出。通常把馬爾可夫過(guò)程第一層轉(zhuǎn)移過(guò)程的狀態(tài)叫做隱藏狀態(tài),層可以被觀察到的輸出叫做觀察狀態(tài)。隱馬爾科夫是一個(gè)更強(qiáng)的假設(shè)....
圖2.2跳躍模型
圖2.2跳躍模型Figure2.2Skip-gramip-gram的運(yùn)行方式主要有以下幾步驟:對(duì)單詞生成one-hot輸入向量xkxk得到上下文的嵌入詞向量vc=Vxvc=Vx通過(guò)u=Uucu=Uuc產(chǎn)生2m個(gè)得分向量ucm,...,uc1,uc....
圖4.1tanh激活函數(shù)Figure4.1tanhactivationfunction觀察圖像可以發(fā)現(xiàn)tanh激活函數(shù)在兩端導(dǎo)數(shù)無(wú)限接近0
圖4.1tanh激活函數(shù)Figure4.1tanhactivationfunction觀察圖像可以發(fā)現(xiàn)tanh激活函數(shù)在兩端導(dǎo)數(shù)無(wú)限接近0。當(dāng)兩端繼續(xù)向外擴(kuò)散時(shí),導(dǎo)數(shù)就更加趨近于0。當(dāng)出現(xiàn)這種情況時(shí),便可以把這種情況稱(chēng)作神經(jīng)單元已經(jīng)飽和。由于它們梯度變?yōu)?,....
本文編號(hào):3929072
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3929072.html