基于人工神經(jīng)網(wǎng)絡(luò)的蛋白質(zhì)編碼區(qū)識別
【文章頁數(shù)】:74 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖3.3不同梯度下降算法下MLP的性能
該方法將Momentum和RMSprop這兩種算法的優(yōu)點(diǎn)進(jìn)行結(jié)合,使參數(shù)的更新過程大大加快。圖3.3不同梯度下降算法下MLP的性能
圖3.4常見的激活函數(shù)
加了激活函數(shù)的每一層的輸出結(jié)果就變得比之前模式復(fù)雜很多,進(jìn)而對整個網(wǎng)絡(luò)的表達(dá)能力上有了很大的提升。圖3.4常見的激活函數(shù)如何選擇合適的激活函數(shù)對我們訓(xùn)練好網(wǎng)絡(luò)非常重要,圖3.4給我們展示了幾種常見的激活函數(shù)。每種激活都有優(yōu)缺點(diǎn):sigmod函數(shù)輸出結(jié)果范圍在(0,1)之間....
圖3.6MLP的準(zhǔn)確率、誤差隨隱藏層節(jié)點(diǎn)個數(shù)的變化
同隱藏層個數(shù)的選擇一樣,隱藏層節(jié)點(diǎn)的數(shù)目與待解決問題規(guī)模和復(fù)雜程度、輸入和輸出單元的個數(shù)有著直接的關(guān)系。如果隱藏層節(jié)點(diǎn)的個數(shù)太多,會導(dǎo)致模型學(xué)習(xí)時間過長,而節(jié)點(diǎn)數(shù)目太少則會導(dǎo)致模型過于簡單而不能很好地提取編碼區(qū)和非編碼的模式。針對如何選擇隱藏節(jié)點(diǎn)的數(shù)目這一問題至今為止尚未找到一個....
圖3.7MLP的準(zhǔn)確率、誤差隨著訓(xùn)練次數(shù)的變化
圖3.7MLP的準(zhǔn)確率、誤差隨著訓(xùn)練次數(shù)的變化常用的解決過擬合的方法有:數(shù)據(jù)集擴(kuò)增、正則化、提前終止、drop-out[37]:提前終止模型訓(xùn)練是一種最常用也是最簡單的防止過擬合的方法。該方式是在過程中發(fā)現(xiàn)模型出現(xiàn)過擬合后,便自動終止模型迭代,進(jìn)而解決過擬合的方法。體做法是在....
本文編號:3912591
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3912591.html