增量型極限學(xué)習(xí)機(jī)改進(jìn)算法
發(fā)布時間:2017-12-12 02:18
本文關(guān)鍵詞:增量型極限學(xué)習(xí)機(jī)改進(jìn)算法
更多相關(guān)文章: 增量型極限學(xué)習(xí)機(jī) 無效神經(jīng)元 算法改進(jìn) 網(wǎng)絡(luò)的穩(wěn)定性
【摘要】:增量型極限學(xué)習(xí)機(jī)(incremental extreme learning machine,Ⅰ-ELM)在訓(xùn)練過程中,由于輸入權(quán)值及隱層神經(jīng)元閾值的隨機(jī)獲取,造成部分隱層神經(jīng)元的輸出權(quán)值過小,使其對網(wǎng)絡(luò)輸出貢獻(xiàn)小,從而成為無效神經(jīng)元.這個問題不但使網(wǎng)絡(luò)變得更加復(fù)雜,而且降低了網(wǎng)絡(luò)的穩(wěn)定性.針對此問題,本文提出了一種給Ⅰ-ELM隱層輸出加上偏置的改進(jìn)方法(即Ⅱ-ELM),并分析證明了該偏置的存在性.最后對Ⅰ-ELM方法在分類和回歸問題上進(jìn)行仿真對比,驗(yàn)證Ⅱ-ELM的有效性.
【作者單位】: 廣西大學(xué)電氣工程學(xué)院;
【基金】:國家自然科學(xué)資助基金(61364007) 廣西科學(xué)研究與技術(shù)開發(fā)計(jì)劃項(xiàng)目(桂科攻14122007-33) 南寧市科學(xué)研究與技術(shù)開發(fā)計(jì)劃項(xiàng)目(20141050)
【分類號】:TP18
【正文快照】: 1引言 極限學(xué)習(xí)機(jī)算法[1]是針對單個隱藏層的前饋型神經(jīng)網(wǎng)絡(luò)的監(jiān)督型學(xué)習(xí)算法[2-3].傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法(如BP,back propagation)通常需要人為設(shè)置大量的網(wǎng)絡(luò)訓(xùn)練參數(shù),很容易陷入局部最優(yōu),而且基于梯度下降學(xué)習(xí)方法還存在需要多次迭代的缺點(diǎn)[4-5].與傳統(tǒng)BP相比,極限學(xué)習(xí)機(jī)
【相似文獻(xiàn)】
中國期刊全文數(shù)據(jù)庫 前3條
1 麻文斗,王詩宓;輸入受限的β增量型模型算法控制[J];系統(tǒng)仿真學(xué)報(bào);2001年S1期
2 余世明,杜維;純時延有約束增量型模型算法控制策略[J];儀器儀表學(xué)報(bào);2001年04期
3 ;[J];;年期
,本文編號:1280788
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/1280788.html
最近更新
教材專著