基于深度森林的小數(shù)據(jù)集分類研究
【文章頁數(shù)】:59 頁
【學位級別】:碩士
【部分圖文】:
圖2-1選擇禮物問題的一顆決策樹
彩薔霾呤骷?傻囊恢旨?裳?埃?哂心P統(tǒng)?問?、模型竻矀?低、可并行操作等優(yōu)點。這一部分從決策樹擴展到集成學習,逐步擴展到深度森林模型原理。2.1.1決策樹原理決策樹是一種常見的基于樹結構的學習方法。決策樹中的每個內(nèi)部節(jié)點表示特征屬性的選取試驗,每個分支表示屬性的試驗結果,葉結點....
圖2-3集成學習框架
第2章基本理論基礎9Gini(D)是從數(shù)據(jù)集D中隨機抽取兩個樣品的結果,以及類別標記不相符的可能性。也就是說,Gini(D)越小D的純度越校在此基礎上,將屬性a的基尼指數(shù)定義為:1||<sub>,</sub>()||VvvvDGiniindexDaGiniDD2.6然后選擇候選集....
圖2-4Stacking算法框架
??蠐λ婊?≡衿渲?一個。加權表決與加權平均數(shù)相似。標準的絕對多數(shù)表決方法為“可靠性預測”提供了一種選擇。學習方法:如果有大量的訓練數(shù)據(jù),適合用“學習方法”來結合學習者。stacking[47]是學習方法的典型代表。如圖2-4所示,Stacking是一個綜合性的分層模型框架,通常....
圖2-5深度森林的多粒度滑窗框架
第2章基本理論基礎13究表明,將學習者的輸出類概率作為二級學習者的輸入屬性,MRL作為二級學習算法[58]和MLR中的各種屬性集[49]是比較好的。2.1.3深度森林原理深度森林是一種新的決策樹集成方法。這一方法提供了一種串聯(lián)結構深層森林的集成,從而能夠學習數(shù)據(jù)特性。如果輸入較大....
本文編號:4034173
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/4034173.html
下一篇:沒有了