基于神經(jīng)網(wǎng)絡(luò)集成的模式識別研究
1、引言
人工神經(jīng)網(wǎng)絡(luò)已經(jīng)在眾多領(lǐng)域得到了成功的應(yīng)用.隨著應(yīng)用的深入推廣租實際問題的日益涌現(xiàn).神經(jīng)計算的局限與不足逐漸跟現(xiàn)出來,如學(xué)習(xí)海量信息、時處理速度過慢、泛化能力差、記憶容量有限、需要反復(fù)訓(xùn)練、在接受新信息時易發(fā)生失憶現(xiàn)象等c這些缺陷使得人們對傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)理論的進一步發(fā)展提HI了強烈的要求,人們考慮采用多種分類器集成融合的方法來提高識別率c早在1990年.HansSalamont通過實驗證明,一組神經(jīng)網(wǎng)絡(luò)的集成性能優(yōu)于最好的單一神經(jīng)網(wǎng)絡(luò)的性能,多分類器集成的輸出可明顯改善分類結(jié)果。這一研究成果使得集成學(xué)習(xí)技術(shù)尤其是神經(jīng)網(wǎng)絡(luò)集成技術(shù)成功的應(yīng)用到了眾多領(lǐng)域,并取得了較好的效果。
神經(jīng)網(wǎng)絡(luò)集成方法可以合成多個神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和仿真結(jié)果.極大地提高神經(jīng)網(wǎng)絡(luò)系統(tǒng)的泛化能力。在1996年.Sollirh;flKroghl21為神經(jīng)網(wǎng)絡(luò)集成下了一個定義:神經(jīng)網(wǎng)絡(luò)集成是用有限個神經(jīng)網(wǎng)絡(luò)對同一個問題進行學(xué)習(xí),集成在某個輸入示例下的輸出山構(gòu)成集成的各神經(jīng)網(wǎng)絡(luò)在該示例下的輸出共同決定一
2、神經(jīng)罔蠕集成模型
神經(jīng)網(wǎng)絡(luò)集成通過有限個個體網(wǎng)絡(luò)對同一個問題進行學(xué)習(xí).
其原理就是通過訓(xùn)練多個神經(jīng)網(wǎng)絡(luò)并將其結(jié)論進行合成川飛其非線性處理能力和泛化能力較之單個網(wǎng)絡(luò)更具有優(yōu)勢,已經(jīng)應(yīng)用于多個領(lǐng)域,尤其在信息處理、模式識別、智能控制等領(lǐng)域得到越來越廣泛的應(yīng)用υ當(dāng)前對神經(jīng)網(wǎng)絡(luò)集成理論分析的研究主要集中在兩個方面,一個就是對結(jié)論生成方法的分析以及對個體網(wǎng)絡(luò)生成方法的分析c
2.1集成結(jié)論生成
在神經(jīng)網(wǎng)絡(luò)的結(jié)論生成方面,吁該集成網(wǎng)絡(luò)用與回歸估計時.通常再用各個個體網(wǎng)絡(luò)簡單的平均或者加權(quán)來產(chǎn)生Co目前已有學(xué)者提出來,權(quán)值的優(yōu)化將會導(dǎo)致過配,以至于降低集成的泛化能力,因此建議使用權(quán)值的簡單平均。在集成結(jié)論生成方面,當(dāng)前還有采取動態(tài)權(quán)值的集成方法、貝葉斯方法、各種無約束和約束線性問歸方法等c
另外一種情況是當(dāng)神經(jīng)網(wǎng)絡(luò)集成用于分類器時,神經(jīng)網(wǎng)絡(luò)集成的結(jié)論通常由個體網(wǎng)絡(luò)的輸出投票產(chǎn)生,一般采用絕對多數(shù)戎相對多數(shù)投票法。絕對多數(shù)投票法即某分類成為最終結(jié)果二~且僅吁有超過半數(shù)的神經(jīng)網(wǎng)絡(luò)輸出結(jié)果為該分類.相對多數(shù)投票法即某分類成為最終結(jié)果當(dāng)且僅吁輸出結(jié)果為該分類的神經(jīng)網(wǎng)絡(luò)的數(shù)目最多。理論分析和試驗表明,相對多數(shù)投票法雯優(yōu)于絕對多數(shù)投票法,目前大多采用相對多數(shù)投票法。
2.2個體神經(jīng)網(wǎng)絡(luò)生成
在個體神經(jīng)網(wǎng)絡(luò)生成方面.日前有兩個優(yōu)秀的算法Boosting和lBaggingoBagging方法的思想是建立在可重復(fù)取樣的基礎(chǔ)L.通過從原始訓(xùn)練集中隨機選取訓(xùn)練樣卒,兩者的規(guī)模相當(dāng),也可以重復(fù)選取。這會導(dǎo)致訓(xùn)練集中某些示例在新的訓(xùn)練集中出現(xiàn)多次,而有些樣本可能不出現(xiàn)Bagging方法就是通過這樣重復(fù)選取訓(xùn)練來增加神經(jīng)網(wǎng)絡(luò)集成的差異度,進而提高泛化能力們
BoostingJf.法的思想是通過依次訓(xùn)練一組分量分類器,其中每個分量分類器的訓(xùn)練、集都選擇已有的其它各個分類器所給出的"最富信息"的樣本點組成。分類器的結(jié)果決定著最終的判決結(jié)果。
2.3噪聲添加原理
已有研究證明組成神經(jīng)網(wǎng)絡(luò)集成的各個體神經(jīng)網(wǎng)絡(luò)的差異越大.集成的效果越好。為了獲取差異性較大的個體網(wǎng)絡(luò),眾多學(xué)者通過不同的初始條件、不同的訓(xùn)練算法和訓(xùn)練集、差異的網(wǎng)絡(luò)拓撲結(jié)構(gòu)來提高網(wǎng)絡(luò)間的差異,獲取較好的泛化能力。在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,研究者總是希望得到更多的訓(xùn)練數(shù)據(jù),對每個隨機過程通過增加觀察點的數(shù)量來增加訓(xùn)練、樣本。對于現(xiàn)有的有限個樣本,隨機添加一定量的噪聲點來增加樣本個數(shù).這樣就可以用新訓(xùn)練樣本來訓(xùn)練個體神經(jīng)網(wǎng)絡(luò),使不同的個體網(wǎng)絡(luò)訓(xùn)練在不同的樣本集上.增加了個體網(wǎng)絡(luò)的泛化能力,也提高了個體神經(jīng)網(wǎng)絡(luò)的預(yù)測精度。
3、實驗仿真
水文選用了UCI機器學(xué)習(xí)知識庫下面的標準數(shù)據(jù)集來進行模式識別仿真,選用的是Iris數(shù)據(jù)集。Iris數(shù)據(jù)集由150組數(shù)據(jù)組成嘈每組數(shù)據(jù)包含有四個屬性.分別是等片與花瓣的長度和寬度r
150組數(shù)據(jù)共分成=之類,其分別是如tosa、Vrsirol()ur和Virginira.這其中每一類共有50組τ在Iris數(shù)據(jù)集中,本文選用數(shù)據(jù)集中50%的數(shù)據(jù)作為生成神經(jīng)網(wǎng)絡(luò)集成的訓(xùn)練數(shù)據(jù),而另外50'3毛的數(shù)據(jù)用于對生成的神經(jīng)網(wǎng)絡(luò)集成系統(tǒng)進行仿真測試,仿真軟件使用MATLAB7.0.神經(jīng)網(wǎng)絡(luò)集成的結(jié)構(gòu)如下,每個個體網(wǎng)絡(luò)均采用反饋神經(jīng)網(wǎng)絡(luò),采用經(jīng)典的BP算法進行訓(xùn)練,筆耕論文新浪博客,輸入節(jié)點數(shù)即為數(shù)據(jù)集的屬性值,輸出節(jié)點數(shù)是數(shù)據(jù)集的類數(shù)c通過訓(xùn)練得到了泛化性能較好的集成系統(tǒng),通過對余下50%的數(shù)據(jù)的仿真識別,結(jié)果顯示,識別來分別為:Stosa(96%)。
4、結(jié)語
本文提出了通過將噪聲添加到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練樣本集中來增大訓(xùn)練樣本集,是不同的個體網(wǎng)絡(luò)能使用差異較大的訓(xùn)練數(shù)據(jù),以此來提高集成系統(tǒng)的精度以及集成中個體網(wǎng)絡(luò)的差異度,得到的人工神經(jīng)網(wǎng)絡(luò)集成.個體網(wǎng)絡(luò)差異性大,泛化性能好,并將該方法應(yīng)用于模式識另IJ實驗中巳通過對UCI下的標準數(shù)據(jù)集Iris數(shù)據(jù)集進行模式識別實驗,仿真結(jié)果驗證了本方法的可行性與有效性,同時也驗證了本方法在解決個體網(wǎng)絡(luò)差異性問題上的實用性。
本文由整理發(fā)布,轉(zhuǎn)載請注明出處!
本文編號:5993
本文鏈接:http://sikaile.net/kejilunwen/jisuanjikexuelunwen/5993.html