Adaboost算法的改進(jìn)及應(yīng)用
發(fā)布時(shí)間:2018-04-08 14:02
本文選題:Adaboost算法 切入點(diǎn):K-means++算法 出處:《蘭州大學(xué)》2017年碩士論文
【摘要】:Adaboost算法主要用于處理分類問題和回歸問題,Adaboost算法的核心是將迭代生成的基分類器通過加權(quán)組合的方式生成強(qiáng)分類器.與我們接觸較多的其他類機(jī)器學(xué)習(xí)算法相比,Adaboost算法能有效的避免過擬合的問題.本文主要將Adaboost算法用于分類問題.在經(jīng)典的Adaboost算法中,基分類器的權(quán)重是通過基分類器對(duì)訓(xùn)練子集分類的錯(cuò)誤率計(jì)算得來的,并被賦予固定的的權(quán)重,即生成的最終分類是唯一的.當(dāng)測(cè)試樣本與訓(xùn)練樣本存在一定的偏差時(shí),訓(xùn)練出的強(qiáng)分類器有可能就不具有很好的泛化能力,導(dǎo)致最終的分類結(jié)果不能達(dá)到我們的預(yù)期效果.本文提出了基于不同的測(cè)試樣本生成不同的強(qiáng)分類器的想法.主要思想是,先將訓(xùn)練集通過K-means++算法聚類分組,再通過歐氏距離計(jì)算測(cè)試樣本與各組的相似度,并通過錯(cuò)誤率計(jì)算出各個(gè)基分類器對(duì)各組的權(quán)重,最后結(jié)合相似度和權(quán)重,加權(quán)組合生成最終的強(qiáng)分類器.本文選取2組數(shù)據(jù)集進(jìn)行實(shí)證分析,最終得出,改進(jìn)后的Adaboost算法比經(jīng)典的Adaboost算法分類效果更好.
[Abstract]:In this paper , we put forward the idea of generating different strong classifiers by means of weighted combination . The main idea is that , when the test sample and the training sample have certain deviation , the weighted combination is used to generate the final strong classifier .
【學(xué)位授予單位】:蘭州大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP181;TP311.13
【參考文獻(xiàn)】
相關(guān)期刊論文 前3條
1 張亮;李智星;王進(jìn);;基于動(dòng)態(tài)權(quán)重的AdaBoost算法研究[J];計(jì)算機(jī)應(yīng)用研究;2017年11期
2 曹瑩;苗啟廣;劉家辰;高琳;;AdaBoost算法研究進(jìn)展與展望[J];自動(dòng)化學(xué)報(bào);2013年06期
3 李亞軍;劉曉霞;陳平;;改進(jìn)的AdaBoost算法與SVM的組合分類器[J];計(jì)算機(jī)工程與應(yīng)用;2008年32期
,本文編號(hào):1721929
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/1721929.html
最近更新
教材專著