面向腦皮層厚度的特征選擇方法研究
【圖文】:
融合方法的潛力[10]。在本文中,新的排序系統(tǒng)rc兼顧了ra和rb的優(yōu)點(diǎn),提出使用粒子群算法(par-ticleswarmoptimization,PSO)作為權(quán)重選擇算法,取得了更好的效果。1.4粒子群算法PSO算法的思想來(lái)源于對(duì)鳥(niǎo)群捕食行為的推演與模擬[11],在PSO系統(tǒng)中,將鳥(niǎo)稱為粒子,系統(tǒng)首先初始化一組隨機(jī)的粒子,然后迭代尋優(yōu),迭代過(guò)程中粒子通過(guò)一定的速度更新自己的位置,且粒子始終追隨局部最優(yōu)粒子進(jìn)行搜索,最后得出全局最優(yōu)粒子[12]。圖1為粒子群算法的流程圖。最優(yōu)粒子即最優(yōu)解,在本文中也就是最優(yōu)權(quán)重。圖1PSO流程圖更新粒子的公式為vid=wvid+c1r1(pid-xid)+c2r2(pgd-xgd)(9)xid=xid+avid(10)式(9)是速度更新;式(10)是種群更新。其中:W是慣性因子;a稱為約束因子,用來(lái)控制速度權(quán)重;c1、c2為學(xué)習(xí)因子,合適的學(xué)習(xí)因子可以加快收斂而不陷入局部最優(yōu)。本文迭代終止條件選為最大迭代次數(shù),適應(yīng)值函數(shù)為分類準(zhǔn)確率。2本文特征選擇方法本文用算法2選擇特征,用算法3計(jì)算最優(yōu)權(quán)重。算法2排名融合算法輸入:不含類標(biāo)的數(shù)據(jù)集data,數(shù)據(jù)集data的類標(biāo)label,最優(yōu)權(quán)重m,n。輸出:選出的特征子集chosen_feature。beginfori=1:row//樣本數(shù)b=mRMR(data)//使用mRMR算法求得特征排序ba=Relief(data)//使用Relief算法求得特征排序ach=rankab(a,b)/*融合排序,,rankab是用i存儲(chǔ)a序列的第一個(gè)特征的位置,并用temp存儲(chǔ)其特征編號(hào),從b序列中找到這個(gè)特征的位置存到j(luò),用f(temp)=m*i+n*j公式得到新的排序分?jǐn)?shù),并重復(fù)執(zhí)行指導(dǎo)所有特征編號(hào)都有排序分?jǐn)?shù),按排序分?jǐn)?shù)排序得到特征子集chosen_feature*/end算法3粒子群優(yōu)化算法輸入:不含類標(biāo)的數(shù)據(jù)集data,?
tion)通過(guò)SVM(支持向量機(jī))進(jìn)行分類準(zhǔn)確率評(píng)價(jià),數(shù)據(jù)集中每一個(gè)樣本單獨(dú)被作為測(cè)試集,其余的樣本作為訓(xùn)練集,所以實(shí)驗(yàn)有多少個(gè)樣本就會(huì)得到多少個(gè)模型。用這些模型的分類準(zhǔn)確率的平均數(shù)作為分類器的性能指標(biāo)采用留一驗(yàn)證具有兩個(gè)優(yōu)點(diǎn)[13]:a)所有樣本都被用于訓(xùn)練模型,得到的評(píng)估結(jié)果是可靠的;b)實(shí)驗(yàn)中沒(méi)有隨機(jī)因素影響,能確保實(shí)驗(yàn)過(guò)程和結(jié)果可復(fù)制。缺點(diǎn)是計(jì)算成本高,速度太慢,運(yùn)行時(shí)采用并行計(jì)算能減少時(shí)間成本。2)準(zhǔn)確率準(zhǔn)確率(accuracy)是通過(guò)支持向量機(jī)對(duì)cMCI和NC數(shù)據(jù)預(yù)測(cè)后得到的。三種方法得到的效果如圖2所示,可以明顯地看出本文方法在選擇四個(gè)特征時(shí)準(zhǔn)確率大大好于其他兩種方法,達(dá)到了83.33%,而mRMR在選擇26個(gè)特征時(shí)準(zhǔn)確率達(dá)到最高的79.90%,Relief方法在選擇39個(gè)特征時(shí)準(zhǔn)確率達(dá)到最高的79.41%。圖2三種方法的準(zhǔn)確率對(duì)比圖3)敏感度(sensitivity)和特異度(specificity)敏感度即cMCI被分類器診斷為陽(yáng)性的概率,特異度即NC被診斷為陰性的概率。敏感度和特異度是用來(lái)說(shuō)明分類器性能的兩個(gè)常用指標(biāo),分類器得到的敏感度越高,漏診率越低,特異度越高,誤診的比例也就越低。通過(guò)支持向量機(jī)的分類實(shí)驗(yàn),本文得到了相應(yīng)的分類準(zhǔn)確率、靈敏度、特異度如表2所示。表2三種特征選擇方法的分類效果指標(biāo)mRMRRelief本文方法準(zhǔn)確率0.79900.79410.8333靈敏度0.75000.75960.8558特異度0.85000.83000.8100特征數(shù)26394使分類效率達(dá)到最大的腦區(qū)是37、45、38、64這四個(gè)腦區(qū),而且各評(píng)價(jià)指標(biāo)也符合目前的研究。從表2可以看到,本文的特征選擇方法預(yù)測(cè)準(zhǔn)確率和敏感度遠(yuǎn)遠(yuǎn)高出其他兩種特征選擇方法,而特異度略低于其他兩種方法,說(shuō)明此方法漏診率很低,誤診率偏高一點(diǎn)。由于本文方法是對(duì)正常人群和輕度功能障
【相似文獻(xiàn)】
相關(guān)期刊論文 前1條
1 高娟;王國(guó)胤;胡峰;;多類別腫瘤基因表達(dá)譜的自動(dòng)特征選擇方法[J];計(jì)算機(jī)科學(xué);2012年10期
相關(guān)會(huì)議論文 前6條
1 徐燕;王斌;李錦濤;孫春明;;知識(shí)增益:文本分類中一種新的特征選擇方法[A];第三屆全國(guó)信息檢索與內(nèi)容安全學(xué)術(shù)會(huì)議論文集[C];2007年
2 肖婷;唐雁;;文本分類中特征選擇方法及應(yīng)用[A];2008年計(jì)算機(jī)應(yīng)用技術(shù)交流會(huì)論文集[C];2008年
3 徐燕;孫春明;王斌;李錦濤;;基于詞條頻率的特征選擇算法研究[A];中文信息處理前沿進(jìn)展——中國(guó)中文信息學(xué)會(huì)二十五周年學(xué)術(shù)會(huì)議論文集[C];2006年
4 陳慶軒;鄭德權(quán);鄭博文;趙鐵軍;李生;;中文文本分類中基于文檔頻度分布的特征選擇方法[A];黑龍江省計(jì)算機(jī)學(xué)會(huì)2009年學(xué)術(shù)交流年會(huì)論文集[C];2010年
5 顧成杰;張順頤;劉凱;黃河;;基于粗糙集和禁忌搜索的特征選擇方法[A];江蘇省電子學(xué)會(huì)2010年學(xué)術(shù)年會(huì)論文集[C];2010年
6 王秀娟;郭軍;鄭康鋒;;基于互信息可信度的特征選擇方法[A];2006通信理論與技術(shù)新進(jìn)展——第十一屆全國(guó)青年通信學(xué)術(shù)會(huì)議論文集[C];2006年
相關(guān)博士學(xué)位論文 前4條
1 劉明霞;屬性學(xué)習(xí)若干重要問(wèn)題的研究及應(yīng)用[D];南京航空航天大學(xué);2015年
2 毛勇;基于支持向量機(jī)的特征選擇方法的研究與應(yīng)用[D];浙江大學(xué);2006年
3 尹留志;關(guān)于非平衡數(shù)據(jù)特征問(wèn)題的研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2014年
4 裴志利;數(shù)據(jù)挖掘技術(shù)在文本分類和生物信息學(xué)中的應(yīng)用[D];吉林大學(xué);2008年
相關(guān)碩士學(xué)位論文 前10條
1 曹晉;基于SVDD的特征選擇方法研究及其應(yīng)用[D];蘇州大學(xué);2015年
2 張強(qiáng);靜態(tài)圖像上的行人檢測(cè)方法研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2015年
3 張曉梅;基于融合特征的微博主客觀分類方法研究[D];山西大學(xué);2014年
4 王君;基于SVM-RFE的特征選擇方法研究[D];大連理工大學(xué);2015年
5 于海珠;面向文本聚類的特征選擇方法及應(yīng)用研究[D];大連理工大學(xué);2015年
6 趙世琛;文本分類中特征選擇方法研究[D];山西大學(xué);2014年
7 王丹;特征選擇算法研究及其在異常檢測(cè)中的應(yīng)用[D];電子科技大學(xué);2014年
8 林艷峰;中文文本分類特征選擇方法的研究與實(shí)現(xiàn)[D];西安電子科技大學(xué);2014年
9 盧志浩;基于GEP的kNN算法改進(jìn)研究[D];廣西師范學(xué)院;2015年
10 王立鵬;面向圖數(shù)據(jù)的特征選擇方法及其應(yīng)用研究[D];南京航空航天大學(xué);2015年
本文編號(hào):2554940
本文鏈接:http://sikaile.net/yixuelunwen/jsb/2554940.html