基于集成學(xué)習(xí)的高送轉(zhuǎn)股票研究
本文關(guān)鍵詞: 高送轉(zhuǎn) 集成學(xué)習(xí) 非平衡數(shù)據(jù) 投資組合 出處:《時代金融》2016年36期 論文類型:期刊論文
【摘要】:高送轉(zhuǎn)預(yù)案公告發(fā)布前,高送轉(zhuǎn)股票具有顯著的累計正收益,因此預(yù)測高送轉(zhuǎn)股票對于投資具有重要意義。高送轉(zhuǎn)股票的預(yù)測是分類預(yù)測問題,本文利用上市公司三季度財報數(shù)據(jù),采用3種集成學(xué)習(xí)算法:由K-近鄰算法、決策樹以及加lasso懲罰項的邏輯斯蒂回歸算法構(gòu)建預(yù)測模型——"組合"模型,經(jīng)典的集成學(xué)習(xí)算法——Ada Boost算法以及隨機(jī)森林算法進(jìn)行建模。本文采用準(zhǔn)確率以及G-mean作為模型評價標(biāo)準(zhǔn),結(jié)果顯示:"組合"模型的準(zhǔn)確率最高,隨機(jī)森林和"組合"模型的G-mean表現(xiàn)相當(dāng),均優(yōu)于adaboost算法。由于每年高送轉(zhuǎn)股票所占比例小于50%,數(shù)據(jù)可以看成是非平衡數(shù)據(jù),為了改善"組合"模型較差的召回率,本文采用K-Means聚類的欠抽樣方法,將此方法用在"組合"模型上,效果顯著。最后分別對上面三種模型預(yù)測的股票構(gòu)建投資組合,并以HS300指數(shù)做基準(zhǔn)。結(jié)果顯示:"組合"模型預(yù)測得到的高送轉(zhuǎn)股票組合表現(xiàn)優(yōu)于另外兩種集成學(xué)習(xí)模型。
[Abstract]:Before the announcement of the high transmission plan announcement, the high transmission stock has significant accumulative positive income, so it is important to forecast the high transmission stock for investment. The forecast of the high transmission stock is the problem of classification forecast. In this paper, we use three integrated learning algorithms based on the third-quarter data of listed companies: the K-nearest neighbor algorithm. The decision tree and the logistic regression algorithm with lasso penalty term are used to construct the prediction model-" combination "model. The classical ensemble learning algorithm, Ada Boost algorithm and random forest algorithm, are modeled. In this paper, the accuracy and G-mean are used as the model evaluation criteria. The results showed that the accuracy of the "combination" model was the highest, and the G-mean performance of the random forest model and the "combined" model was the same. The data can be regarded as unbalanced data, in order to improve the poor recall rate of the "combination" model. In this paper, the K-Means clustering method of under-sampling is used in the "combination" model, and the effect is remarkable. Finally, the portfolio of stocks predicted by the above three models is constructed. The results show that the performance of the "portfolio" model is better than the other two integrated learning models.
【作者單位】: 華南理工大學(xué)數(shù)學(xué)學(xué)院;
【分類號】:F832.51
【正文快照】: 一、引言 所謂“高送轉(zhuǎn)股票”是指上市公司大比例送紅股或大比例以資本公積金轉(zhuǎn)增股票,市場送轉(zhuǎn)股比例超過0.5的股票為“高送轉(zhuǎn)股票”。雖然上市公司送股、轉(zhuǎn)增股票及不影響其當(dāng)期現(xiàn)金流,也不影響其未來現(xiàn)金流,從而這種分紅并不影響公司價值,但高送轉(zhuǎn)事件向市場傳遞了公司發(fā)
【相似文獻(xiàn)】
相關(guān)會議論文 前4條
1 關(guān)菁華;劉大有;賈海洋;;自適應(yīng)多分類器集成學(xué)習(xí)算法[A];第二十五屆中國數(shù)據(jù)庫學(xué)術(shù)會議論文集(二)[C];2008年
2 劉伍穎;王挺;;一種多過濾器集成學(xué)習(xí)垃圾郵件過濾方法[A];第三屆全國信息檢索與內(nèi)容安全學(xué)術(shù)會議論文集[C];2007年
3 葉紅云;倪志偉;陳恩紅;;一種混合型集成學(xué)習(xí)演化決策樹算法[A];2005年“數(shù)字安徽”博士科技論壇論文集[C];2005年
4 李燁;蔡云澤;許曉鳴;;基于支持向量機(jī)集成的故障診斷[A];第16屆中國過程控制學(xué)術(shù)年會暨第4屆全國故障診斷與安全性學(xué)術(shù)會議論文集[C];2005年
相關(guān)博士學(xué)位論文 前10條
1 阿里木·賽買提(Alim.Samat);基于集成學(xué)習(xí)的全極化SAR圖像分類研究[D];南京大學(xué);2015年
2 王永明;集成回歸問題若干關(guān)鍵技術(shù)研究[D];華東師范大學(xué);2015年
3 常征;基于混合集成學(xué)習(xí)的眼部與四肢交互動作建模與識別[D];北京科技大學(xué);2016年
4 張春霞;集成學(xué)習(xí)中有關(guān)算法的研究[D];西安交通大學(xué);2010年
5 劉天羽;基于特征選擇技術(shù)的集成學(xué)習(xí)方法及其應(yīng)用研究[D];上海大學(xué);2007年
6 尹華;面向高維和不平衡數(shù)據(jù)分類的集成學(xué)習(xí)研究[D];武漢大學(xué);2012年
7 王清;集成學(xué)習(xí)中若干關(guān)鍵問題的研究[D];復(fù)旦大學(xué);2011年
8 方育柯;集成學(xué)習(xí)理論研究及其在個性化推薦中的應(yīng)用[D];電子科技大學(xué);2011年
9 侯勇;特征提取與集成學(xué)習(xí)算法的研究及應(yīng)用[D];北京科技大學(xué);2015年
10 李燁;基于支持向量機(jī)的集成學(xué)習(xí)研究[D];上海交通大學(xué);2007年
相關(guān)碩士學(xué)位論文 前10條
1 高偉;基于半監(jiān)督集成學(xué)習(xí)的情感分類方法研究[D];蘇州大學(xué);2015年
2 宋文展;基于抽樣的集成進(jìn)化算法研究[D];廣西大學(xué);2015年
3 湯瑩;遷移與集成學(xué)習(xí)在文本分類中的應(yīng)用研究[D];江蘇科技大學(xué);2015年
4 劉政;基于知識元和集成學(xué)習(xí)的中文微博情感分析[D];大連理工大學(xué);2015年
5 丘橋云;結(jié)合文本傾向性分析的股評可信度計算研究[D];哈爾濱工業(yè)大學(xué);2014年
6 秦海;融合非標(biāo)記樣本選擇的集成學(xué)習(xí)研究[D];湘潭大學(xué);2015年
7 李想;基于多示例的集成學(xué)習(xí)理論與應(yīng)用研究[D];合肥工業(yè)大學(xué);2014年
8 李震宇;基于集成學(xué)習(xí)的數(shù)字圖像隱寫定量分析[D];解放軍信息工程大學(xué);2014年
9 王希玲;基于選擇性集成學(xué)習(xí)的網(wǎng)絡(luò)入侵檢測方法研究[D];青島科技大學(xué);2016年
10 陳范曙;基于信息整合的藥物相關(guān)信息挖掘方法研究[D];華東師范大學(xué);2016年
,本文編號:1448863
本文鏈接:http://sikaile.net/jingjilunwen/jinrongzhengquanlunwen/1448863.html