基于多尺度全卷積網(wǎng)絡(luò)和交叉聚類(lèi)算法的時(shí)間序列分類(lèi)
發(fā)布時(shí)間:2021-10-21 18:37
時(shí)間序列數(shù)據(jù)是一種常見(jiàn)的數(shù)據(jù)形式,普遍存在于日常生活的各個(gè)領(lǐng)域,與我們的生活工作息息相關(guān)。發(fā)現(xiàn)生活中的一些潛在的規(guī)律,并應(yīng)用于商業(yè)活動(dòng),因此對(duì)時(shí)間序列深入研究具有重要意義。時(shí)間序列定義的范圍比較廣泛,不僅包括隨時(shí)間變化的序列,還包括具有一定邏輯關(guān)系的序列。在時(shí)間序列分類(lèi)問(wèn)題(Time Series Classification,TSC)領(lǐng)域,公認(rèn)的基線模型為基于動(dòng)態(tài)時(shí)間規(guī)整的最近鄰算法。最近兩年基于全卷積網(wǎng)絡(luò)的時(shí)間序列分類(lèi)模型表現(xiàn)突出,明顯優(yōu)于其他方法。因此,本文主要圍繞時(shí)間序列分類(lèi)問(wèn)題和全卷積方法,進(jìn)行了模型改進(jìn)和優(yōu)化,并提出了多尺度全卷積網(wǎng)絡(luò)、交叉聚類(lèi)數(shù)據(jù)變換、基于分段的時(shí)間序列預(yù)測(cè)方法。本文主要貢獻(xiàn)如下:1)由于對(duì)時(shí)間序列分類(lèi)起作用的特征尺度是不固定的,因此單一的全卷積網(wǎng)絡(luò)不能夠有效的提取不同尺度的特征。針對(duì)此問(wèn)題,本文提出了一維多尺度全卷積網(wǎng)絡(luò)MFCN,使得全卷積網(wǎng)絡(luò)FCN能夠檢測(cè)多種尺度的序列特征,進(jìn)而提升模型的分類(lèi)準(zhǔn)確度。相比于最近幾年比較優(yōu)秀的十個(gè)時(shí)間序列分類(lèi)模型,在44組UCR數(shù)據(jù)集中,本文提出的MFCN模型分類(lèi)性能最好。2)提出交叉聚類(lèi)算法,該算法與傳統(tǒng)的聚類(lèi)算法的區(qū)...
【文章來(lái)源】:東華大學(xué)上海市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:70 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
集成學(xué)個(gè)體學(xué)習(xí)器T
第二章相關(guān)研究工作13圖2-4全卷積網(wǎng)絡(luò)(FullConvolutionalNetwork,FCN)2.5.1全卷積神經(jīng)網(wǎng)絡(luò)近年來(lái),全卷積網(wǎng)絡(luò)FCN在圖像語(yǔ)義分割[43]、時(shí)間序列分類(lèi)等領(lǐng)域表現(xiàn)較好[12,44]。FCN在時(shí)間序列分類(lèi)問(wèn)題中的結(jié)構(gòu)如圖2-4所示[12],該網(wǎng)絡(luò)由三個(gè)卷積層和softmax層構(gòu)成,卷積層的輸出經(jīng)globalpooling后到達(dá)softmax層。每個(gè)卷積層由一維卷積操作、batchnormalization(BN)和ReLU構(gòu)成,卷積的作用是提取時(shí)間序列的特征,BN的作用是加速網(wǎng)絡(luò)的訓(xùn)練的和提高網(wǎng)絡(luò)的泛化能力[29],ReLU的作用是使得網(wǎng)絡(luò)具有非線性擬合能力[45],每層卷積可表述為公式2-4。x+b()Re().yWsBNyhLUs===(2-4)其中,表示卷積操作。三個(gè)卷積層的通道個(gè)數(shù)分別為128,256和128,一維卷積核大小依次為8、5和3,滑動(dòng)步長(zhǎng)為1。Globalpooling使用全局最大池化,是一種特征提取的方法,也是一種降維的方法,相對(duì)于全連接層具有更好地泛化能力,并且沒(méi)有可訓(xùn)練的參數(shù),因此加快了網(wǎng)絡(luò)的訓(xùn)練速度。softmax層的功能是實(shí)現(xiàn)網(wǎng)絡(luò)的多分類(lèi)任務(wù),公式如下:softmax()ijjeie.(2-5)損失函數(shù)采用交叉熵,公式如下:1c[ylna(1-y)ln(1-a)]n.(2-6)其中y代表真實(shí)值分類(lèi)(0或1),a代表預(yù)測(cè)值。
第三章基于FCN網(wǎng)絡(luò)的多尺度特征集成學(xué)習(xí)17集成學(xué)習(xí)方法,該方法相比于一般基學(xué)習(xí)模型往往具有更好的性能。在第二章中已經(jīng)介紹了集成學(xué)習(xí)的方法,為此,本小節(jié)將介紹一維卷積過(guò)程。3.2.1一維卷積在信號(hào)、圖像處理等領(lǐng)域,卷積操作是一種使用廣泛的技術(shù)。在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)模型架構(gòu)就得名于這種技術(shù),成為了深度學(xué)習(xí)的基石技術(shù)之一[50]。在深度學(xué)習(xí)中,對(duì)于原始序列12[x,x,...,x]TxX,卷積核12[c,c,...,c]mc5,對(duì)原始一維數(shù)據(jù)卷積,輸出為121[o,o,...,o]TmoQ_;_,其中1111ox*cx*c,...x*ciiiiiimim(3-1)圖3-1卷積層輸出與原始數(shù)據(jù)特征尺度的對(duì)應(yīng)關(guān)系圖3-1為卷積層的輸出與輸入的對(duì)應(yīng)關(guān)系,第一層網(wǎng)絡(luò)卷積核為1*8,第二層卷積核為1*5,第三層卷積核為1*3。第三層卷積輸出的每個(gè)值都是通過(guò)對(duì)第二層卷積輸出的三個(gè)值進(jìn)行卷積得到的,同理,第二層卷積輸出的每個(gè)值都是通過(guò)對(duì)第一層卷積輸出的五個(gè)值進(jìn)行卷積得到的,而第一層卷積輸出的每個(gè)值都是通過(guò)對(duì)輸入序列的八個(gè)值進(jìn)行卷積得到的。即模型中第三個(gè)卷積層的每個(gè)輸出值代表原序列長(zhǎng)度為14的一個(gè)局部特征。按照這種關(guān)系,對(duì)原始時(shí)間序列從一段卷積到另一端,其中卷積核參數(shù)是共享的,進(jìn)行滑動(dòng)卷積,這大大減少了卷積網(wǎng)絡(luò)的參數(shù),同時(shí)使得卷積具有了特征的平移不變性。
【參考文獻(xiàn)】:
期刊論文
[1]時(shí)間序列聚類(lèi)的期刊參考文獻(xiàn)與引證文獻(xiàn)來(lái)源分析研究[J]. 李海林,黃思雨. 情報(bào)科學(xué). 2019(10)
[2]基于改進(jìn)K-modes聚類(lèi)的KNN分類(lèi)算法[J]. 王志華,劉紹廷,羅齊. 計(jì)算機(jī)工程與設(shè)計(jì). 2019(08)
[3]基于聚類(lèi)的環(huán)形kNN算法[J]. 匡振曦,武繼剛,李嘉興. 計(jì)算機(jī)工程與科學(xué). 2019(05)
[4]基于shapelet的時(shí)間序列分類(lèi)研究[J]. 閆汶和,李桂玲. 計(jì)算機(jī)科學(xué). 2019(01)
[5]基于BP和樸素貝葉斯的時(shí)間序列分類(lèi)模型[J]. 王會(huì)青,郭芷榕,白瑩瑩. 計(jì)算機(jī)應(yīng)用研究. 2019(08)
[6]局部聚類(lèi)分析的FCN-CNN云圖分割方法[J]. 毋立芳,賀嬌瑜,簡(jiǎn)萌,鄒蘊(yùn)真,趙鐵松. 軟件學(xué)報(bào). 2018(04)
[7]基于動(dòng)態(tài)集成決策樹(shù)的多類(lèi)別時(shí)間序列分類(lèi)模型[J]. 徐雷,Geoff I Webb,Francois Petitjean,張陽(yáng). 計(jì)算機(jī)應(yīng)用研究. 2018(06)
[8]基于Shapelet剪枝和覆蓋的時(shí)間序列分類(lèi)算法[J]. 原繼東,王志海,韓萌. 軟件學(xué)報(bào). 2015(09)
博士論文
[1]稀疏圖子空間學(xué)習(xí)算法研究[D]. 吳云松.重慶大學(xué) 2017
[2]數(shù)據(jù)降維算法研究及其應(yīng)用[D]. 張?zhí)镪?上海交通大學(xué) 2008
碩士論文
[1]基于全卷積神經(jīng)網(wǎng)絡(luò)的室內(nèi)場(chǎng)景分割算法研究[D]. 黃龍.西安理工大學(xué) 2019
[2]時(shí)序數(shù)據(jù)二分類(lèi)問(wèn)題的等距短shapelet轉(zhuǎn)換算法[D]. 舒?zhèn)ゲ?中國(guó)科學(xué)技術(shù)大學(xué) 2019
[3]基于DTW和LMNN的多維時(shí)間序列相似性分析方法[D]. 沈靜逸.浙江大學(xué) 2017
[4]基于DTW距離的時(shí)間序列相似性查詢(xún)和shapelets分類(lèi)算法研究[D]. 孫宏偉.太原理工大學(xué) 2016
[5]基于支持向量機(jī)的單變量非線性時(shí)間序列研究[D]. 卜亞男.華南理工大學(xué) 2014
本文編號(hào):3449517
【文章來(lái)源】:東華大學(xué)上海市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:70 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
集成學(xué)個(gè)體學(xué)習(xí)器T
第二章相關(guān)研究工作13圖2-4全卷積網(wǎng)絡(luò)(FullConvolutionalNetwork,FCN)2.5.1全卷積神經(jīng)網(wǎng)絡(luò)近年來(lái),全卷積網(wǎng)絡(luò)FCN在圖像語(yǔ)義分割[43]、時(shí)間序列分類(lèi)等領(lǐng)域表現(xiàn)較好[12,44]。FCN在時(shí)間序列分類(lèi)問(wèn)題中的結(jié)構(gòu)如圖2-4所示[12],該網(wǎng)絡(luò)由三個(gè)卷積層和softmax層構(gòu)成,卷積層的輸出經(jīng)globalpooling后到達(dá)softmax層。每個(gè)卷積層由一維卷積操作、batchnormalization(BN)和ReLU構(gòu)成,卷積的作用是提取時(shí)間序列的特征,BN的作用是加速網(wǎng)絡(luò)的訓(xùn)練的和提高網(wǎng)絡(luò)的泛化能力[29],ReLU的作用是使得網(wǎng)絡(luò)具有非線性擬合能力[45],每層卷積可表述為公式2-4。x+b()Re().yWsBNyhLUs===(2-4)其中,表示卷積操作。三個(gè)卷積層的通道個(gè)數(shù)分別為128,256和128,一維卷積核大小依次為8、5和3,滑動(dòng)步長(zhǎng)為1。Globalpooling使用全局最大池化,是一種特征提取的方法,也是一種降維的方法,相對(duì)于全連接層具有更好地泛化能力,并且沒(méi)有可訓(xùn)練的參數(shù),因此加快了網(wǎng)絡(luò)的訓(xùn)練速度。softmax層的功能是實(shí)現(xiàn)網(wǎng)絡(luò)的多分類(lèi)任務(wù),公式如下:softmax()ijjeie.(2-5)損失函數(shù)采用交叉熵,公式如下:1c[ylna(1-y)ln(1-a)]n.(2-6)其中y代表真實(shí)值分類(lèi)(0或1),a代表預(yù)測(cè)值。
第三章基于FCN網(wǎng)絡(luò)的多尺度特征集成學(xué)習(xí)17集成學(xué)習(xí)方法,該方法相比于一般基學(xué)習(xí)模型往往具有更好的性能。在第二章中已經(jīng)介紹了集成學(xué)習(xí)的方法,為此,本小節(jié)將介紹一維卷積過(guò)程。3.2.1一維卷積在信號(hào)、圖像處理等領(lǐng)域,卷積操作是一種使用廣泛的技術(shù)。在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)模型架構(gòu)就得名于這種技術(shù),成為了深度學(xué)習(xí)的基石技術(shù)之一[50]。在深度學(xué)習(xí)中,對(duì)于原始序列12[x,x,...,x]TxX,卷積核12[c,c,...,c]mc5,對(duì)原始一維數(shù)據(jù)卷積,輸出為121[o,o,...,o]TmoQ_;_,其中1111ox*cx*c,...x*ciiiiiimim(3-1)圖3-1卷積層輸出與原始數(shù)據(jù)特征尺度的對(duì)應(yīng)關(guān)系圖3-1為卷積層的輸出與輸入的對(duì)應(yīng)關(guān)系,第一層網(wǎng)絡(luò)卷積核為1*8,第二層卷積核為1*5,第三層卷積核為1*3。第三層卷積輸出的每個(gè)值都是通過(guò)對(duì)第二層卷積輸出的三個(gè)值進(jìn)行卷積得到的,同理,第二層卷積輸出的每個(gè)值都是通過(guò)對(duì)第一層卷積輸出的五個(gè)值進(jìn)行卷積得到的,而第一層卷積輸出的每個(gè)值都是通過(guò)對(duì)輸入序列的八個(gè)值進(jìn)行卷積得到的。即模型中第三個(gè)卷積層的每個(gè)輸出值代表原序列長(zhǎng)度為14的一個(gè)局部特征。按照這種關(guān)系,對(duì)原始時(shí)間序列從一段卷積到另一端,其中卷積核參數(shù)是共享的,進(jìn)行滑動(dòng)卷積,這大大減少了卷積網(wǎng)絡(luò)的參數(shù),同時(shí)使得卷積具有了特征的平移不變性。
【參考文獻(xiàn)】:
期刊論文
[1]時(shí)間序列聚類(lèi)的期刊參考文獻(xiàn)與引證文獻(xiàn)來(lái)源分析研究[J]. 李海林,黃思雨. 情報(bào)科學(xué). 2019(10)
[2]基于改進(jìn)K-modes聚類(lèi)的KNN分類(lèi)算法[J]. 王志華,劉紹廷,羅齊. 計(jì)算機(jī)工程與設(shè)計(jì). 2019(08)
[3]基于聚類(lèi)的環(huán)形kNN算法[J]. 匡振曦,武繼剛,李嘉興. 計(jì)算機(jī)工程與科學(xué). 2019(05)
[4]基于shapelet的時(shí)間序列分類(lèi)研究[J]. 閆汶和,李桂玲. 計(jì)算機(jī)科學(xué). 2019(01)
[5]基于BP和樸素貝葉斯的時(shí)間序列分類(lèi)模型[J]. 王會(huì)青,郭芷榕,白瑩瑩. 計(jì)算機(jī)應(yīng)用研究. 2019(08)
[6]局部聚類(lèi)分析的FCN-CNN云圖分割方法[J]. 毋立芳,賀嬌瑜,簡(jiǎn)萌,鄒蘊(yùn)真,趙鐵松. 軟件學(xué)報(bào). 2018(04)
[7]基于動(dòng)態(tài)集成決策樹(shù)的多類(lèi)別時(shí)間序列分類(lèi)模型[J]. 徐雷,Geoff I Webb,Francois Petitjean,張陽(yáng). 計(jì)算機(jī)應(yīng)用研究. 2018(06)
[8]基于Shapelet剪枝和覆蓋的時(shí)間序列分類(lèi)算法[J]. 原繼東,王志海,韓萌. 軟件學(xué)報(bào). 2015(09)
博士論文
[1]稀疏圖子空間學(xué)習(xí)算法研究[D]. 吳云松.重慶大學(xué) 2017
[2]數(shù)據(jù)降維算法研究及其應(yīng)用[D]. 張?zhí)镪?上海交通大學(xué) 2008
碩士論文
[1]基于全卷積神經(jīng)網(wǎng)絡(luò)的室內(nèi)場(chǎng)景分割算法研究[D]. 黃龍.西安理工大學(xué) 2019
[2]時(shí)序數(shù)據(jù)二分類(lèi)問(wèn)題的等距短shapelet轉(zhuǎn)換算法[D]. 舒?zhèn)ゲ?中國(guó)科學(xué)技術(shù)大學(xué) 2019
[3]基于DTW和LMNN的多維時(shí)間序列相似性分析方法[D]. 沈靜逸.浙江大學(xué) 2017
[4]基于DTW距離的時(shí)間序列相似性查詢(xún)和shapelets分類(lèi)算法研究[D]. 孫宏偉.太原理工大學(xué) 2016
[5]基于支持向量機(jī)的單變量非線性時(shí)間序列研究[D]. 卜亞男.華南理工大學(xué) 2014
本文編號(hào):3449517
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3449517.html
最近更新
教材專(zhuān)著