典型機(jī)器學(xué)習(xí)算法在PM2.5濃度預(yù)測研究中的實(shí)現(xiàn)與比較
發(fā)布時(shí)間:2021-04-19 04:37
改革開放以來,我國經(jīng)濟(jì)發(fā)展迅猛,黨的十八大提出了當(dāng)前的奮斗目標(biāo)是人民對于美好生活的向往與追求。然而,空氣質(zhì)量污染問題頻頻出現(xiàn),尤以霧霾污染為重。霧霾等空氣污染不僅給人類的正常生產(chǎn)、生活、工作和學(xué)習(xí)造成諸多不便,而且還對人們的身心健康帶來嚴(yán)重的危害,阻礙社會(huì)的可持續(xù)發(fā)展。PM2.5作為霧霾形成的主要原因,對PM2.5進(jìn)行科學(xué)有效的預(yù)測,可以使人們提前做好防護(hù)工作,最大限度地減少對人體的危害。工業(yè)化是現(xiàn)代化的基礎(chǔ),我國一直在努力實(shí)現(xiàn)工業(yè)化的路上,大氣污染問題常伴隨其中,因此對PM2.5濃度的預(yù)測成為一個(gè)非,F(xiàn)實(shí)的課題。在當(dāng)代研究PM2.5的課題中,很少運(yùn)用幾種類型的典型機(jī)器學(xué)習(xí)算法來進(jìn)行對比研究。本文主要運(yùn)用了傳統(tǒng)機(jī)器學(xué)習(xí)算法、深度學(xué)習(xí)算法、集成算法下的幾種理論模型,選取了中國具有代表性城市北京的2019年9月1日-30日PM2.5的面板數(shù)據(jù),以PM2.5實(shí)際濃度值作為因變量,以北京市的DEWP、TEMP、PRES、Cbwd、Lws、Ls、lr等數(shù)據(jù)值為自變量,分別運(yùn)用三類算法即傳統(tǒng)回歸算法、深度學(xué)習(xí)算法、集成算法下的多種模型對北京市的PM2.5濃度預(yù)測的效率與準(zhǔn)確性進(jìn)行比較。研究結(jié)果表明...
【文章來源】:江西財(cái)經(jīng)大學(xué)江西省
【文章頁數(shù)】:50 頁
【學(xué)位級別】:碩士
【部分圖文】:
技術(shù)路徑圖
典型機(jī)器學(xué)習(xí)算法在PM2.5濃度預(yù)測研究中的實(shí)現(xiàn)與比較10圖2-4支持向量與間隔2.1.3核函數(shù)支持向量機(jī)有一個(gè)重要的優(yōu)點(diǎn)是可以使用核函數(shù)(KernelFunction)。核函數(shù)可以隱式地將樣本從原始特征空間映射到更高維的空間,從而解決原始特征空間中的線性不可分問題。表2-1支持向量機(jī)常用核函數(shù)名稱表達(dá)式參數(shù)線性核函數(shù)(,)=多項(xiàng)式核函數(shù)(,)=[()+1]d≥1為多項(xiàng)式的次數(shù)徑向基核函數(shù)(,)={||22}σ>0為高斯核的帶寬拉普拉斯核函數(shù)(,)=(‖‖)σ>0Sigmoid核函數(shù)(,)=[()+]tanh為雙曲正切函數(shù),β>0,θ<02.2神經(jīng)網(wǎng)絡(luò)2.2.1BP神經(jīng)網(wǎng)絡(luò)算法原理人工神經(jīng)網(wǎng)絡(luò)的主要連接形式主要有前饋型神經(jīng)網(wǎng)絡(luò)和反饋型神經(jīng)網(wǎng)絡(luò)。常用的前饋型神經(jīng)網(wǎng)絡(luò)有感知器神經(jīng)網(wǎng)絡(luò)、BP神經(jīng)網(wǎng)絡(luò),常用的反饋型有Hopfield網(wǎng)絡(luò)。這里介紹誤差反向傳播算法,即BP簡單神經(jīng)網(wǎng)絡(luò)。BP神經(jīng)網(wǎng)絡(luò)是一種由誤差反向傳播算法訓(xùn)練所得的多層前饋神經(jīng)網(wǎng)絡(luò),由輸
第2章理論基礎(chǔ)11入層、隱含層以及輸出層構(gòu)成。BP神經(jīng)網(wǎng)絡(luò)的基本思想是通過對輸入樣本不斷地訓(xùn)練,輸入的訓(xùn)練樣本經(jīng)過隱含層和輸出層各節(jié)點(diǎn)的處理得到一個(gè)期望輸出,將期望輸出與實(shí)際輸出進(jìn)行比較,如果存在誤差則開始反向傳播,反向傳播的過程中模型不斷調(diào)節(jié)各個(gè)連接節(jié)點(diǎn)的權(quán)值和閾值從而縮小實(shí)際輸出與期望輸出之間的差距,直到誤差縮小到允許的范圍或者模型訓(xùn)練次數(shù)達(dá)到最大時(shí)停止訓(xùn)練,保存此時(shí)各節(jié)點(diǎn)的連接權(quán)值和閾值,得到最終的BP神經(jīng)網(wǎng)絡(luò)模型。圖2-1BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)2.2.2DropoutDropout可以適用于卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)層,是一類用于神經(jīng)網(wǎng)絡(luò)訓(xùn)練或推理的隨機(jī)化技術(shù),被廣泛地應(yīng)用于模型壓縮、神經(jīng)網(wǎng)絡(luò)正則化等任務(wù)。2.2.3正則化泛化問題是機(jī)器學(xué)習(xí)模型的關(guān)鍵問題,對于神經(jīng)網(wǎng)絡(luò)來說,通常情況下,訓(xùn)練數(shù)據(jù)集上的經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化和期望風(fēng)險(xiǎn)并不一致,這容易導(dǎo)致過擬合現(xiàn)象出現(xiàn)。所以,影響模型能力的最關(guān)鍵因素是提高神經(jīng)網(wǎng)絡(luò)的泛化能力。正則化是一類通過引入約束、增加先驗(yàn)、早停等來限制模型的復(fù)雜程度度,從而避免其出現(xiàn)過擬合狀況,是一種可以有效提高泛化能力的方法。
本文編號:3146847
【文章來源】:江西財(cái)經(jīng)大學(xué)江西省
【文章頁數(shù)】:50 頁
【學(xué)位級別】:碩士
【部分圖文】:
技術(shù)路徑圖
典型機(jī)器學(xué)習(xí)算法在PM2.5濃度預(yù)測研究中的實(shí)現(xiàn)與比較10圖2-4支持向量與間隔2.1.3核函數(shù)支持向量機(jī)有一個(gè)重要的優(yōu)點(diǎn)是可以使用核函數(shù)(KernelFunction)。核函數(shù)可以隱式地將樣本從原始特征空間映射到更高維的空間,從而解決原始特征空間中的線性不可分問題。表2-1支持向量機(jī)常用核函數(shù)名稱表達(dá)式參數(shù)線性核函數(shù)(,)=多項(xiàng)式核函數(shù)(,)=[()+1]d≥1為多項(xiàng)式的次數(shù)徑向基核函數(shù)(,)={||22}σ>0為高斯核的帶寬拉普拉斯核函數(shù)(,)=(‖‖)σ>0Sigmoid核函數(shù)(,)=[()+]tanh為雙曲正切函數(shù),β>0,θ<02.2神經(jīng)網(wǎng)絡(luò)2.2.1BP神經(jīng)網(wǎng)絡(luò)算法原理人工神經(jīng)網(wǎng)絡(luò)的主要連接形式主要有前饋型神經(jīng)網(wǎng)絡(luò)和反饋型神經(jīng)網(wǎng)絡(luò)。常用的前饋型神經(jīng)網(wǎng)絡(luò)有感知器神經(jīng)網(wǎng)絡(luò)、BP神經(jīng)網(wǎng)絡(luò),常用的反饋型有Hopfield網(wǎng)絡(luò)。這里介紹誤差反向傳播算法,即BP簡單神經(jīng)網(wǎng)絡(luò)。BP神經(jīng)網(wǎng)絡(luò)是一種由誤差反向傳播算法訓(xùn)練所得的多層前饋神經(jīng)網(wǎng)絡(luò),由輸
第2章理論基礎(chǔ)11入層、隱含層以及輸出層構(gòu)成。BP神經(jīng)網(wǎng)絡(luò)的基本思想是通過對輸入樣本不斷地訓(xùn)練,輸入的訓(xùn)練樣本經(jīng)過隱含層和輸出層各節(jié)點(diǎn)的處理得到一個(gè)期望輸出,將期望輸出與實(shí)際輸出進(jìn)行比較,如果存在誤差則開始反向傳播,反向傳播的過程中模型不斷調(diào)節(jié)各個(gè)連接節(jié)點(diǎn)的權(quán)值和閾值從而縮小實(shí)際輸出與期望輸出之間的差距,直到誤差縮小到允許的范圍或者模型訓(xùn)練次數(shù)達(dá)到最大時(shí)停止訓(xùn)練,保存此時(shí)各節(jié)點(diǎn)的連接權(quán)值和閾值,得到最終的BP神經(jīng)網(wǎng)絡(luò)模型。圖2-1BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)2.2.2DropoutDropout可以適用于卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)層,是一類用于神經(jīng)網(wǎng)絡(luò)訓(xùn)練或推理的隨機(jī)化技術(shù),被廣泛地應(yīng)用于模型壓縮、神經(jīng)網(wǎng)絡(luò)正則化等任務(wù)。2.2.3正則化泛化問題是機(jī)器學(xué)習(xí)模型的關(guān)鍵問題,對于神經(jīng)網(wǎng)絡(luò)來說,通常情況下,訓(xùn)練數(shù)據(jù)集上的經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化和期望風(fēng)險(xiǎn)并不一致,這容易導(dǎo)致過擬合現(xiàn)象出現(xiàn)。所以,影響模型能力的最關(guān)鍵因素是提高神經(jīng)網(wǎng)絡(luò)的泛化能力。正則化是一類通過引入約束、增加先驗(yàn)、早停等來限制模型的復(fù)雜程度度,從而避免其出現(xiàn)過擬合狀況,是一種可以有效提高泛化能力的方法。
本文編號:3146847
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3146847.html
最近更新
教材專著