環(huán)境與感知不確定性的碰撞事故分析
發(fā)布時間:2021-07-23 13:07
人工智能算法在自動駕駛領(lǐng)域的深度應(yīng)用,極大的增強了智能車對復(fù)雜場景的感知能力。但由于智能車所面臨的駕駛場景復(fù)雜性與人工智能算法的不確定性,使得人工智能算法給智能車的駕駛安全帶來了新的挑戰(zhàn)。對于智能車在駕駛過程中由于復(fù)雜駕駛環(huán)境和人工智能算法不確定性可能引發(fā)的風(fēng)險進(jìn)行有效分析,降低智能車在行駛過程發(fā)生事故的概率,提高智能駕駛的行車安全性,最終才能實現(xiàn)安全智能駕駛。因此本文的主要研究內(nèi)容如下:(1)不同駕駛環(huán)境和交通事故嚴(yán)重程度之間存在密切聯(lián)系,為了盡量降低高風(fēng)險復(fù)雜場景所引起的交通事故嚴(yán)重性,本文提出一種研究駕駛環(huán)境和事故嚴(yán)重程度關(guān)系的方法。本文基于Kaggle開源的法國交通事故數(shù)據(jù)集,首先通過數(shù)據(jù)清洗進(jìn)行特征處理,并提出了一種多種特征選擇方式融合的方法進(jìn)行特征篩選,得到對事故嚴(yán)重程度有重要影響的環(huán)境特征子集,組成典型事故數(shù)據(jù)集。然后基于定序回歸方法構(gòu)建了事故風(fēng)險模型,基于模型分析環(huán)境特征對事故嚴(yán)重程度的顯著性、相關(guān)性以及影響系數(shù),得出與事故嚴(yán)重程度密切相關(guān)的幾種高危場景,最后針對每種高危場景提出了對應(yīng)的策略和建議。(2)針對惡劣天氣高風(fēng)險復(fù)雜場景下智能車極易出現(xiàn)感知錯誤而引起嚴(yán)重交通事...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:74 頁
【學(xué)位級別】:碩士
【部分圖文】:
數(shù)據(jù)清洗的不同類型
電子科技大學(xué)碩士學(xué)位論文12決策樹的普遍缺點就是容易發(fā)生過擬合,其產(chǎn)生原因就是在決策樹構(gòu)建的過程中對訓(xùn)練數(shù)據(jù)集過度適應(yīng),從而導(dǎo)致在測試數(shù)據(jù)集上效果很差。此時常用且有效的解決方法有很多,可以調(diào)整閾值來重新控制決策樹的終止條件來避免決策樹被分的過于細(xì)致,也可以采用剪枝來對原始決策樹進(jìn)行過濾來緩解過擬合的現(xiàn)象。2.2.2.2Adaboost算法Adaboost算法的主要原理就是結(jié)合多個弱分類器的分類效果進(jìn)行一個串聯(lián)式的合理結(jié)合,從而達(dá)到一個強分類器的效果。算法主要基于迭代循環(huán)的思想,每次迭代都僅僅訓(xùn)練一個弱分類器,訓(xùn)練之后得到的弱分類器將參與進(jìn)行下一次迭代的訓(xùn)練。在第N次迭代的過程中,將會有N個弱分類器,其中N-1個均是在之前的迭代過程中訓(xùn)練得到的,其中前N-1個分類器的各種參數(shù)將不再參與迭代更新,當(dāng)前的迭代過程只訓(xùn)練第N個弱分類器,主要考慮這第N個弱分類器在前N-1個分類器均分類錯誤的情況下的分類效果,但是最終的分類輸出還是要看這N個分類器的綜合分類結(jié)果。如圖2-2所示為Adaboost算法的整體流程,從右至左為最終的求和與符號函數(shù),在左邊的求和之前,圖中的虛線代表著不同迭代輪次的訓(xùn)練效果。第一次迭代時,整個算法為第一行的結(jié)構(gòu),第二次迭代時將會包含第一次迭代的算法結(jié)果。所以其實每次迭代的整個算法結(jié)構(gòu)都將不同,隨著迭代次數(shù)的增強,整個算法的結(jié)構(gòu)與流程將變得更加復(fù)雜,但同時其算法效果將會變得越來越完備。圖2-2Adaboost分類器結(jié)構(gòu)圖在具體的迭代過程中,第N輪迭代將會有具體的處理流程,先是新增加一個需要訓(xùn)練的當(dāng)前弱分類器與初始的弱分類器權(quán)重,然后通過訓(xùn)練的數(shù)據(jù)集與數(shù)據(jù)
層輸出進(jìn)行求和,此時節(jié)點個數(shù)等于需要分類的總類別數(shù);輸出層:對前一層的求和層進(jìn)行最后的歸一化處理,得到測試樣本的每種類別的分類概率,基于概率的大小來進(jìn)行最后的分類,此時節(jié)點個數(shù)為一。概率神經(jīng)網(wǎng)絡(luò)的優(yōu)點在于其收斂速度非?欤艺麄算法流程并不需要進(jìn)行任何模型參數(shù)的訓(xùn)練,同時由于激活函數(shù)的存在,;理論上來說可以完成任何的非線性逼近。但此算法的缺點也很明顯,由于沒有模型參數(shù)的存在,所以每次迭代都要針對于所有的數(shù)據(jù)集樣本,計算復(fù)雜度很高,而且泛用性較差,在不同數(shù)據(jù)集上的效果差異很大。圖2-3概率神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖2.2.3.2自編碼神經(jīng)網(wǎng)絡(luò)自編碼網(wǎng)絡(luò)結(jié)構(gòu)[30]屬于非監(jiān)督學(xué)習(xí),經(jīng)過訓(xùn)練可以自動的從無標(biāo)注的數(shù)據(jù)樣本上提取特征,進(jìn)行特征重構(gòu)的作用。整個網(wǎng)絡(luò)結(jié)構(gòu)的目標(biāo)是將輸入信息在不同維度的空間內(nèi)進(jìn)行特征重組,并且要求重組之后的特征表達(dá)可以擁有比原始數(shù)據(jù)特征更好的表達(dá)能力,或者是更容易進(jìn)行特征應(yīng)用的效果。在實際應(yīng)用中往往采用自編碼神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)得到的特征替代原始的數(shù)據(jù)特征表達(dá)。如圖2-4所示,在自編碼的網(wǎng)絡(luò)結(jié)構(gòu)中,一般會采用一定數(shù)量的隱藏層對輸入數(shù)據(jù)進(jìn)行壓縮和二次表達(dá),然后在輸出層完成特征解壓縮的過程,在整個數(shù)據(jù)壓縮再解壓縮的過程中,也會通過數(shù)據(jù)訓(xùn)練的方式減少信息的丟失,期望最大化的保留數(shù)據(jù)的主要特征。從隱藏層的不同維度來講,一般只會有兩種情況:當(dāng)隱藏層的維度小于輸入層的維度時,此時的網(wǎng)絡(luò)在訓(xùn)練過程中將嘗試以更小的維度去實現(xiàn)對數(shù)據(jù)集的另一種表達(dá),最終完成數(shù)據(jù)降維的過程。如果網(wǎng)路中層與層之間的變換均滿足線性條件,并且訓(xùn)練的損失函數(shù)也是二次型函數(shù)的時候,整個網(wǎng)絡(luò)和PCA降維技術(shù)一樣。當(dāng)隱藏層的維度大于輸入層維度的時候,整個網(wǎng)絡(luò)
【參考文獻(xiàn)】:
期刊論文
[1]基于CIDAS數(shù)據(jù)庫的先進(jìn)駕駛輔助系統(tǒng)安全效果研究[J]. 孫航,孫悅,解瀚光. 中國汽車. 2019(11)
[2]實用的卡方檢驗法[J]. 沈宏峰,陳群. 微型電腦應(yīng)用. 1997(05)
本文編號:3299350
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:74 頁
【學(xué)位級別】:碩士
【部分圖文】:
數(shù)據(jù)清洗的不同類型
電子科技大學(xué)碩士學(xué)位論文12決策樹的普遍缺點就是容易發(fā)生過擬合,其產(chǎn)生原因就是在決策樹構(gòu)建的過程中對訓(xùn)練數(shù)據(jù)集過度適應(yīng),從而導(dǎo)致在測試數(shù)據(jù)集上效果很差。此時常用且有效的解決方法有很多,可以調(diào)整閾值來重新控制決策樹的終止條件來避免決策樹被分的過于細(xì)致,也可以采用剪枝來對原始決策樹進(jìn)行過濾來緩解過擬合的現(xiàn)象。2.2.2.2Adaboost算法Adaboost算法的主要原理就是結(jié)合多個弱分類器的分類效果進(jìn)行一個串聯(lián)式的合理結(jié)合,從而達(dá)到一個強分類器的效果。算法主要基于迭代循環(huán)的思想,每次迭代都僅僅訓(xùn)練一個弱分類器,訓(xùn)練之后得到的弱分類器將參與進(jìn)行下一次迭代的訓(xùn)練。在第N次迭代的過程中,將會有N個弱分類器,其中N-1個均是在之前的迭代過程中訓(xùn)練得到的,其中前N-1個分類器的各種參數(shù)將不再參與迭代更新,當(dāng)前的迭代過程只訓(xùn)練第N個弱分類器,主要考慮這第N個弱分類器在前N-1個分類器均分類錯誤的情況下的分類效果,但是最終的分類輸出還是要看這N個分類器的綜合分類結(jié)果。如圖2-2所示為Adaboost算法的整體流程,從右至左為最終的求和與符號函數(shù),在左邊的求和之前,圖中的虛線代表著不同迭代輪次的訓(xùn)練效果。第一次迭代時,整個算法為第一行的結(jié)構(gòu),第二次迭代時將會包含第一次迭代的算法結(jié)果。所以其實每次迭代的整個算法結(jié)構(gòu)都將不同,隨著迭代次數(shù)的增強,整個算法的結(jié)構(gòu)與流程將變得更加復(fù)雜,但同時其算法效果將會變得越來越完備。圖2-2Adaboost分類器結(jié)構(gòu)圖在具體的迭代過程中,第N輪迭代將會有具體的處理流程,先是新增加一個需要訓(xùn)練的當(dāng)前弱分類器與初始的弱分類器權(quán)重,然后通過訓(xùn)練的數(shù)據(jù)集與數(shù)據(jù)
層輸出進(jìn)行求和,此時節(jié)點個數(shù)等于需要分類的總類別數(shù);輸出層:對前一層的求和層進(jìn)行最后的歸一化處理,得到測試樣本的每種類別的分類概率,基于概率的大小來進(jìn)行最后的分類,此時節(jié)點個數(shù)為一。概率神經(jīng)網(wǎng)絡(luò)的優(yōu)點在于其收斂速度非?欤艺麄算法流程并不需要進(jìn)行任何模型參數(shù)的訓(xùn)練,同時由于激活函數(shù)的存在,;理論上來說可以完成任何的非線性逼近。但此算法的缺點也很明顯,由于沒有模型參數(shù)的存在,所以每次迭代都要針對于所有的數(shù)據(jù)集樣本,計算復(fù)雜度很高,而且泛用性較差,在不同數(shù)據(jù)集上的效果差異很大。圖2-3概率神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖2.2.3.2自編碼神經(jīng)網(wǎng)絡(luò)自編碼網(wǎng)絡(luò)結(jié)構(gòu)[30]屬于非監(jiān)督學(xué)習(xí),經(jīng)過訓(xùn)練可以自動的從無標(biāo)注的數(shù)據(jù)樣本上提取特征,進(jìn)行特征重構(gòu)的作用。整個網(wǎng)絡(luò)結(jié)構(gòu)的目標(biāo)是將輸入信息在不同維度的空間內(nèi)進(jìn)行特征重組,并且要求重組之后的特征表達(dá)可以擁有比原始數(shù)據(jù)特征更好的表達(dá)能力,或者是更容易進(jìn)行特征應(yīng)用的效果。在實際應(yīng)用中往往采用自編碼神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)得到的特征替代原始的數(shù)據(jù)特征表達(dá)。如圖2-4所示,在自編碼的網(wǎng)絡(luò)結(jié)構(gòu)中,一般會采用一定數(shù)量的隱藏層對輸入數(shù)據(jù)進(jìn)行壓縮和二次表達(dá),然后在輸出層完成特征解壓縮的過程,在整個數(shù)據(jù)壓縮再解壓縮的過程中,也會通過數(shù)據(jù)訓(xùn)練的方式減少信息的丟失,期望最大化的保留數(shù)據(jù)的主要特征。從隱藏層的不同維度來講,一般只會有兩種情況:當(dāng)隱藏層的維度小于輸入層的維度時,此時的網(wǎng)絡(luò)在訓(xùn)練過程中將嘗試以更小的維度去實現(xiàn)對數(shù)據(jù)集的另一種表達(dá),最終完成數(shù)據(jù)降維的過程。如果網(wǎng)路中層與層之間的變換均滿足線性條件,并且訓(xùn)練的損失函數(shù)也是二次型函數(shù)的時候,整個網(wǎng)絡(luò)和PCA降維技術(shù)一樣。當(dāng)隱藏層的維度大于輸入層維度的時候,整個網(wǎng)絡(luò)
【參考文獻(xiàn)】:
期刊論文
[1]基于CIDAS數(shù)據(jù)庫的先進(jìn)駕駛輔助系統(tǒng)安全效果研究[J]. 孫航,孫悅,解瀚光. 中國汽車. 2019(11)
[2]實用的卡方檢驗法[J]. 沈宏峰,陳群. 微型電腦應(yīng)用. 1997(05)
本文編號:3299350
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3299350.html
最近更新
教材專著