基于全卷積神經(jīng)網(wǎng)絡(luò)的自動駕駛語義分割研究
發(fā)布時間:2020-12-25 18:08
科技的進(jìn)步使自動駕駛從人們的想象逐漸成為現(xiàn)實,為達(dá)到這個目的,離不開對道路場景的解析,這就需要語義分割技術(shù)。語義分割技術(shù)用于對圖像中的每個像素進(jìn)行分類,完成對道路場景的分析。早期的圖像分割技術(shù)有諸多缺陷,后來的深度學(xué)習(xí)為之開辟了新的道路。近年來,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)被廣泛應(yīng)用于語義分割任務(wù),在圖像分割領(lǐng)域有突出表現(xiàn)。全卷積神經(jīng)網(wǎng)絡(luò)的提出在語義分割發(fā)展的道路上有里程碑式的意義;谌矸e神經(jīng)網(wǎng)絡(luò)的語義分割技術(shù)相對于早期的圖像分割方法更靈活,更智能,在性能方面也更優(yōu)越。不同于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)的最終輸出的是向量,全卷積神經(jīng)網(wǎng)絡(luò)可以接受任意大小的輸入并得到同樣大小的輸出特征圖,是一個端到端的網(wǎng)絡(luò)架構(gòu)。本文在全卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,通過使用跳躍連接、空洞卷積和多層特征融合等方法實現(xiàn)對語義分割網(wǎng)絡(luò)的改進(jìn)。本文主要圍繞兩個核心課題展開研究:提出一種簡單的新型全卷積神經(jīng)網(wǎng)絡(luò);提高語義分割網(wǎng)絡(luò)性能。本文的研究內(nèi)容如下:針對當(dāng)前的卷積神經(jīng)網(wǎng)絡(luò)使用池化層導(dǎo)致的特征信息損失的問題,提出了一種簡單的全卷積網(wǎng)絡(luò)模型。與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)不同,該模型去除了池化層,整個模型主要由卷積層組成。在保留空間降維功能的前提下,...
【文章來源】:西華師范大學(xué)四川省
【文章頁數(shù)】:56 頁
【學(xué)位級別】:碩士
【部分圖文】:
語義分割效果圖
第2章相關(guān)理論知識9式對輸入特征的每個通道進(jìn)行卷積操作,每一次卷積操作只處理一小塊特征圖,經(jīng)過卷積變換后傳入下一層,每一層卷積操作都會提取特征數(shù)據(jù)中最有效的特征,組成輸出的特征圖(FeatureMap),輸出特征圖的通道數(shù)和卷積核的個數(shù)相同,圖2-2簡單地展示了卷積操作過程。圖2-2卷積操作Fig2-2Convolutionoperation如上圖所示,左邊為一個大小為5×5,padding為1的輸入特征圖,經(jīng)過大小為3×3,步長為1的卷積核(濾波器)處理后,得到一個5×5的輸出特征圖結(jié)果。每一次卷積操作所得到一個特征值,該特征值是每一次卷積核卷積操作的區(qū)域與卷積核對應(yīng)權(quán)值相乘后的總和,例如上圖輸入特征圖的紅框部分正在被執(zhí)行卷積操作,其各部分的權(quán)值與卷積核相對應(yīng)的權(quán)值分別求得乘積(padding部分權(quán)值為0),再將這些乘積累加得到數(shù)值為6的權(quán)值并賦值輸出特征圖對應(yīng)位置。特征圖的輸出維度等于卷積核的個數(shù)。卷積層參數(shù)可看作是圖像中對應(yīng)位置像素的權(quán)重,將卷積核內(nèi)各像素的加權(quán)值賦予中心像素,是為圖像特征抽象的過程。該過程可用公式2-3表示為bwxfy)((2-3)上述式子中,x、y分別代表輸入特征和輸出特征,w表示卷積層參數(shù),b表示偏移量,f為激活函數(shù)。在卷積神經(jīng)網(wǎng)絡(luò)中,輸入數(shù)據(jù)經(jīng)過加權(quán)求和后被應(yīng)用于一個函數(shù)中,這個函數(shù)就是激活函數(shù)。激活函數(shù)[37]為神經(jīng)元引入了非線性的因素,使得神經(jīng)網(wǎng)絡(luò)可以逼近任何非線性函數(shù),這樣就可以將神經(jīng)網(wǎng)絡(luò)應(yīng)用到非線性模型中。常用的激活函數(shù)有sigmoid函數(shù),tanh函數(shù),Relu函數(shù),LeakyRelu函數(shù)等。Sigmoid函數(shù)也叫Logistic函數(shù),用于隱藏層的輸出,輸出在(0,1)之間,它可
第2章相關(guān)理論知識110<0,,)(xxififxxxf(2-7)從圖2-3給出的Sigmoid激活函數(shù)、tanh激活函數(shù)、relu激活函數(shù)和leakyrelu激活函數(shù)的曲線圖可以明顯的看出各激活函數(shù)的特點(diǎn)。(a)sigmoid(b)tanh(c)relu(d)leakyrelu圖2-3Sigmoid、tanh、relu和leakyrelu激活函數(shù)曲線Fig.2-3Thefunctioncurveofsigmoid,tanh,reluandleakyrelu池化層又稱為子采樣層(sub-samplingLayer)。卷積神經(jīng)網(wǎng)絡(luò)通過池化操作對數(shù)據(jù)進(jìn)行降維,去除冗余信息,從而對特征進(jìn)行壓縮,因此降低了網(wǎng)絡(luò)復(fù)雜度,減少了網(wǎng)絡(luò)計算量、內(nèi)存消耗等,所以,池化操作的直接目的就是降低下一層待處理的數(shù)據(jù)量,減少了參數(shù)數(shù)量,從而可以預(yù)防網(wǎng)絡(luò)過擬合。同時,池化層可以擴(kuò)大網(wǎng)絡(luò)的感受野,以此獲取更多的特征信息,也可以實現(xiàn)不變性,包括平移不變性、旋轉(zhuǎn)不變性和尺度不變性。常用的池化方法有最大池化(MaxPooling)和平均池化(AveragePooling)兩種。圖2-4展示了兩種池化操作的計算過程,最大池化就是取池化窗口中輸入元素的最大值作為輸出,同理,平均池化的輸出則是池化窗口中輸入元素的平均值。
本文編號:2938141
【文章來源】:西華師范大學(xué)四川省
【文章頁數(shù)】:56 頁
【學(xué)位級別】:碩士
【部分圖文】:
語義分割效果圖
第2章相關(guān)理論知識9式對輸入特征的每個通道進(jìn)行卷積操作,每一次卷積操作只處理一小塊特征圖,經(jīng)過卷積變換后傳入下一層,每一層卷積操作都會提取特征數(shù)據(jù)中最有效的特征,組成輸出的特征圖(FeatureMap),輸出特征圖的通道數(shù)和卷積核的個數(shù)相同,圖2-2簡單地展示了卷積操作過程。圖2-2卷積操作Fig2-2Convolutionoperation如上圖所示,左邊為一個大小為5×5,padding為1的輸入特征圖,經(jīng)過大小為3×3,步長為1的卷積核(濾波器)處理后,得到一個5×5的輸出特征圖結(jié)果。每一次卷積操作所得到一個特征值,該特征值是每一次卷積核卷積操作的區(qū)域與卷積核對應(yīng)權(quán)值相乘后的總和,例如上圖輸入特征圖的紅框部分正在被執(zhí)行卷積操作,其各部分的權(quán)值與卷積核相對應(yīng)的權(quán)值分別求得乘積(padding部分權(quán)值為0),再將這些乘積累加得到數(shù)值為6的權(quán)值并賦值輸出特征圖對應(yīng)位置。特征圖的輸出維度等于卷積核的個數(shù)。卷積層參數(shù)可看作是圖像中對應(yīng)位置像素的權(quán)重,將卷積核內(nèi)各像素的加權(quán)值賦予中心像素,是為圖像特征抽象的過程。該過程可用公式2-3表示為bwxfy)((2-3)上述式子中,x、y分別代表輸入特征和輸出特征,w表示卷積層參數(shù),b表示偏移量,f為激活函數(shù)。在卷積神經(jīng)網(wǎng)絡(luò)中,輸入數(shù)據(jù)經(jīng)過加權(quán)求和后被應(yīng)用于一個函數(shù)中,這個函數(shù)就是激活函數(shù)。激活函數(shù)[37]為神經(jīng)元引入了非線性的因素,使得神經(jīng)網(wǎng)絡(luò)可以逼近任何非線性函數(shù),這樣就可以將神經(jīng)網(wǎng)絡(luò)應(yīng)用到非線性模型中。常用的激活函數(shù)有sigmoid函數(shù),tanh函數(shù),Relu函數(shù),LeakyRelu函數(shù)等。Sigmoid函數(shù)也叫Logistic函數(shù),用于隱藏層的輸出,輸出在(0,1)之間,它可
第2章相關(guān)理論知識110<0,,)(xxififxxxf(2-7)從圖2-3給出的Sigmoid激活函數(shù)、tanh激活函數(shù)、relu激活函數(shù)和leakyrelu激活函數(shù)的曲線圖可以明顯的看出各激活函數(shù)的特點(diǎn)。(a)sigmoid(b)tanh(c)relu(d)leakyrelu圖2-3Sigmoid、tanh、relu和leakyrelu激活函數(shù)曲線Fig.2-3Thefunctioncurveofsigmoid,tanh,reluandleakyrelu池化層又稱為子采樣層(sub-samplingLayer)。卷積神經(jīng)網(wǎng)絡(luò)通過池化操作對數(shù)據(jù)進(jìn)行降維,去除冗余信息,從而對特征進(jìn)行壓縮,因此降低了網(wǎng)絡(luò)復(fù)雜度,減少了網(wǎng)絡(luò)計算量、內(nèi)存消耗等,所以,池化操作的直接目的就是降低下一層待處理的數(shù)據(jù)量,減少了參數(shù)數(shù)量,從而可以預(yù)防網(wǎng)絡(luò)過擬合。同時,池化層可以擴(kuò)大網(wǎng)絡(luò)的感受野,以此獲取更多的特征信息,也可以實現(xiàn)不變性,包括平移不變性、旋轉(zhuǎn)不變性和尺度不變性。常用的池化方法有最大池化(MaxPooling)和平均池化(AveragePooling)兩種。圖2-4展示了兩種池化操作的計算過程,最大池化就是取池化窗口中輸入元素的最大值作為輸出,同理,平均池化的輸出則是池化窗口中輸入元素的平均值。
本文編號:2938141
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2938141.html
最近更新
教材專著