基于語義分割的火車車廂位置檢測研究
發(fā)布時(shí)間:2021-12-24 05:09
為了實(shí)現(xiàn)在煤炭定量裝車站裝車過程中實(shí)時(shí)檢測火車車廂位置,為溜槽升降提供觸發(fā)信號(hào),設(shè)計(jì)了一種基于語義分割的火車車廂位置檢測模型。以FPN(feature pyramid networks,特征金字塔網(wǎng)絡(luò))和ResNet101(residual network,殘差網(wǎng)絡(luò))為主干網(wǎng)絡(luò),提取并融合分辨率、語義強(qiáng)度不同的特征圖;結(jié)合基于期望最大化(expectation maximization,EM)算法的注意力機(jī)制,構(gòu)建車廂上邊框語義分割模型,用于過濾特征圖中的噪聲,提高圖像邊界的語義分割精度;設(shè)計(jì)位置檢測模塊,計(jì)算語義分割后圖像中各類別的面積及其比例和車廂上邊框外接矩形高度,以獲取火車車廂位置信息。結(jié)果表明,所構(gòu)建的車廂上邊框語義分割模型在測試集上的mIoU(mean intersection over union,均交并比)為81.21%,mPA(mean pixel accuracy,平均像素精度)為88.64%,相比未引入注意力機(jī)制的語義分割模型分別提升了3.91%和7.44%。在煤炭定量裝車站現(xiàn)場進(jìn)行的火車車廂位置檢測試驗(yàn)結(jié)果表明,基于語義分割的火車車廂位置檢測模型的檢測精度滿足煤...
【文章來源】:工程設(shè)計(jì)學(xué)報(bào). 2020,27(05)北大核心CSCD
【文章頁數(shù)】:9 頁
【部分圖文】:
基于語義分割的火車車廂位置檢測模型總體框架
多尺度特征提取與融合模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。首先,對輸入圖像自下往上逐層進(jìn)行特征提取,在Res Net101最后一層輸出{X2,X3,X4,X5},輸出圖像的像素分別為原輸入圖像的1/4,1/8,1/16和1/32。然后,通過1×1卷積(Conv 1×1)來減少高層強(qiáng)語義特征圖的通道數(shù)量(此處將特征通道數(shù)量統(tǒng)一為256),并上采樣至前一層特征圖的像素,并與前一層高分辨率的特征圖進(jìn)行融合后得到新的特征圖,表示為{P2,P3,P4,P5},這既利用了高層特征圖的強(qiáng)語義信息,又利用了低層特征圖的高分辨率信息。接著,分別將P2至P5層的特征圖上采樣到原輸入圖像像素的1/4,并將通道數(shù)量減少至128。最后,將4個(gè)層級的特征圖進(jìn)行拼接得到Xp,其中每個(gè)上采樣階段均包括3×3卷積(Conv 3×3)、Group Norm、Re LU(激活函數(shù))和2倍雙線性內(nèi)插值上采樣。多尺度特征提取與融合模塊通過融合高層的低分辨率、強(qiáng)語義信息特征圖和低層的高分辨率、弱語義信息特征圖,恢復(fù)了在編碼過程中因降低分辨率而丟失的信息,提高了多尺度目標(biāo)的語義分割精度。1.3 注意力機(jī)制模塊
基于注意力圖與數(shù)據(jù)基重新估計(jì)得到新的特征圖,采用式(4)和式(5)將重新估計(jì)后得到的特征圖與原始特征圖進(jìn)行融合,以得到噪聲更少、邊緣信息更加豐富的特征圖。式中:X"p表示注意力機(jī)制模塊重新估計(jì)后得到的特征圖;aT表示T次迭代后最終的權(quán)責(zé);mT表示T次迭代后的數(shù)據(jù)基;⊕表示逐像素點(diǎn)相加的融合方式;P表示注意力機(jī)制模塊輸出的特征圖。
【參考文獻(xiàn)】:
期刊論文
[1]基于深度學(xué)習(xí)的圖像語義分割方法綜述[J]. 田萱,王亮,丁琪. 軟件學(xué)報(bào). 2019(02)
[2]一種基于視覺注意力機(jī)制的深度循環(huán)Q網(wǎng)絡(luò)模型[J]. 劉全,翟建偉,鐘珊,章宗長,周倩,章鵬. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
[3]一種基于期望最大化條件的電容層析成像圖像重建算法[J]. 張?jiān)讫?陳德運(yùn),王莉莉. 哈爾濱理工大學(xué)學(xué)報(bào). 2016(02)
[4]一種基于支持向量機(jī)和半監(jiān)督期望最大化算法的分級圖像標(biāo)識(shí)方法(英文)[J]. 高彥宇,尹怡欣,UOZUMI Takashi. 自動(dòng)化學(xué)報(bào). 2010(07)
碩士論文
[1]基于語義分割的車載路面裂縫自動(dòng)識(shí)別技術(shù)研究[D]. 魏芳.長安大學(xué) 2019
[2]基于高斯混合模型的圖像分割的研究[D]. 歐垚江.北京交通大學(xué) 2015
本文編號(hào):3549876
【文章來源】:工程設(shè)計(jì)學(xué)報(bào). 2020,27(05)北大核心CSCD
【文章頁數(shù)】:9 頁
【部分圖文】:
基于語義分割的火車車廂位置檢測模型總體框架
多尺度特征提取與融合模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。首先,對輸入圖像自下往上逐層進(jìn)行特征提取,在Res Net101最后一層輸出{X2,X3,X4,X5},輸出圖像的像素分別為原輸入圖像的1/4,1/8,1/16和1/32。然后,通過1×1卷積(Conv 1×1)來減少高層強(qiáng)語義特征圖的通道數(shù)量(此處將特征通道數(shù)量統(tǒng)一為256),并上采樣至前一層特征圖的像素,并與前一層高分辨率的特征圖進(jìn)行融合后得到新的特征圖,表示為{P2,P3,P4,P5},這既利用了高層特征圖的強(qiáng)語義信息,又利用了低層特征圖的高分辨率信息。接著,分別將P2至P5層的特征圖上采樣到原輸入圖像像素的1/4,并將通道數(shù)量減少至128。最后,將4個(gè)層級的特征圖進(jìn)行拼接得到Xp,其中每個(gè)上采樣階段均包括3×3卷積(Conv 3×3)、Group Norm、Re LU(激活函數(shù))和2倍雙線性內(nèi)插值上采樣。多尺度特征提取與融合模塊通過融合高層的低分辨率、強(qiáng)語義信息特征圖和低層的高分辨率、弱語義信息特征圖,恢復(fù)了在編碼過程中因降低分辨率而丟失的信息,提高了多尺度目標(biāo)的語義分割精度。1.3 注意力機(jī)制模塊
基于注意力圖與數(shù)據(jù)基重新估計(jì)得到新的特征圖,采用式(4)和式(5)將重新估計(jì)后得到的特征圖與原始特征圖進(jìn)行融合,以得到噪聲更少、邊緣信息更加豐富的特征圖。式中:X"p表示注意力機(jī)制模塊重新估計(jì)后得到的特征圖;aT表示T次迭代后最終的權(quán)責(zé);mT表示T次迭代后的數(shù)據(jù)基;⊕表示逐像素點(diǎn)相加的融合方式;P表示注意力機(jī)制模塊輸出的特征圖。
【參考文獻(xiàn)】:
期刊論文
[1]基于深度學(xué)習(xí)的圖像語義分割方法綜述[J]. 田萱,王亮,丁琪. 軟件學(xué)報(bào). 2019(02)
[2]一種基于視覺注意力機(jī)制的深度循環(huán)Q網(wǎng)絡(luò)模型[J]. 劉全,翟建偉,鐘珊,章宗長,周倩,章鵬. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
[3]一種基于期望最大化條件的電容層析成像圖像重建算法[J]. 張?jiān)讫?陳德運(yùn),王莉莉. 哈爾濱理工大學(xué)學(xué)報(bào). 2016(02)
[4]一種基于支持向量機(jī)和半監(jiān)督期望最大化算法的分級圖像標(biāo)識(shí)方法(英文)[J]. 高彥宇,尹怡欣,UOZUMI Takashi. 自動(dòng)化學(xué)報(bào). 2010(07)
碩士論文
[1]基于語義分割的車載路面裂縫自動(dòng)識(shí)別技術(shù)研究[D]. 魏芳.長安大學(xué) 2019
[2]基于高斯混合模型的圖像分割的研究[D]. 歐垚江.北京交通大學(xué) 2015
本文編號(hào):3549876
本文鏈接:http://sikaile.net/kejilunwen/jiaotonggongchenglunwen/3549876.html
最近更新
教材專著