全卷積神經(jīng)網(wǎng)絡(luò)實時語義分割方法研究
發(fā)布時間:2022-10-10 17:13
近十年,隨著硬件設(shè)備GPU的并行計算能力提升,深度學(xué)習(xí)領(lǐng)域得到迅猛發(fā)展,其中的卷積神經(jīng)網(wǎng)絡(luò)在計算機(jī)視覺方面的研究與應(yīng)用驅(qū)動著圖像分割技術(shù)的向前發(fā)展。語義分割是圖像分割領(lǐng)域中的一種方法,它可對圖像中每個像素進(jìn)行分類。自2015年全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolution neural Network,FCN)的提出,基于FCN的語義分割方法得到國內(nèi)外學(xué)者的廣泛研究,這類方法通過大量參數(shù)擬合數(shù)據(jù)分布可處理復(fù)雜的數(shù)據(jù)集。由于硬件算力的限制,多個領(lǐng)域?qū)Ω呔葘崟r語義分割方法的需求非常迫切。但是,當(dāng)前大多數(shù)語義分割方法更關(guān)注如何提升精度而忽略分割速度,而現(xiàn)有的實時語義分割方法存在分割精度不足的問題,針對這個問題,本文提出了基于DeepLabv2改進(jìn)的實時語義分割方法。在Cityscapes和Pascal VOC2012兩個數(shù)據(jù)集上的實驗分別取得68.2%mIoU和75.3%mIoU,其分割速度分別取得31FPS和87FPS。與DeepLabv2相比,本文方法具有以下三方面改進(jìn):(1)對網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn)。在編碼階段采用深度可分離卷積降低計算量,在解碼階段增加特征金字塔網(wǎng)絡(luò)(Feature ...
【文章頁數(shù)】:57 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.1全卷積神經(jīng)網(wǎng)絡(luò)的語義分割框架??Fig.?1.1?Semantic?segmentation?framework?of?full?convolution?neural?network??
圖2.4修正線性激活單元函數(shù)??Fig.?2.4?Rectified?linear?activation?unit?function??
圖2.7?AlexNet網(wǎng)絡(luò)結(jié)構(gòu)??Fig.?2.7?The?network?structure?of?AlexNet??
本文編號:3690033
【文章頁數(shù)】:57 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.1全卷積神經(jīng)網(wǎng)絡(luò)的語義分割框架??Fig.?1.1?Semantic?segmentation?framework?of?full?convolution?neural?network??
圖2.4修正線性激活單元函數(shù)??Fig.?2.4?Rectified?linear?activation?unit?function??
圖2.7?AlexNet網(wǎng)絡(luò)結(jié)構(gòu)??Fig.?2.7?The?network?structure?of?AlexNet??
本文編號:3690033
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3690033.html
最近更新
教材專著