全卷積神經(jīng)網(wǎng)絡(luò)實(shí)時(shí)語(yǔ)義分割方法研究
發(fā)布時(shí)間:2022-10-10 17:13
近十年,隨著硬件設(shè)備GPU的并行計(jì)算能力提升,深度學(xué)習(xí)領(lǐng)域得到迅猛發(fā)展,其中的卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)方面的研究與應(yīng)用驅(qū)動(dòng)著圖像分割技術(shù)的向前發(fā)展。語(yǔ)義分割是圖像分割領(lǐng)域中的一種方法,它可對(duì)圖像中每個(gè)像素進(jìn)行分類(lèi)。自2015年全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolution neural Network,FCN)的提出,基于FCN的語(yǔ)義分割方法得到國(guó)內(nèi)外學(xué)者的廣泛研究,這類(lèi)方法通過(guò)大量參數(shù)擬合數(shù)據(jù)分布可處理復(fù)雜的數(shù)據(jù)集。由于硬件算力的限制,多個(gè)領(lǐng)域?qū)Ω呔葘?shí)時(shí)語(yǔ)義分割方法的需求非常迫切。但是,當(dāng)前大多數(shù)語(yǔ)義分割方法更關(guān)注如何提升精度而忽略分割速度,而現(xiàn)有的實(shí)時(shí)語(yǔ)義分割方法存在分割精度不足的問(wèn)題,針對(duì)這個(gè)問(wèn)題,本文提出了基于DeepLabv2改進(jìn)的實(shí)時(shí)語(yǔ)義分割方法。在Cityscapes和Pascal VOC2012兩個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)分別取得68.2%mIoU和75.3%mIoU,其分割速度分別取得31FPS和87FPS。與DeepLabv2相比,本文方法具有以下三方面改進(jìn):(1)對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn)。在編碼階段采用深度可分離卷積降低計(jì)算量,在解碼階段增加特征金字塔網(wǎng)絡(luò)(Feature ...
【文章頁(yè)數(shù)】:57 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖1.1全卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)義分割框架??Fig.?1.1?Semantic?segmentation?framework?of?full?convolution?neural?network??
圖2.4修正線性激活單元函數(shù)??Fig.?2.4?Rectified?linear?activation?unit?function??
圖2.7?AlexNet網(wǎng)絡(luò)結(jié)構(gòu)??Fig.?2.7?The?network?structure?of?AlexNet??
本文編號(hào):3690033
【文章頁(yè)數(shù)】:57 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖1.1全卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)義分割框架??Fig.?1.1?Semantic?segmentation?framework?of?full?convolution?neural?network??
圖2.4修正線性激活單元函數(shù)??Fig.?2.4?Rectified?linear?activation?unit?function??
圖2.7?AlexNet網(wǎng)絡(luò)結(jié)構(gòu)??Fig.?2.7?The?network?structure?of?AlexNet??
本文編號(hào):3690033
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3690033.html
最近更新
教材專(zhuān)著