多階段遙感圖像目標(biāo)檢測(cè)方法研究
發(fā)布時(shí)間:2021-07-31 21:27
目標(biāo)檢測(cè)在自然場(chǎng)景和遙感場(chǎng)景中的研究極具挑戰(zhàn)。盡管許多先進(jìn)的算法在自然場(chǎng)景下取得了優(yōu)異的成果,但是遙感圖像的復(fù)雜性、目標(biāo)尺度的多樣性及目標(biāo)密集分布的特性,使得針對(duì)遙感圖像目標(biāo)檢測(cè)的研究步伐緩慢。本文提出一個(gè)新穎的多類別目標(biāo)檢測(cè)模型,可以自動(dòng)學(xué)習(xí)特征融合時(shí)的權(quán)重,并突出目標(biāo)特征,實(shí)現(xiàn)在復(fù)雜的遙感圖像中有效地檢測(cè)小目標(biāo)和密集分布的目標(biāo)。模型在公開數(shù)據(jù)集DOTA和NWPU VHR-10上的實(shí)驗(yàn)結(jié)果表明檢測(cè)效果超過了大多數(shù)經(jīng)典算法。
【文章來源】:計(jì)算機(jī)與現(xiàn)代化. 2020,(09)
【文章頁數(shù)】:7 頁
【部分圖文】:
E-CasNet整體框架
基于以上分析,本文在FPN的基礎(chǔ)上改進(jìn)特征融合網(wǎng)絡(luò),設(shè)計(jì)特征融合模塊Mix-Net,結(jié)構(gòu)如圖2所示。本文稱改進(jìn)后的特征融合網(wǎng)絡(luò)為IFPN(Improved FPN)。相比于FPN的特征融合策略,Mix-Net更加具有普適性,其可以根據(jù)目標(biāo)特征自動(dòng)學(xué)習(xí)特征融合時(shí)的權(quán)重。對(duì)于語義信息較強(qiáng)但分辨率較低的特征圖,Mix-Net通過反卷積[21]操作對(duì)其上采樣,其采樣步長(zhǎng)為2(上采樣因子為2)。這種上采樣方法的優(yōu)勢(shì)在于反卷積層的權(quán)重是不固定的,在網(wǎng)絡(luò)訓(xùn)練中可根據(jù)目標(biāo)的特征自動(dòng)學(xué)習(xí)出來,也就是說特征圖中不同區(qū)域的上采樣方式不是既定的,而是在訓(xùn)練過程中被學(xué)習(xí)得到。接下來,經(jīng)過上采樣的特征圖與自下而上網(wǎng)絡(luò)中相同分辨率的特征圖進(jìn)行融合,圖2詳細(xì)展示了本文的融合方法。自下而上網(wǎng)絡(luò)中的特征圖經(jīng)過一個(gè)1×1卷積層后,與經(jīng)過上采樣后相同分辨率的特征圖堆疊,然后增加一個(gè)3×3卷積層進(jìn)行特征融合。這種融合方法通過對(duì)卷積層權(quán)重的學(xué)習(xí)可以學(xué)到最佳的融合方式,而逐像素相加的方式實(shí)際上是既定了融合的權(quán)重,相比之下Mix-Net采用的融合方式更具有普適性和可優(yōu)化性。遙感圖像中的目標(biāo)種類繁多且大小形狀多變,除了對(duì)于特征融合方式的改進(jìn),本文在錨框的設(shè)置方面也采用了更適合遙感圖像特性的方法。錨框的基礎(chǔ)尺寸為256,縮放尺度為{1/16,1/8,1/4,1/2,1,2/1},考慮到遙感圖像數(shù)據(jù)集中目標(biāo)具有不同的形狀,錨框的長(zhǎng)寬比設(shè)置為{1:1,1:2,1:3,1:4,1:5,1:6,1:7,1:9}。以上這些設(shè)置可以盡可能保證更多的真實(shí)目標(biāo)邊框被分類為正樣本。針對(duì)錨框的分類策略本文采用與FPN相同的方式,即當(dāng)IoU>0.7時(shí),將錨框判定為正樣本,當(dāng)IoU<0.3時(shí),將錨框判定為負(fù)樣本,當(dāng)IoU在0.3~0.7之間時(shí),錨框不參與訓(xùn)練。
基于以上討論,本文在精檢測(cè)階段結(jié)合了各個(gè)分辨率下的融合特征圖,充分利用了目標(biāo)的上下文信息,如圖4所示。具體地,先對(duì){F3,F4,F5}上采樣至與A2相同尺寸,上采樣方法與Mix-Net的方式相同,然后將{A2,F3,F4,F5}堆疊得到包含豐富上下分信息的特征圖Dc。精檢測(cè)階段所有候選區(qū)域的裁剪操作均在特征圖Dc上完成。為了提高計(jì)算速度,在訓(xùn)練階段NMS選取分?jǐn)?shù)最高的12000個(gè)回歸邊框并保留2000個(gè)作為候選區(qū)域,在測(cè)試階段NMS選取10000個(gè)回歸邊框并保留300個(gè)做為候選區(qū)域。本文在精檢測(cè)階段的檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)及IoU閾值設(shè)置方法均采用與Cascade R-CNN相同的方式。2.4 多任務(wù)損失函數(shù)
本文編號(hào):3314216
【文章來源】:計(jì)算機(jī)與現(xiàn)代化. 2020,(09)
【文章頁數(shù)】:7 頁
【部分圖文】:
E-CasNet整體框架
基于以上分析,本文在FPN的基礎(chǔ)上改進(jìn)特征融合網(wǎng)絡(luò),設(shè)計(jì)特征融合模塊Mix-Net,結(jié)構(gòu)如圖2所示。本文稱改進(jìn)后的特征融合網(wǎng)絡(luò)為IFPN(Improved FPN)。相比于FPN的特征融合策略,Mix-Net更加具有普適性,其可以根據(jù)目標(biāo)特征自動(dòng)學(xué)習(xí)特征融合時(shí)的權(quán)重。對(duì)于語義信息較強(qiáng)但分辨率較低的特征圖,Mix-Net通過反卷積[21]操作對(duì)其上采樣,其采樣步長(zhǎng)為2(上采樣因子為2)。這種上采樣方法的優(yōu)勢(shì)在于反卷積層的權(quán)重是不固定的,在網(wǎng)絡(luò)訓(xùn)練中可根據(jù)目標(biāo)的特征自動(dòng)學(xué)習(xí)出來,也就是說特征圖中不同區(qū)域的上采樣方式不是既定的,而是在訓(xùn)練過程中被學(xué)習(xí)得到。接下來,經(jīng)過上采樣的特征圖與自下而上網(wǎng)絡(luò)中相同分辨率的特征圖進(jìn)行融合,圖2詳細(xì)展示了本文的融合方法。自下而上網(wǎng)絡(luò)中的特征圖經(jīng)過一個(gè)1×1卷積層后,與經(jīng)過上采樣后相同分辨率的特征圖堆疊,然后增加一個(gè)3×3卷積層進(jìn)行特征融合。這種融合方法通過對(duì)卷積層權(quán)重的學(xué)習(xí)可以學(xué)到最佳的融合方式,而逐像素相加的方式實(shí)際上是既定了融合的權(quán)重,相比之下Mix-Net采用的融合方式更具有普適性和可優(yōu)化性。遙感圖像中的目標(biāo)種類繁多且大小形狀多變,除了對(duì)于特征融合方式的改進(jìn),本文在錨框的設(shè)置方面也采用了更適合遙感圖像特性的方法。錨框的基礎(chǔ)尺寸為256,縮放尺度為{1/16,1/8,1/4,1/2,1,2/1},考慮到遙感圖像數(shù)據(jù)集中目標(biāo)具有不同的形狀,錨框的長(zhǎng)寬比設(shè)置為{1:1,1:2,1:3,1:4,1:5,1:6,1:7,1:9}。以上這些設(shè)置可以盡可能保證更多的真實(shí)目標(biāo)邊框被分類為正樣本。針對(duì)錨框的分類策略本文采用與FPN相同的方式,即當(dāng)IoU>0.7時(shí),將錨框判定為正樣本,當(dāng)IoU<0.3時(shí),將錨框判定為負(fù)樣本,當(dāng)IoU在0.3~0.7之間時(shí),錨框不參與訓(xùn)練。
基于以上討論,本文在精檢測(cè)階段結(jié)合了各個(gè)分辨率下的融合特征圖,充分利用了目標(biāo)的上下文信息,如圖4所示。具體地,先對(duì){F3,F4,F5}上采樣至與A2相同尺寸,上采樣方法與Mix-Net的方式相同,然后將{A2,F3,F4,F5}堆疊得到包含豐富上下分信息的特征圖Dc。精檢測(cè)階段所有候選區(qū)域的裁剪操作均在特征圖Dc上完成。為了提高計(jì)算速度,在訓(xùn)練階段NMS選取分?jǐn)?shù)最高的12000個(gè)回歸邊框并保留2000個(gè)作為候選區(qū)域,在測(cè)試階段NMS選取10000個(gè)回歸邊框并保留300個(gè)做為候選區(qū)域。本文在精檢測(cè)階段的檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)及IoU閾值設(shè)置方法均采用與Cascade R-CNN相同的方式。2.4 多任務(wù)損失函數(shù)
本文編號(hào):3314216
本文鏈接:http://sikaile.net/guanlilunwen/gongchengguanli/3314216.html
最近更新
教材專著