基于復(fù)數(shù)全卷積神經(jīng)網(wǎng)絡(luò)和卷積自編碼器的SAR目標(biāo)分類(lèi)
發(fā)布時(shí)間:2021-01-20 07:39
合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)具有遠(yuǎn)距離、全天時(shí)和全天候工作能力,在軍事和民用領(lǐng)域發(fā)揮著非常重要的作用。SAR自動(dòng)目標(biāo)識(shí)別(SAR Automatic Target Recognition,SAR-ATR)一直是SAR領(lǐng)域的研究熱點(diǎn)之一,它能夠利用計(jì)算機(jī)自動(dòng)識(shí)別目標(biāo)并判斷其所屬類(lèi)別。近年來(lái),深度卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)作為一種典型的深度學(xué)習(xí)技術(shù),被廣泛應(yīng)用于SAR-ATR中,并取得了較為顯著的成績(jī)。目前,多數(shù)基于CNN的SAR-ATR方法只采用了SAR圖像幅度數(shù)據(jù),而丟失了相位數(shù)據(jù)。事實(shí)上,SAR相位數(shù)據(jù)也包含了豐富的目標(biāo)信息。因此,研究基于復(fù)數(shù)卷積神經(jīng)網(wǎng)絡(luò)(Complex-Valued Convolution Neural Network,CCNN)網(wǎng)絡(luò)的SAR-ATR方法顯得極為迫切。本文主要提出了三種改進(jìn)的復(fù)數(shù)卷積神經(jīng)網(wǎng)絡(luò),并在此基礎(chǔ)上引入改進(jìn)的復(fù)數(shù)卷積自編碼器(Improved Complex Convolutional Auto Encoder,ICCAE)對(duì)其中的一種進(jìn)行無(wú)監(jiān)督預(yù)訓(xùn)...
【文章來(lái)源】:江西理工大學(xué)江西省
【文章頁(yè)數(shù)】:67 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
停車(chē)場(chǎng)內(nèi)車(chē)輛的光學(xué)圖像和SAR圖像對(duì)比
t權(quán)重參數(shù)的學(xué)習(xí)過(guò)程中,LeCunn還提出了如今在深度學(xué)習(xí)中廣泛使用的隨機(jī)梯度下降(StochasticGradientDescent,SGD)算法。由于LeNet結(jié)構(gòu)中首次采用了“卷積”這一名詞,CNN也隨之而得名。1998年,LeCun、Bottou和Bengio等人在LeNet結(jié)構(gòu)基礎(chǔ)上引入了池化層,進(jìn)一步提出了更為完善的LeNet-5模型,其結(jié)構(gòu)如圖1.2所示[26]。該模型共有7層,第一層為卷積層,第二層為池化層,第三層和第四層又分別為卷積和池化層,第五層至第七層均為全連接層。LeNet-5被成功用于識(shí)別手寫(xiě)數(shù)字,其在MNIST數(shù)據(jù)集上的正確識(shí)別率能達(dá)到99.2%。圖1.2LeNet-5模型結(jié)構(gòu)自2006年“深度學(xué)習(xí)”概念提出以來(lái),CNN也進(jìn)一步得到發(fā)展。2012年,Hinton和AlexKrizhevshy提出了AlexNet模型[27]。該網(wǎng)絡(luò)模型在ImageNet圖像分類(lèi)競(jìng)賽中奪得冠軍,其結(jié)構(gòu)和LeNet相差無(wú)幾,如圖1.3所示,但它在CNN結(jié)構(gòu)基礎(chǔ)上加入了ReLU激活函數(shù)以解決梯度消失問(wèn)題,并在訓(xùn)練過(guò)程中采用Dropout技術(shù)以防止過(guò)擬合。此外,由于計(jì)算機(jī)硬件水平的提高,AlexNet采用兩塊GPU大大加速了網(wǎng)絡(luò)訓(xùn)練速度。自那開(kāi)始,CNN在各類(lèi)圖像處理領(lǐng)域發(fā)揮著舉足輕重的作用。2013年,Zeiler和Fergus在AlexNet基礎(chǔ)上做了一些修改并提出了ZFNet,該網(wǎng)絡(luò)也獲得了當(dāng)年的ImageNet競(jìng)賽冠軍。2014年,GoogLeNet[28]和VGGNet[29]分別獲得ImageNet競(jìng)賽的冠軍和亞軍。VGGNet由牛津大學(xué)VisualGeometryGroup(VGG)提出,它的原理與LeNet-5、AlexNet并沒(méi)有太大區(qū)別。VGGNet的卷積核大小基本上為3*3,池化核大小為2*2。VGG包含6個(gè)網(wǎng)絡(luò),后面網(wǎng)絡(luò)采用前面訓(xùn)練好的網(wǎng)絡(luò)參數(shù)進(jìn)行初始化[28]。VGGNet模型在遷移至其他目標(biāo)圖像時(shí),比GoogLeNet要更勝一籌。GoogLeNet是由Szegedy提出的一種新的網(wǎng)絡(luò)結(jié)構(gòu)[29]。與AlexNet和VGGNet通過(guò)堆疊卷積層以加深
撲愀叢傭取?nceptionV3與InceptionV2相比,改進(jìn)之處包括:采用了RMSProp優(yōu)化器;采用LabelSmoothing防止過(guò)擬合;將7*7的卷積核用1*7和7*1兩個(gè)卷積核替代,不僅提高了計(jì)算效率,而且還增強(qiáng)了網(wǎng)絡(luò)非線(xiàn)性表示能力;輔助分類(lèi)器采用了BN。InceptionV4在InceptionV3結(jié)構(gòu)上做了改進(jìn),它以塊的形式構(gòu)成網(wǎng)絡(luò)[31]。InceptionV4與ResNet相結(jié)合后,又進(jìn)一步得到Inception-ResNet-V1和Inception-ResNet-V2[32]。由于殘差塊的引入,兩種網(wǎng)絡(luò)的訓(xùn)練效率得到大大地提高。兩種網(wǎng)絡(luò)的結(jié)構(gòu)大體上一致,只是在每個(gè)塊的具體實(shí)現(xiàn)上有所不同。圖1.3AlexNet模型結(jié)構(gòu)ResNet是受高速路神經(jīng)網(wǎng)路[33]啟發(fā),由KaimingHe于2015年提出。該網(wǎng)絡(luò)共有152層,在ILSVRC數(shù)據(jù)集上top-5錯(cuò)誤率達(dá)到了3.57%,獲得了當(dāng)年的ImageNet競(jìng)賽冠軍[28]。由于網(wǎng)絡(luò)采用了恒等快捷鏈接的思想,有效地解決了因網(wǎng)絡(luò)層數(shù)過(guò)多而帶來(lái)訓(xùn)練誤差增加的問(wèn)題。隨著CNN的不斷發(fā)展,近期還有一些新的網(wǎng)絡(luò)模型被提出,如DenseNet[34]、DPN[35]、MobileNetV2[36]等。(2)自編碼器早期,AE被當(dāng)作一種編碼學(xué)習(xí)算法。1985年,Ackley、Hinton和Sejnowski在玻爾茲曼機(jī)(BoltzmanMachine)研究中,提出了AE算法的雛形[37]。1986年,Rumelhart、Hinton和Williams在BP算法研究中,使用了單層AE算法以驗(yàn)證BP的可實(shí)現(xiàn)性[38]。1987年,LeCun利用多層感知器,正式提出了包括編碼器和解碼器兩部分的AE結(jié)構(gòu)[39]2006年,Hinton等人在解決數(shù)據(jù)降維問(wèn)題時(shí),設(shè)計(jì)了多層編碼器網(wǎng)絡(luò)將高維數(shù)據(jù)變換為低維,多層解碼器網(wǎng)絡(luò)將低維數(shù)據(jù)恢復(fù)成源數(shù)據(jù)[10]。至此,具有“深度”含義的
本文編號(hào):2988659
【文章來(lái)源】:江西理工大學(xué)江西省
【文章頁(yè)數(shù)】:67 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
停車(chē)場(chǎng)內(nèi)車(chē)輛的光學(xué)圖像和SAR圖像對(duì)比
t權(quán)重參數(shù)的學(xué)習(xí)過(guò)程中,LeCunn還提出了如今在深度學(xué)習(xí)中廣泛使用的隨機(jī)梯度下降(StochasticGradientDescent,SGD)算法。由于LeNet結(jié)構(gòu)中首次采用了“卷積”這一名詞,CNN也隨之而得名。1998年,LeCun、Bottou和Bengio等人在LeNet結(jié)構(gòu)基礎(chǔ)上引入了池化層,進(jìn)一步提出了更為完善的LeNet-5模型,其結(jié)構(gòu)如圖1.2所示[26]。該模型共有7層,第一層為卷積層,第二層為池化層,第三層和第四層又分別為卷積和池化層,第五層至第七層均為全連接層。LeNet-5被成功用于識(shí)別手寫(xiě)數(shù)字,其在MNIST數(shù)據(jù)集上的正確識(shí)別率能達(dá)到99.2%。圖1.2LeNet-5模型結(jié)構(gòu)自2006年“深度學(xué)習(xí)”概念提出以來(lái),CNN也進(jìn)一步得到發(fā)展。2012年,Hinton和AlexKrizhevshy提出了AlexNet模型[27]。該網(wǎng)絡(luò)模型在ImageNet圖像分類(lèi)競(jìng)賽中奪得冠軍,其結(jié)構(gòu)和LeNet相差無(wú)幾,如圖1.3所示,但它在CNN結(jié)構(gòu)基礎(chǔ)上加入了ReLU激活函數(shù)以解決梯度消失問(wèn)題,并在訓(xùn)練過(guò)程中采用Dropout技術(shù)以防止過(guò)擬合。此外,由于計(jì)算機(jī)硬件水平的提高,AlexNet采用兩塊GPU大大加速了網(wǎng)絡(luò)訓(xùn)練速度。自那開(kāi)始,CNN在各類(lèi)圖像處理領(lǐng)域發(fā)揮著舉足輕重的作用。2013年,Zeiler和Fergus在AlexNet基礎(chǔ)上做了一些修改并提出了ZFNet,該網(wǎng)絡(luò)也獲得了當(dāng)年的ImageNet競(jìng)賽冠軍。2014年,GoogLeNet[28]和VGGNet[29]分別獲得ImageNet競(jìng)賽的冠軍和亞軍。VGGNet由牛津大學(xué)VisualGeometryGroup(VGG)提出,它的原理與LeNet-5、AlexNet并沒(méi)有太大區(qū)別。VGGNet的卷積核大小基本上為3*3,池化核大小為2*2。VGG包含6個(gè)網(wǎng)絡(luò),后面網(wǎng)絡(luò)采用前面訓(xùn)練好的網(wǎng)絡(luò)參數(shù)進(jìn)行初始化[28]。VGGNet模型在遷移至其他目標(biāo)圖像時(shí),比GoogLeNet要更勝一籌。GoogLeNet是由Szegedy提出的一種新的網(wǎng)絡(luò)結(jié)構(gòu)[29]。與AlexNet和VGGNet通過(guò)堆疊卷積層以加深
撲愀叢傭取?nceptionV3與InceptionV2相比,改進(jìn)之處包括:采用了RMSProp優(yōu)化器;采用LabelSmoothing防止過(guò)擬合;將7*7的卷積核用1*7和7*1兩個(gè)卷積核替代,不僅提高了計(jì)算效率,而且還增強(qiáng)了網(wǎng)絡(luò)非線(xiàn)性表示能力;輔助分類(lèi)器采用了BN。InceptionV4在InceptionV3結(jié)構(gòu)上做了改進(jìn),它以塊的形式構(gòu)成網(wǎng)絡(luò)[31]。InceptionV4與ResNet相結(jié)合后,又進(jìn)一步得到Inception-ResNet-V1和Inception-ResNet-V2[32]。由于殘差塊的引入,兩種網(wǎng)絡(luò)的訓(xùn)練效率得到大大地提高。兩種網(wǎng)絡(luò)的結(jié)構(gòu)大體上一致,只是在每個(gè)塊的具體實(shí)現(xiàn)上有所不同。圖1.3AlexNet模型結(jié)構(gòu)ResNet是受高速路神經(jīng)網(wǎng)路[33]啟發(fā),由KaimingHe于2015年提出。該網(wǎng)絡(luò)共有152層,在ILSVRC數(shù)據(jù)集上top-5錯(cuò)誤率達(dá)到了3.57%,獲得了當(dāng)年的ImageNet競(jìng)賽冠軍[28]。由于網(wǎng)絡(luò)采用了恒等快捷鏈接的思想,有效地解決了因網(wǎng)絡(luò)層數(shù)過(guò)多而帶來(lái)訓(xùn)練誤差增加的問(wèn)題。隨著CNN的不斷發(fā)展,近期還有一些新的網(wǎng)絡(luò)模型被提出,如DenseNet[34]、DPN[35]、MobileNetV2[36]等。(2)自編碼器早期,AE被當(dāng)作一種編碼學(xué)習(xí)算法。1985年,Ackley、Hinton和Sejnowski在玻爾茲曼機(jī)(BoltzmanMachine)研究中,提出了AE算法的雛形[37]。1986年,Rumelhart、Hinton和Williams在BP算法研究中,使用了單層AE算法以驗(yàn)證BP的可實(shí)現(xiàn)性[38]。1987年,LeCun利用多層感知器,正式提出了包括編碼器和解碼器兩部分的AE結(jié)構(gòu)[39]2006年,Hinton等人在解決數(shù)據(jù)降維問(wèn)題時(shí),設(shè)計(jì)了多層編碼器網(wǎng)絡(luò)將高維數(shù)據(jù)變換為低維,多層解碼器網(wǎng)絡(luò)將低維數(shù)據(jù)恢復(fù)成源數(shù)據(jù)[10]。至此,具有“深度”含義的
本文編號(hào):2988659
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2988659.html
最近更新
教材專(zhuān)著