天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

深度遷移學(xué)習(xí)算法及其應(yīng)用研究

發(fā)布時(shí)間:2021-06-05 23:29
  近年來,深度學(xué)習(xí)技術(shù)在計(jì)算機(jī)視覺領(lǐng)域取得了巨大的成功,表現(xiàn)出了驚人的學(xué)習(xí)表征能力。盡管成就是顯著的,但大多數(shù)深度學(xué)習(xí)模型都依靠大量的標(biāo)簽數(shù)據(jù)來實(shí)現(xiàn)和提高它們的性能。因此,如何在沒有大量標(biāo)記的數(shù)據(jù)中學(xué)到知識(shí)就顯得尤為重要。遷移學(xué)習(xí)旨在從一個(gè)場景中學(xué)習(xí)到的知識(shí)遷移到另一個(gè)相似的應(yīng)用場景中,是深度學(xué)習(xí)“落地”的一種重要探索。本文立足于遷移學(xué)習(xí)算法及其在自動(dòng)駕駛中的應(yīng)用研究,主要工作如下:(1)針對(duì)閉集域自適應(yīng)問題,本文提出了一種可迭代的域自適應(yīng)方法,逐漸為無標(biāo)記的目標(biāo)域樣本打上偽標(biāo)簽,并利用帶有偽標(biāo)簽的目標(biāo)域樣本訓(xùn)練目標(biāo)分類器。該方法為直接優(yōu)化分類誤差提供了依據(jù),并適用于無監(jiān)督和弱監(jiān)督的場景。在無監(jiān)督的域自適應(yīng)領(lǐng)域中,該方法的性能可與最先進(jìn)的域自適應(yīng)方法相媲美。實(shí)驗(yàn)表明,它對(duì)無監(jiān)督域自適應(yīng)的困難任務(wù)仍表現(xiàn)的良好。(2)針對(duì)開放集域自適應(yīng)問題,本文在OSDA-BP算法的基礎(chǔ)上,對(duì)提取潛在未知樣本的二元交叉熵?fù)p失函數(shù)進(jìn)行了改進(jìn)。并提出用基于距離的對(duì)稱Kullback-Leibler損失函數(shù)來代替二元交叉熵?fù)p失函數(shù)。在Office-31數(shù)據(jù)庫上的實(shí)驗(yàn)表明:改進(jìn)的OSDA-BP方法能有效提升性能。(... 

【文章來源】:南京郵電大學(xué)江蘇省

【文章頁數(shù)】:67 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

深度遷移學(xué)習(xí)算法及其應(yīng)用研究


全連接神經(jīng)網(wǎng)絡(luò)

示意圖,卷積和,示意圖


是共享的,可以進(jìn)一步降低參數(shù)量,縮短網(wǎng)絡(luò)訓(xùn)練時(shí)間。一般用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)包括以下幾種基本操作運(yùn)算層:一、圖片輸入層,一般指輸入圖像為四維像素矩陣(batchsizeheightwidthchannel),當(dāng)輸入圖像是灰度圖像時(shí),通道數(shù)為1,當(dāng)輸入圖像是彩色圖像時(shí),通道數(shù)為3。在該層時(shí),一般會(huì)對(duì)圖像進(jìn)行一些裁剪、縮放、增強(qiáng)、歸一化等操作;二、卷積層,特征提取器的主要部分,保持圖像原有空間結(jié)構(gòu)信息不變的情況下,將輸入圖像矩陣或是前一層特征圖矩陣經(jīng)過卷積層中多組卷積核的卷積運(yùn)算轉(zhuǎn)化為下一層作為輸入的特征矩陣,如圖2.2所示,圖中的卷積核的尺寸大小為,數(shù)字3就是左上角像素矩陣和卷積核對(duì)應(yīng)相乘再相加得到的;池化降采樣層,主要有平均池化和最大池化兩種形式,具體如圖2.2右半部分所示。pooling層主要有以下三個(gè)圖2.2卷積和池化操作示意圖優(yōu)點(diǎn):一、增強(qiáng)了CNN對(duì)平移、旋轉(zhuǎn)、縮放等圖像變換的魯棒性;二、當(dāng)輸入的圖像尺寸更大時(shí),能夠有效降低中間特征圖的尺寸大小,進(jìn)一步降低網(wǎng)絡(luò)參數(shù)量。構(gòu)建更高層的網(wǎng)絡(luò)以學(xué)習(xí)圖像更高層的結(jié)構(gòu)特征;三、有效防止過擬合現(xiàn)象的產(chǎn)生(過擬合現(xiàn)象:訓(xùn)練集的準(zhǔn)確率上升,而測試集的準(zhǔn)確率反而下降,說明過度擬合了訓(xùn)練集中的無關(guān)細(xì)節(jié));四、全連接×××3×33×3

網(wǎng)絡(luò)模型,卷積


砘?窬??紓篖eNet-5網(wǎng)絡(luò)模型,被YannLeCun[22]等人于1998年提出,此項(xiàng)舉措正式拉開了深度學(xué)習(xí)發(fā)展的序幕,網(wǎng)絡(luò)模型如圖2.3所示,卷積層、池化層交替排布,后接全連接層的網(wǎng)絡(luò)結(jié)構(gòu)形式在卷積神經(jīng)網(wǎng)絡(luò)以后提出的網(wǎng)絡(luò)中占據(jù)主導(dǎo)地位。LeNet-5的輸入為32×32尺寸大小的MNIST數(shù)據(jù)集,經(jīng)過兩次卷積、池化運(yùn)算得到16通道的5×5的特征圖,即所在位置。完成卷積運(yùn)算后,再將16×5×5的特征矩陣展成一維矢量,輸入到后續(xù)的3個(gè)全連接層中,最后經(jīng)過Softmax層得到預(yù)測為數(shù)字0~9的概率值,并取概率最大的數(shù)字作為CNN最終的判別類別。圖2.3LeNet-5網(wǎng)絡(luò)模型2012年是卷積神經(jīng)網(wǎng)絡(luò)發(fā)展史上具有里程碑紀(jì)念意義的一年,AlexKrizhevsky提出了AlexNet神經(jīng)網(wǎng)絡(luò)模型[2],如圖2.4所示,并用它們贏得了當(dāng)年的ImageNet[23]大規(guī)模視覺識(shí)別挑戰(zhàn)賽(ImageNetLargeScaleVisualRecognitionCompetition,ILSVRC)的冠軍,把分類錯(cuò)誤率從26%降到15%,從那以后,許多公司的技術(shù)發(fā)展重心不斷向深度學(xué)習(xí)遷移。如Facebook的自動(dòng)標(biāo)記,谷歌的照片搜索,亞馬遜的產(chǎn)品推薦等等。AlexNet的提出在LeNet-5之后,是在Dropout、relu激活函數(shù)、GPU大數(shù)據(jù)的發(fā)展下提出來的,共有8層帶有學(xué)習(xí)參數(shù)得網(wǎng)絡(luò)層,5層卷積層,3層全連接層。實(shí)現(xiàn)了網(wǎng)絡(luò)的進(jìn)一步加深,要處理的數(shù)據(jù)集也從MNIST手寫體數(shù)據(jù)集變?yōu)镮mageNet百萬級(jí)數(shù)據(jù)集。ImageNet的圖像尺寸為256×256,AlexNet采用了平移、縮放、水平翻轉(zhuǎn)等方式來進(jìn)行數(shù)據(jù)增強(qiáng),處理后的圖像尺寸為224×224。為緩解梯度消失問題,加快網(wǎng)絡(luò)收斂,AlexNet采用ReLU作為激活函數(shù)并利用兩個(gè)GPU來并行訓(xùn)練網(wǎng)絡(luò)。同時(shí),AlexNet網(wǎng)絡(luò)模型在前兩個(gè)全連接層中S4<latexitsha1_base64="8eXj1raIe+IEBljVJUdfNpmf5Es=">AAACxXicjVHLTsJAFD3UF+ILdemmkZiwIgVJdEniQpf4QEiQ


本文編號(hào):3213115

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3213115.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶b85b4***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com