基于深度卷積神經(jīng)網(wǎng)絡(luò)的真實(shí)場(chǎng)景物體檢測(cè)算法研究
發(fā)布時(shí)間:2021-10-21 00:50
物體檢測(cè)技術(shù)旨在識(shí)別并定位圖像中的物體,是機(jī)器視覺領(lǐng)域中的一個(gè)核心研究問題,同時(shí)也是人工智能的一個(gè)重要組成部分,一直是學(xué)術(shù)界和工業(yè)界的重點(diǎn)研究課題之一。雖然經(jīng)過了幾十年的發(fā)展,目前的物體檢測(cè)算法大多僅是在實(shí)驗(yàn)室擺拍圖像上的檢測(cè)效果表現(xiàn)良好,但是在復(fù)雜世界的真實(shí)場(chǎng)景中,需要依賴有標(biāo)注信息的圖像來訓(xùn)練一個(gè)物體檢測(cè)網(wǎng)絡(luò),其檢測(cè)效果遠(yuǎn)遠(yuǎn)不能令人滿意。同時(shí),對(duì)于真實(shí)場(chǎng)景下的小物體(面積小于32*32像素)檢測(cè)問題,尚處于對(duì)特定問題設(shè)計(jì)特定算法的階段,對(duì)真實(shí)場(chǎng)景下復(fù)雜多變的工作環(huán)境的自適應(yīng)能力較差。針對(duì)上述問題,本文圍繞稀缺/稀疏訓(xùn)練數(shù)據(jù)驅(qū)動(dòng)下的物體檢測(cè)算法、小物體特征提取方法以及小物體檢測(cè)算法框架等方面展開研究,對(duì)如何提高物體檢測(cè)算法對(duì)環(huán)境的自適應(yīng)能力、靈活性以及如何提高物體檢測(cè)的準(zhǔn)確性提出了新的方法和建議,對(duì)物體檢測(cè)技術(shù)從實(shí)驗(yàn)室到實(shí)際應(yīng)用起到了一定的推動(dòng)作用。本文的主要研究?jī)?nèi)容概括如下:(1)針對(duì)已有基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體檢測(cè)算法都依賴大型數(shù)據(jù)集訓(xùn)練檢測(cè)網(wǎng)絡(luò)的問題,而構(gòu)建大型數(shù)據(jù)集是一個(gè)費(fèi)時(shí)耗力的巨型工程,提出了一種基于偽真值搜尋法的弱監(jiān)督物體檢測(cè)算法。其中,針對(duì)現(xiàn)存相關(guān)算法存在的定位不準(zhǔn)...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:154 頁
【學(xué)位級(jí)別】:博士
【部分圖文】:
物體檢測(cè)示意圖
哈爾濱工業(yè)大學(xué)工學(xué)博士學(xué)位論文-6-深層本質(zhì)特征,使得相關(guān)研究人員可以利用計(jì)算機(jī)更好地實(shí)現(xiàn)類似于人類的視覺感知能力。此外,相比于傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)具有兩大特點(diǎn):局部連接和權(quán)值共享。其中,局部連接是指在網(wǎng)絡(luò)特征層上的每個(gè)神經(jīng)元的輸入只與前一層的局部區(qū)域(局部感受野)相連接,而不是輸入圖像的全部區(qū)域。權(quán)值共享是指在每次提取特征時(shí),卷積核的參數(shù)是固定不變的。上述這兩個(gè)特征大大減少了網(wǎng)絡(luò)參數(shù)的數(shù)目,降低了網(wǎng)絡(luò)模型的復(fù)雜度,使得深度卷積神經(jīng)網(wǎng)絡(luò)更加類似于人類的神經(jīng)結(jié)構(gòu)。此外,深度卷積神經(jīng)網(wǎng)絡(luò)還引入了一些新的方法和概念。綜上所述,相對(duì)于傳統(tǒng)的多層神經(jīng)網(wǎng)絡(luò),深度卷積神經(jīng)網(wǎng)絡(luò)有如下特點(diǎn):(1)深度卷積神經(jīng)網(wǎng)絡(luò)在網(wǎng)絡(luò)中加入了特征學(xué)習(xí)的能力,輸入是信號(hào)/圖像,而傳統(tǒng)多層神經(jīng)網(wǎng)絡(luò)輸入的是手工特征。(2)深度卷積神經(jīng)網(wǎng)絡(luò)引入了“局部感受野”和“權(quán)值共享”的概念,極大地減少了網(wǎng)絡(luò)參數(shù)的數(shù)量。(3)深度卷積神經(jīng)網(wǎng)絡(luò)引入了新的激活函數(shù)、損失函數(shù)和過擬合方法等等,解決了網(wǎng)絡(luò)層數(shù)過多時(shí)存在的梯度消失的問題。(4)深度卷積神經(jīng)網(wǎng)絡(luò)采用了新的layer-wise訓(xùn)練機(jī)制,提出了逐層初始化的方法,而不是傳統(tǒng)多層神經(jīng)網(wǎng)絡(luò)中的隨機(jī)初始化方式。圖1-2人工神經(jīng)網(wǎng)絡(luò)與人類大腦神經(jīng)元的類比Fig.1-2Ananalogybetweenartificialneuralnetworksandhumanneurons
第1章緒論-7-深度卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)包含多個(gè)中間層的神經(jīng)網(wǎng)絡(luò),其中每個(gè)中間層由多個(gè)并行的特征平面組成,而每個(gè)特征平面中又包含若干個(gè)獨(dú)立的神經(jīng)元。如圖1-3所示,I表示輸入的圖像數(shù)據(jù),C為基于卷積操作的特征提取層(又叫卷積層),S是特征映射層(又稱之為池化層),期間提取的特征用N個(gè)全連接層相連接,O為網(wǎng)絡(luò)最終的輸出結(jié)果。其中,深度卷積的數(shù)學(xué)定義為:(,)()(,)(,)(,)mnSijI*KijIimjnKmn(1-1)其物體意義為以尺寸為(m,n)的卷積核K在輸入圖像I滑動(dòng)計(jì)算卷積值。圖1-3深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1-3Architectureofthedeepconvolutionalneuralnetwork深度卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程如圖1-4所示,包括前向傳播過程和反向傳播過程。輸入圖像數(shù)據(jù)通過輸入層傳入到卷積神經(jīng)網(wǎng)絡(luò)中,經(jīng)過中間層的非線性擬合關(guān)系的處理后,輸出最終結(jié)果的這個(gè)過程稱之為前向傳播過程。每次前向傳播迭代完成后,需要計(jì)算輸出結(jié)果與真值之間的偏差,如果偏差大于一定的閾值,需要對(duì)網(wǎng)絡(luò)參數(shù)的權(quán)值做進(jìn)一步地調(diào)整,這一過程叫做反向傳播過程。假設(shè)輸入數(shù)據(jù)為12{,,...,}inPppp,對(duì)應(yīng)的輸出真值為12{,,...,}inYyyy,訓(xùn)練過程中深度卷積神經(jīng)網(wǎng)路的輸出()ihp(其中h為深度卷積神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模型)可以盡量逼近真值iy,為此,需要定義一個(gè)損失函數(shù)(目標(biāo)函數(shù)):1()(())niiiJxLhpy(1-2)其中,L()是損失函數(shù)的具體類型。訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)的過程就是求取網(wǎng)絡(luò)參數(shù)x最優(yōu)解的過程,而梯度下降法(GradientDescent)是無約束最優(yōu)化問題求解最常用的一種方法,計(jì)算過程為每次迭代時(shí)都求解損失函數(shù)梯度方向,然后沿著梯度的反方向使得損失函數(shù)J(x)達(dá)到最小值點(diǎn),其數(shù)學(xué)表達(dá)式為:min()nxRJx(1-3)梯度下降算法本質(zhì)是一種迭代方法,
本文編號(hào):3447920
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:154 頁
【學(xué)位級(jí)別】:博士
【部分圖文】:
物體檢測(cè)示意圖
哈爾濱工業(yè)大學(xué)工學(xué)博士學(xué)位論文-6-深層本質(zhì)特征,使得相關(guān)研究人員可以利用計(jì)算機(jī)更好地實(shí)現(xiàn)類似于人類的視覺感知能力。此外,相比于傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)具有兩大特點(diǎn):局部連接和權(quán)值共享。其中,局部連接是指在網(wǎng)絡(luò)特征層上的每個(gè)神經(jīng)元的輸入只與前一層的局部區(qū)域(局部感受野)相連接,而不是輸入圖像的全部區(qū)域。權(quán)值共享是指在每次提取特征時(shí),卷積核的參數(shù)是固定不變的。上述這兩個(gè)特征大大減少了網(wǎng)絡(luò)參數(shù)的數(shù)目,降低了網(wǎng)絡(luò)模型的復(fù)雜度,使得深度卷積神經(jīng)網(wǎng)絡(luò)更加類似于人類的神經(jīng)結(jié)構(gòu)。此外,深度卷積神經(jīng)網(wǎng)絡(luò)還引入了一些新的方法和概念。綜上所述,相對(duì)于傳統(tǒng)的多層神經(jīng)網(wǎng)絡(luò),深度卷積神經(jīng)網(wǎng)絡(luò)有如下特點(diǎn):(1)深度卷積神經(jīng)網(wǎng)絡(luò)在網(wǎng)絡(luò)中加入了特征學(xué)習(xí)的能力,輸入是信號(hào)/圖像,而傳統(tǒng)多層神經(jīng)網(wǎng)絡(luò)輸入的是手工特征。(2)深度卷積神經(jīng)網(wǎng)絡(luò)引入了“局部感受野”和“權(quán)值共享”的概念,極大地減少了網(wǎng)絡(luò)參數(shù)的數(shù)量。(3)深度卷積神經(jīng)網(wǎng)絡(luò)引入了新的激活函數(shù)、損失函數(shù)和過擬合方法等等,解決了網(wǎng)絡(luò)層數(shù)過多時(shí)存在的梯度消失的問題。(4)深度卷積神經(jīng)網(wǎng)絡(luò)采用了新的layer-wise訓(xùn)練機(jī)制,提出了逐層初始化的方法,而不是傳統(tǒng)多層神經(jīng)網(wǎng)絡(luò)中的隨機(jī)初始化方式。圖1-2人工神經(jīng)網(wǎng)絡(luò)與人類大腦神經(jīng)元的類比Fig.1-2Ananalogybetweenartificialneuralnetworksandhumanneurons
第1章緒論-7-深度卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)包含多個(gè)中間層的神經(jīng)網(wǎng)絡(luò),其中每個(gè)中間層由多個(gè)并行的特征平面組成,而每個(gè)特征平面中又包含若干個(gè)獨(dú)立的神經(jīng)元。如圖1-3所示,I表示輸入的圖像數(shù)據(jù),C為基于卷積操作的特征提取層(又叫卷積層),S是特征映射層(又稱之為池化層),期間提取的特征用N個(gè)全連接層相連接,O為網(wǎng)絡(luò)最終的輸出結(jié)果。其中,深度卷積的數(shù)學(xué)定義為:(,)()(,)(,)(,)mnSijI*KijIimjnKmn(1-1)其物體意義為以尺寸為(m,n)的卷積核K在輸入圖像I滑動(dòng)計(jì)算卷積值。圖1-3深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1-3Architectureofthedeepconvolutionalneuralnetwork深度卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程如圖1-4所示,包括前向傳播過程和反向傳播過程。輸入圖像數(shù)據(jù)通過輸入層傳入到卷積神經(jīng)網(wǎng)絡(luò)中,經(jīng)過中間層的非線性擬合關(guān)系的處理后,輸出最終結(jié)果的這個(gè)過程稱之為前向傳播過程。每次前向傳播迭代完成后,需要計(jì)算輸出結(jié)果與真值之間的偏差,如果偏差大于一定的閾值,需要對(duì)網(wǎng)絡(luò)參數(shù)的權(quán)值做進(jìn)一步地調(diào)整,這一過程叫做反向傳播過程。假設(shè)輸入數(shù)據(jù)為12{,,...,}inPppp,對(duì)應(yīng)的輸出真值為12{,,...,}inYyyy,訓(xùn)練過程中深度卷積神經(jīng)網(wǎng)路的輸出()ihp(其中h為深度卷積神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模型)可以盡量逼近真值iy,為此,需要定義一個(gè)損失函數(shù)(目標(biāo)函數(shù)):1()(())niiiJxLhpy(1-2)其中,L()是損失函數(shù)的具體類型。訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)的過程就是求取網(wǎng)絡(luò)參數(shù)x最優(yōu)解的過程,而梯度下降法(GradientDescent)是無約束最優(yōu)化問題求解最常用的一種方法,計(jì)算過程為每次迭代時(shí)都求解損失函數(shù)梯度方向,然后沿著梯度的反方向使得損失函數(shù)J(x)達(dá)到最小值點(diǎn),其數(shù)學(xué)表達(dá)式為:min()nxRJx(1-3)梯度下降算法本質(zhì)是一種迭代方法,
本文編號(hào):3447920
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3447920.html
最近更新
教材專著