基于多任務(wù)學(xué)習(xí)的人臉屬性聯(lián)合估計方法研究
發(fā)布時間:2021-11-19 01:47
近年來,互聯(lián)網(wǎng)及其相關(guān)產(chǎn)業(yè)發(fā)展迅速,整個社會已經(jīng)進(jìn)入了大數(shù)據(jù)時代。從互聯(lián)網(wǎng)上獲取各種人臉相關(guān)的圖像和視頻數(shù)據(jù)正變得前所未有地方便。人的面部圖像包含了豐富的個人信息,包括性別、種族、年齡、表情等個人屬性。人臉圖像的這一性質(zhì),使其在諸如安防、娛樂以及社交領(lǐng)域具有極其廣泛的潛在應(yīng)用。另一方面,計算能力的飛速發(fā)展也使得深度學(xué)習(xí)成為最近十年來的熱門研究方向。基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)在各種計算機(jī)視覺任務(wù)中,都表現(xiàn)出了遠(yuǎn)超傳統(tǒng)圖像處理方法的性能。而多任務(wù)學(xué)習(xí)在深度學(xué)習(xí)的發(fā)展中,也有著非常重要的地位。因此,研究基于多任務(wù)學(xué)習(xí)的人臉屬性聯(lián)合估計是具有極大的學(xué)術(shù)價值和應(yīng)用價值的。本文的具體工作如下:首先,本文從傳統(tǒng)的基于手工提取特征的方法和基于深度學(xué)習(xí)的方法入手,對人臉屬性估計和多任務(wù)學(xué)習(xí)領(lǐng)域的研究現(xiàn)狀進(jìn)行了深入分析,然后分析比較了在人臉屬性估計這一特定的任務(wù)背景下,單任務(wù)學(xué)習(xí)和多任務(wù)學(xué)習(xí)的不同。其次,本文提出了一種改良的多任務(wù)學(xué)習(xí)網(wǎng)絡(luò),稱為有限共享多任務(wù)網(wǎng)絡(luò),解決了目前的多任務(wù)學(xué)習(xí)網(wǎng)絡(luò)存在的信息流動問題。傳統(tǒng)的多任務(wù)學(xué)習(xí)網(wǎng)絡(luò)采取的是淺層網(wǎng)絡(luò)共享,高層網(wǎng)絡(luò)分支的結(jié)構(gòu),其想法是利用淺層網(wǎng)絡(luò)提取出低級的共享...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:79 頁
【學(xué)位級別】:碩士
【部分圖文】:
基于傳統(tǒng)方法的人臉屬性估計方法流程
第二章卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)及多任務(wù)人臉屬性估計相關(guān)方法7第二章卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)及多任務(wù)人臉屬性估計相關(guān)方法2.1引言從1989年LeCun提出第一個真正意義上的卷積神經(jīng)網(wǎng)絡(luò)到今天為止,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)走過了29個年頭。而自2012年AlexNet網(wǎng)絡(luò)出現(xiàn)之后,卷積神經(jīng)網(wǎng)絡(luò)得到了急速發(fā)展,在很多問題上取得了當(dāng)前最好的結(jié)果,是各種深度學(xué)習(xí)技術(shù)中用途最廣泛的一種,也是人臉屬性估計最常用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。本章首先介紹卷積神經(jīng)網(wǎng)絡(luò)的基本概念和基本結(jié)構(gòu),然后從數(shù)據(jù)集、數(shù)據(jù)處理方法、損失函數(shù)和評價指標(biāo)幾方面介紹人臉屬性估計的研究基礎(chǔ),最后詳細(xì)介紹了多任務(wù)學(xué)習(xí)的一般概念和常用方法。2.2卷積神經(jīng)網(wǎng)絡(luò)基本概念本節(jié)主要介紹卷積神經(jīng)網(wǎng)絡(luò)的基本概念,包括卷積、激活函數(shù)、池化以及多種批歸一化方法等,并在本節(jié)最后對當(dāng)下常用的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行了一個簡要的梳理。2.2.1卷積層卷積層是卷積神經(jīng)網(wǎng)絡(luò)最基本的組成單元之一,在網(wǎng)絡(luò)中往往也消耗了最多的計算資源。卷積層由卷積核組成,常用于圖像特征的提齲卷積實際上是一個加權(quán)求和的線性操作,還有可能包括對輸入圖像的邊緣用0進(jìn)行填充等過程。具體地,卷積核按照設(shè)定的stride(步長)在輸入的特征圖上平行滑動,依次與圖上對應(yīng)位置的像素點相乘再相加得到這一次卷積的結(jié)果,所有的像素點組成了這一個卷積核輸出的特征圖。圖2-1所示為一個簡單的卷積示意圖,圖中輸入特征圖的尺寸為5×5,卷積核的尺寸為3×3。圖2-1卷積示意圖
第二章卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)及多任務(wù)人臉屬性估計相關(guān)方法11通過約束每一層網(wǎng)絡(luò)輸出的分布,間接地提升了網(wǎng)絡(luò)的泛化能力。因此可以拋棄傳統(tǒng)的增加泛化性能的方法,如L2正則化和dropout等。鑒于BN如此優(yōu)越的表現(xiàn),越來越多的研究者都在其網(wǎng)絡(luò)中加上了BN層,BN算法的優(yōu)勢也在眾多不同的網(wǎng)絡(luò)模型中得到了驗證。2.2.4常用激活函數(shù)激活函數(shù)層在卷積神經(jīng)網(wǎng)絡(luò)中有著獨一無二的作用:提供非線性。無論是卷積層,池化層還是全連接層,都是線性變換,在面對較為復(fù)雜的問題時擬合能力稍顯不足,激活函數(shù)提供的非線性極大地提高了網(wǎng)絡(luò)的擬合能力。常用的激活函數(shù)包括Sigmoid函數(shù),tanh函數(shù),ReLU函數(shù)以及對應(yīng)的變種,如LeakyReLU以及PRLeLU等。Sigmoid函數(shù)的表達(dá)式如下:1()1xfxe(2-2)Sigmoid函數(shù)的導(dǎo)數(shù)為:"f(x)f(x)(1f(x))(2-3)可以看到,Sigmoid函數(shù)的導(dǎo)數(shù)非常容易計算,僅用函數(shù)值就可以得到導(dǎo)數(shù)的值。Sigmoid函數(shù)及其導(dǎo)數(shù)的圖像如圖2-2所示:圖2-2Sigmoid及其導(dǎo)數(shù)的函數(shù)圖像
本文編號:3504039
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:79 頁
【學(xué)位級別】:碩士
【部分圖文】:
基于傳統(tǒng)方法的人臉屬性估計方法流程
第二章卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)及多任務(wù)人臉屬性估計相關(guān)方法7第二章卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)及多任務(wù)人臉屬性估計相關(guān)方法2.1引言從1989年LeCun提出第一個真正意義上的卷積神經(jīng)網(wǎng)絡(luò)到今天為止,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)走過了29個年頭。而自2012年AlexNet網(wǎng)絡(luò)出現(xiàn)之后,卷積神經(jīng)網(wǎng)絡(luò)得到了急速發(fā)展,在很多問題上取得了當(dāng)前最好的結(jié)果,是各種深度學(xué)習(xí)技術(shù)中用途最廣泛的一種,也是人臉屬性估計最常用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。本章首先介紹卷積神經(jīng)網(wǎng)絡(luò)的基本概念和基本結(jié)構(gòu),然后從數(shù)據(jù)集、數(shù)據(jù)處理方法、損失函數(shù)和評價指標(biāo)幾方面介紹人臉屬性估計的研究基礎(chǔ),最后詳細(xì)介紹了多任務(wù)學(xué)習(xí)的一般概念和常用方法。2.2卷積神經(jīng)網(wǎng)絡(luò)基本概念本節(jié)主要介紹卷積神經(jīng)網(wǎng)絡(luò)的基本概念,包括卷積、激活函數(shù)、池化以及多種批歸一化方法等,并在本節(jié)最后對當(dāng)下常用的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行了一個簡要的梳理。2.2.1卷積層卷積層是卷積神經(jīng)網(wǎng)絡(luò)最基本的組成單元之一,在網(wǎng)絡(luò)中往往也消耗了最多的計算資源。卷積層由卷積核組成,常用于圖像特征的提齲卷積實際上是一個加權(quán)求和的線性操作,還有可能包括對輸入圖像的邊緣用0進(jìn)行填充等過程。具體地,卷積核按照設(shè)定的stride(步長)在輸入的特征圖上平行滑動,依次與圖上對應(yīng)位置的像素點相乘再相加得到這一次卷積的結(jié)果,所有的像素點組成了這一個卷積核輸出的特征圖。圖2-1所示為一個簡單的卷積示意圖,圖中輸入特征圖的尺寸為5×5,卷積核的尺寸為3×3。圖2-1卷積示意圖
第二章卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)及多任務(wù)人臉屬性估計相關(guān)方法11通過約束每一層網(wǎng)絡(luò)輸出的分布,間接地提升了網(wǎng)絡(luò)的泛化能力。因此可以拋棄傳統(tǒng)的增加泛化性能的方法,如L2正則化和dropout等。鑒于BN如此優(yōu)越的表現(xiàn),越來越多的研究者都在其網(wǎng)絡(luò)中加上了BN層,BN算法的優(yōu)勢也在眾多不同的網(wǎng)絡(luò)模型中得到了驗證。2.2.4常用激活函數(shù)激活函數(shù)層在卷積神經(jīng)網(wǎng)絡(luò)中有著獨一無二的作用:提供非線性。無論是卷積層,池化層還是全連接層,都是線性變換,在面對較為復(fù)雜的問題時擬合能力稍顯不足,激活函數(shù)提供的非線性極大地提高了網(wǎng)絡(luò)的擬合能力。常用的激活函數(shù)包括Sigmoid函數(shù),tanh函數(shù),ReLU函數(shù)以及對應(yīng)的變種,如LeakyReLU以及PRLeLU等。Sigmoid函數(shù)的表達(dá)式如下:1()1xfxe(2-2)Sigmoid函數(shù)的導(dǎo)數(shù)為:"f(x)f(x)(1f(x))(2-3)可以看到,Sigmoid函數(shù)的導(dǎo)數(shù)非常容易計算,僅用函數(shù)值就可以得到導(dǎo)數(shù)的值。Sigmoid函數(shù)及其導(dǎo)數(shù)的圖像如圖2-2所示:圖2-2Sigmoid及其導(dǎo)數(shù)的函數(shù)圖像
本文編號:3504039
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3504039.html
最近更新
教材專著