天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 碩博論文 > 信息類博士論文 >

深度視覺對(duì)抗技術(shù)研究

發(fā)布時(shí)間:2021-08-19 10:02
  隨著深度學(xué)習(xí)的飛速發(fā)展,社會(huì)上基于深度學(xué)習(xí)的應(yīng)用越來越普遍,尤其是計(jì)算機(jī)視覺領(lǐng)域,誕生了如自動(dòng)駕駛、人臉識(shí)別、圖像內(nèi)容審核等產(chǎn)品。然而近年來視覺對(duì)抗技術(shù)逐漸興起,以圖像對(duì)抗樣本為代表的對(duì)抗模型行為和以深度偽造為代表的對(duì)抗人眼行為,給深度學(xué)習(xí)在視覺領(lǐng)域的發(fā)展造成了巨大的安全威脅。視覺對(duì)抗行為的存在讓人們不再相信模型的決策,也對(duì)深度學(xué)習(xí)的應(yīng)用產(chǎn)生了巨大的質(zhì)疑。因此,對(duì)視覺對(duì)抗行為的深入研究有著重要的科學(xué)意義和社會(huì)價(jià)值。現(xiàn)有關(guān)于視覺對(duì)抗技術(shù)的研究還存在如攻擊生成算法不夠高效、對(duì)抗檢測算法泛化性和魯棒性差等諸多問題。本文針對(duì)這些問題對(duì)視覺對(duì)抗技術(shù)展開了全面研究。首先對(duì)圖像對(duì)抗樣本的生成和檢測技術(shù)進(jìn)行了調(diào)研總結(jié),并對(duì)深度偽造人臉對(duì)抗技術(shù)進(jìn)行了概括。然后本文以對(duì)抗樣本為研究背景,研究如何高效地生成針對(duì)云平臺(tái)圖像應(yīng)用的對(duì)抗樣本,研究如何實(shí)現(xiàn)泛化性更好的對(duì)抗樣本檢測算法,研究泛化性好的深度偽造人臉檢測算法以及如何應(yīng)用對(duì)抗樣本技術(shù)提升檢測算法的魯棒性。本文的研究內(nèi)容和貢獻(xiàn)如下:第一部分總結(jié)了視覺對(duì)抗技術(shù)的相關(guān)發(fā)展。首先對(duì)圖像對(duì)抗樣本技術(shù)的生成和檢測算法進(jìn)行綜述,然后對(duì)深度偽造人臉對(duì)抗技術(shù)進(jìn)行了介紹和對(duì)比... 

【文章來源】:浙江大學(xué)浙江省 211工程院校 985工程院校 教育部直屬院校

【文章頁數(shù)】:120 頁

【學(xué)位級(jí)別】:博士

【部分圖文】:

深度視覺對(duì)抗技術(shù)研究


圖1-2深度偽造換臉示例圖??

結(jié)構(gòu)圖,神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)圖,卷積


浙,江大學(xué)博士學(xué)位論文?2視覺對(duì)抗相關(guān)技術(shù)研究基礎(chǔ)??輸入?Layer?1?Layer2?Layer?L?Output??'顏::i::::??魯入慕?遽贏屬輸出屬??圖2-1深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??2.1.2卷積神經(jīng)網(wǎng)絡(luò)??卷積神經(jīng)網(wǎng)絡(luò)(Convolutional?Neural?Networks,?CNN)是加入了卷積計(jì)算的神經(jīng)網(wǎng)絡(luò),??在深度神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上加入了卷積層和池化層進(jìn)行提取特征。卷積神經(jīng)網(wǎng)絡(luò)的輸入是圖像??的三維結(jié)構(gòu):高度、寬度、通道(RGB),通過使用比輸入小得多的卷積梭來對(duì)圖像進(jìn)行局??部區(qū)域掃描式的卷積計(jì)算,這樣可以減少大量的參數(shù),實(shí)現(xiàn)稀疏連接。此外卷積神經(jīng)網(wǎng)絡(luò)??可以進(jìn)行參數(shù)共享,在每一層進(jìn)行卷積計(jì)算時(shí),與上一層之間計(jì)算的卷積核參數(shù)是相同的。??1998年Lecun等人[44#1首次將提出卷積神經(jīng)網(wǎng)絡(luò)LeNet-5運(yùn)用于手寫字體識(shí)別,取得了重??大成功,其網(wǎng)絡(luò)結(jié)構(gòu)如圖2-2所示,分別包含了卷積層、池化層、全連接層,這是卷積神經(jīng)??網(wǎng)絡(luò)在商業(yè)領(lǐng)域第一次成功運(yùn)用,引起了大家對(duì)卷積神經(jīng)網(wǎng)絡(luò)的極大關(guān)注。??2012年Hinton等人憑借卷積神經(jīng)網(wǎng)絡(luò)AlexNet[4]取得ImageNet圖像分類竟賽的冠軍,??大大超過了傳統(tǒng)模型方法。以此為起點(diǎn),研究者朝著網(wǎng)絡(luò)加深的方向研究出了?VGGnet[99],??沿著提高卷積模塊性能開發(fā)了?InCeptionNet[lfl(WQ3]。然而網(wǎng)絡(luò)深度的增加又會(huì)引起梯度消失、??網(wǎng)絡(luò)遐化等問題,基于殘差結(jié)構(gòu)設(shè)計(jì)的ResNet網(wǎng)絡(luò)被提出。這些經(jīng)典網(wǎng)絡(luò)和技術(shù)的提??出,讓人們很容易訓(xùn)練越來越深的網(wǎng)絡(luò),在諸多圖像視覺任務(wù)遠(yuǎn)遠(yuǎn)超過了人類本身,將以??神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的

結(jié)構(gòu)圖,自動(dòng)編碼,結(jié)構(gòu)圖,編碼器


?2視覺對(duì)餌相關(guān)技本研禽基礎(chǔ)??16@10xl0?16@5x5??6@28x28?6@14xl4r?1x84??Max-Pool?Convolution?Max-Pool?Dense??圖_2-2?LeNet網(wǎng)絡(luò)結(jié)構(gòu)圖??2.1.3自編碼器??自動(dòng)編碼器是一個(gè)能夠通過訓(xùn)練神經(jīng)網(wǎng)絡(luò)使得輸出與輸^入相等的模型結(jié)構(gòu)圖2-3所??不。??x?| ̄ ̄^?\J^ ̄ ̄h?| ̄ ̄^?L^J ̄ ̄^?|?j??圖2-3自動(dòng)編碼器結(jié)構(gòu)圖??假設(shè)隱藏層&可以對(duì)輸入進(jìn)行編碼,則網(wǎng)絡(luò)由兩部分組成,一部分是編碼器函數(shù)??h?=?f(<r)?(2-6)??另一部分是解碼器函數(shù)對(duì)編碼進(jìn)行重構(gòu),??x?=?g{h)?(2-7)??隱藏層的雄度通常遠(yuǎn)低于輸入層,網(wǎng)絡(luò)優(yōu)化目標(biāo)是??f,g?=?argmin?L(x,g{f{x)))?(2-8)??其中,以.)是衡量怎和g(/(a;))相似度的懲罰函數(shù),9如果r和v(/(or))在任何時(shí)候都相等,??這樣的自編碼器是無意義的但是實(shí)際上會(huì)通過一些限制,讓網(wǎng)絡(luò)輸出與輸入近似相等,學(xué)??14??


本文編號(hào):3351204

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/3351204.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶70865***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com