基于深度神經(jīng)網(wǎng)絡(luò)的圖像隱藏算法研究
發(fā)布時(shí)間:2021-12-23 13:24
隨著計(jì)算機(jī)網(wǎng)絡(luò)技術(shù)的廣泛普及和快速發(fā)展,信息的傳送、交流、共享大部分通過(guò)網(wǎng)絡(luò)通信來(lái)實(shí)現(xiàn),大量秘密信息通過(guò)網(wǎng)絡(luò)進(jìn)行傳輸,這給人們的生活工作帶來(lái)方便的同時(shí)也帶來(lái)了安全性風(fēng)險(xiǎn)。信息隱藏算法能夠保證秘密信息在不被第三方察覺(jué)的情況下進(jìn)行傳輸,提高了網(wǎng)絡(luò)通信的安全性,因而受到國(guó)內(nèi)外研究者的廣泛關(guān)注。信息隱藏的載體有多種如文本、音頻、視頻、圖像等,本文選用圖像作為信息隱藏算法的載體即圖像信息隱藏。傳統(tǒng)的圖像信息隱藏算法所生成的載密圖像、恢復(fù)的秘密圖像與原始的載體圖像、秘密圖像差距較大,且不能根據(jù)隱寫(xiě)分析算法進(jìn)行調(diào)整,因而存在有許多局限性。本文針對(duì)這些問(wèn)題對(duì)基于深度神經(jīng)網(wǎng)絡(luò)的圖像信息隱藏進(jìn)行了研究,主要工作和研究成果包括:(1)提出了一種基于殘差網(wǎng)絡(luò)的圖像隱藏算法。該算法參考了前人基于自動(dòng)編碼器的圖像信息隱藏算法,設(shè)計(jì)了新的基于殘差網(wǎng)絡(luò)的模型結(jié)構(gòu),將載體圖像通過(guò)shortcut(快速通道)跳過(guò)特征提取層發(fā)送到載密圖像之中,使載密圖像在生成的過(guò)程中有載體圖像作為藍(lán)本,提高了算法的透明性。由仿真實(shí)驗(yàn)分析可知,算法在生成高質(zhì)量的載密圖像同時(shí),能抵抗住經(jīng)典的隱寫(xiě)分析工具的攻擊,滿足優(yōu)秀的圖像信息隱藏算法的要求...
【文章來(lái)源】:南昌大學(xué)江西省 211工程院校
【文章頁(yè)數(shù)】:61 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.?1模型深度對(duì)算法在訓(xùn)練集和測(cè)試集上準(zhǔn)確率的影響??
^(1111丨1:滅231;丨1;011)和批量歸一化(1331(:11]\1〇0111^^011)[271解決/_,使得訓(xùn)??練深層網(wǎng)絡(luò)變得可能。但是當(dāng)網(wǎng)絡(luò)的深度加深時(shí),卻帶來(lái)了另外的問(wèn)題,就是網(wǎng)??絡(luò)性能的退化問(wèn)題,網(wǎng)絡(luò)的深度加深了,錯(cuò)誤率卻上升了。下圖[31]是模型深度對(duì)??于算法在訓(xùn)練集和測(cè)試集上準(zhǔn)確率的影響:??lv?E--?20-laycr??c?、’■?一、56*lajer?2??-?2()-laycr???。悖颍?(Ic4)?iter.?(Ic4)??圖2.?1模型深度對(duì)算法在訓(xùn)練集和測(cè)試集上準(zhǔn)確率的影響??為解決上面所提出來(lái)得神經(jīng)網(wǎng)絡(luò)得深度增加了,神經(jīng)網(wǎng)絡(luò)的性能卻降低了的問(wèn)題。??ResNet[31]的作者提出了一種“短路”(short?connections)的模型來(lái)幫助神經(jīng)網(wǎng)絡(luò)的??擬合。殘差網(wǎng)絡(luò)最初的設(shè)想是深層網(wǎng)絡(luò)的表達(dá)能力不應(yīng)該比淺層網(wǎng)絡(luò)的表達(dá)能力??差,因?yàn)閷?duì)于深層網(wǎng)絡(luò)來(lái)說(shuō),它只需要將比淺層網(wǎng)絡(luò)所多出來(lái)的那些層全部用來(lái)??做恒等映射就行了。從完成恒等映射這一功能來(lái)說(shuō),可以將網(wǎng)絡(luò)設(shè)計(jì)成為??//(x)?=?F(;c)?+?x的結(jié)構(gòu),這樣既完成了學(xué)習(xí)的功能,又實(shí)現(xiàn)了恒等映射。F(x)?+?x??閑數(shù)可以迪過(guò)具行short?connection的神經(jīng)網(wǎng)絡(luò)來(lái)卜實(shí)現(xiàn)如F圖:??X-.^N??weight?layer?\??F{x)?jrelu?"?x??—hjlaYer?1?J?identity??J(x)?+?x??圖2.?2殘差網(wǎng)絡(luò)基礎(chǔ)模塊??2.3.4稠密網(wǎng)絡(luò)??隨著網(wǎng)絡(luò)結(jié)構(gòu)越來(lái)越深,神經(jīng)網(wǎng)絡(luò)逐漸出現(xiàn)梯度消失等W題,為了解決這拽??13??
征值能夠被更好的利用,從而讓網(wǎng)絡(luò)更淺。??稠密網(wǎng)絡(luò)有以下幾個(gè)優(yōu)點(diǎn):??1.緩解了梯度消失的問(wèn)題。??2.加強(qiáng)了特征的傳播。??3.鼓勵(lì)了特征的重用。??4.減少了參數(shù)的數(shù)量。??稠密網(wǎng)絡(luò)的模型結(jié)構(gòu)如下圖所示:??Input?????????T"?n?門(mén)門(mén)?門(mén)門(mén)?n?門(mén)?Prediction??g?Dense?Block?1?p???Dense?Block?2?〇?Dense?Block?3?^????"I"?*。觯。?H..'加說(shuō)―??圖2.?3稠密網(wǎng)絡(luò)模型結(jié)構(gòu)??DenseBlock為DenseNet最核心的部分,其采用了一種被稱為稠密連接的模??式,使每一層都能夠直接連接到它接下來(lái)的所有層,因此第/層也就接收到它前??面/-I層的所有特征向量。其思想可以由下式所表示:??(2.5)??其中[1。,;^,...,;^]代指0到/-I層的所有特征向量。{也就是第/層的輸出。??//;指代為三個(gè)連續(xù)的操作:批量歸一化、ReLU激活函數(shù)、以及一個(gè)3x3大小的??卷積。由于特征向量的大小不同時(shí)公式中使用的串聯(lián)操作是不可行的。所以在??DenseBlock中不會(huì)使用池化操作,而是在三個(gè)DenseBlock之中添加transition??layers來(lái)實(shí)現(xiàn)池化操作,同時(shí)在transition?layers中還包含有lx丨的卷積來(lái)實(shí)現(xiàn)特??征向量的降維。??在一般的L層卷積網(wǎng)絡(luò)中,一共有L個(gè)連接,但是DenseNet通過(guò)稠密連接??的方式使得連接達(dá)到了^^個(gè)連接。將每一層中的特征向量進(jìn)行了高效的重??用,從而產(chǎn)生了易于訓(xùn)練并且參數(shù)高度有效的網(wǎng)絡(luò)模型。??14??
【參考文獻(xiàn)】:
碩士論文
[1]基于深度學(xué)習(xí)的圖像隱寫(xiě)分析算法研究[D]. 張震.北京交通大學(xué) 2019
[2]基于深度學(xué)習(xí)的圖像信息隱藏方法研究[D]. 任科.大連理工大學(xué) 2019
[3]基于生成對(duì)抗網(wǎng)絡(luò)的圖像信息隱藏研究[D]. 董士琪.北京郵電大學(xué) 2019
本文編號(hào):3548560
【文章來(lái)源】:南昌大學(xué)江西省 211工程院校
【文章頁(yè)數(shù)】:61 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.?1模型深度對(duì)算法在訓(xùn)練集和測(cè)試集上準(zhǔn)確率的影響??
^(1111丨1:滅231;丨1;011)和批量歸一化(1331(:11]\1〇0111^^011)[271解決/_,使得訓(xùn)??練深層網(wǎng)絡(luò)變得可能。但是當(dāng)網(wǎng)絡(luò)的深度加深時(shí),卻帶來(lái)了另外的問(wèn)題,就是網(wǎng)??絡(luò)性能的退化問(wèn)題,網(wǎng)絡(luò)的深度加深了,錯(cuò)誤率卻上升了。下圖[31]是模型深度對(duì)??于算法在訓(xùn)練集和測(cè)試集上準(zhǔn)確率的影響:??lv?E--?20-laycr??c?、’■?一、56*lajer?2??-?2()-laycr???。悖颍?(Ic4)?iter.?(Ic4)??圖2.?1模型深度對(duì)算法在訓(xùn)練集和測(cè)試集上準(zhǔn)確率的影響??為解決上面所提出來(lái)得神經(jīng)網(wǎng)絡(luò)得深度增加了,神經(jīng)網(wǎng)絡(luò)的性能卻降低了的問(wèn)題。??ResNet[31]的作者提出了一種“短路”(short?connections)的模型來(lái)幫助神經(jīng)網(wǎng)絡(luò)的??擬合。殘差網(wǎng)絡(luò)最初的設(shè)想是深層網(wǎng)絡(luò)的表達(dá)能力不應(yīng)該比淺層網(wǎng)絡(luò)的表達(dá)能力??差,因?yàn)閷?duì)于深層網(wǎng)絡(luò)來(lái)說(shuō),它只需要將比淺層網(wǎng)絡(luò)所多出來(lái)的那些層全部用來(lái)??做恒等映射就行了。從完成恒等映射這一功能來(lái)說(shuō),可以將網(wǎng)絡(luò)設(shè)計(jì)成為??//(x)?=?F(;c)?+?x的結(jié)構(gòu),這樣既完成了學(xué)習(xí)的功能,又實(shí)現(xiàn)了恒等映射。F(x)?+?x??閑數(shù)可以迪過(guò)具行short?connection的神經(jīng)網(wǎng)絡(luò)來(lái)卜實(shí)現(xiàn)如F圖:??X-.^N??weight?layer?\??F{x)?jrelu?"?x??—hjlaYer?1?J?identity??J(x)?+?x??圖2.?2殘差網(wǎng)絡(luò)基礎(chǔ)模塊??2.3.4稠密網(wǎng)絡(luò)??隨著網(wǎng)絡(luò)結(jié)構(gòu)越來(lái)越深,神經(jīng)網(wǎng)絡(luò)逐漸出現(xiàn)梯度消失等W題,為了解決這拽??13??
征值能夠被更好的利用,從而讓網(wǎng)絡(luò)更淺。??稠密網(wǎng)絡(luò)有以下幾個(gè)優(yōu)點(diǎn):??1.緩解了梯度消失的問(wèn)題。??2.加強(qiáng)了特征的傳播。??3.鼓勵(lì)了特征的重用。??4.減少了參數(shù)的數(shù)量。??稠密網(wǎng)絡(luò)的模型結(jié)構(gòu)如下圖所示:??Input?????????T"?n?門(mén)門(mén)?門(mén)門(mén)?n?門(mén)?Prediction??g?Dense?Block?1?p???Dense?Block?2?〇?Dense?Block?3?^????"I"?*。觯。?H..'加說(shuō)―??圖2.?3稠密網(wǎng)絡(luò)模型結(jié)構(gòu)??DenseBlock為DenseNet最核心的部分,其采用了一種被稱為稠密連接的模??式,使每一層都能夠直接連接到它接下來(lái)的所有層,因此第/層也就接收到它前??面/-I層的所有特征向量。其思想可以由下式所表示:??(2.5)??其中[1。,;^,...,;^]代指0到/-I層的所有特征向量。{也就是第/層的輸出。??//;指代為三個(gè)連續(xù)的操作:批量歸一化、ReLU激活函數(shù)、以及一個(gè)3x3大小的??卷積。由于特征向量的大小不同時(shí)公式中使用的串聯(lián)操作是不可行的。所以在??DenseBlock中不會(huì)使用池化操作,而是在三個(gè)DenseBlock之中添加transition??layers來(lái)實(shí)現(xiàn)池化操作,同時(shí)在transition?layers中還包含有lx丨的卷積來(lái)實(shí)現(xiàn)特??征向量的降維。??在一般的L層卷積網(wǎng)絡(luò)中,一共有L個(gè)連接,但是DenseNet通過(guò)稠密連接??的方式使得連接達(dá)到了^^個(gè)連接。將每一層中的特征向量進(jìn)行了高效的重??用,從而產(chǎn)生了易于訓(xùn)練并且參數(shù)高度有效的網(wǎng)絡(luò)模型。??14??
【參考文獻(xiàn)】:
碩士論文
[1]基于深度學(xué)習(xí)的圖像隱寫(xiě)分析算法研究[D]. 張震.北京交通大學(xué) 2019
[2]基于深度學(xué)習(xí)的圖像信息隱藏方法研究[D]. 任科.大連理工大學(xué) 2019
[3]基于生成對(duì)抗網(wǎng)絡(luò)的圖像信息隱藏研究[D]. 董士琪.北京郵電大學(xué) 2019
本文編號(hào):3548560
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3548560.html
最近更新
教材專(zhuān)著