基于深度神經(jīng)網(wǎng)絡的圖像隱藏算法研究
發(fā)布時間:2021-12-23 13:24
隨著計算機網(wǎng)絡技術(shù)的廣泛普及和快速發(fā)展,信息的傳送、交流、共享大部分通過網(wǎng)絡通信來實現(xiàn),大量秘密信息通過網(wǎng)絡進行傳輸,這給人們的生活工作帶來方便的同時也帶來了安全性風險。信息隱藏算法能夠保證秘密信息在不被第三方察覺的情況下進行傳輸,提高了網(wǎng)絡通信的安全性,因而受到國內(nèi)外研究者的廣泛關(guān)注。信息隱藏的載體有多種如文本、音頻、視頻、圖像等,本文選用圖像作為信息隱藏算法的載體即圖像信息隱藏。傳統(tǒng)的圖像信息隱藏算法所生成的載密圖像、恢復的秘密圖像與原始的載體圖像、秘密圖像差距較大,且不能根據(jù)隱寫分析算法進行調(diào)整,因而存在有許多局限性。本文針對這些問題對基于深度神經(jīng)網(wǎng)絡的圖像信息隱藏進行了研究,主要工作和研究成果包括:(1)提出了一種基于殘差網(wǎng)絡的圖像隱藏算法。該算法參考了前人基于自動編碼器的圖像信息隱藏算法,設計了新的基于殘差網(wǎng)絡的模型結(jié)構(gòu),將載體圖像通過shortcut(快速通道)跳過特征提取層發(fā)送到載密圖像之中,使載密圖像在生成的過程中有載體圖像作為藍本,提高了算法的透明性。由仿真實驗分析可知,算法在生成高質(zhì)量的載密圖像同時,能抵抗住經(jīng)典的隱寫分析工具的攻擊,滿足優(yōu)秀的圖像信息隱藏算法的要求...
【文章來源】:南昌大學江西省 211工程院校
【文章頁數(shù)】:61 頁
【學位級別】:碩士
【部分圖文】:
圖2.?1模型深度對算法在訓練集和測試集上準確率的影響??
^(1111丨1:滅231;丨1;011)和批量歸一化(1331(:11]\1〇0111^^011)[271解決/_,使得訓??練深層網(wǎng)絡變得可能。但是當網(wǎng)絡的深度加深時,卻帶來了另外的問題,就是網(wǎng)??絡性能的退化問題,網(wǎng)絡的深度加深了,錯誤率卻上升了。下圖[31]是模型深度對??于算法在訓練集和測試集上準確率的影響:??lv?E--?20-laycr??c?、’■?一、56*lajer?2??-?2()-laycr???。悖颍?(Ic4)?iter.?(Ic4)??圖2.?1模型深度對算法在訓練集和測試集上準確率的影響??為解決上面所提出來得神經(jīng)網(wǎng)絡得深度增加了,神經(jīng)網(wǎng)絡的性能卻降低了的問題。??ResNet[31]的作者提出了一種“短路”(short?connections)的模型來幫助神經(jīng)網(wǎng)絡的??擬合。殘差網(wǎng)絡最初的設想是深層網(wǎng)絡的表達能力不應該比淺層網(wǎng)絡的表達能力??差,因為對于深層網(wǎng)絡來說,它只需要將比淺層網(wǎng)絡所多出來的那些層全部用來??做恒等映射就行了。從完成恒等映射這一功能來說,可以將網(wǎng)絡設計成為??//(x)?=?F(;c)?+?x的結(jié)構(gòu),這樣既完成了學習的功能,又實現(xiàn)了恒等映射。F(x)?+?x??閑數(shù)可以迪過具行short?connection的神經(jīng)網(wǎng)絡來卜實現(xiàn)如F圖:??X-.^N??weight?layer?\??F{x)?jrelu?"?x??—hjlaYer?1?J?identity??J(x)?+?x??圖2.?2殘差網(wǎng)絡基礎模塊??2.3.4稠密網(wǎng)絡??隨著網(wǎng)絡結(jié)構(gòu)越來越深,神經(jīng)網(wǎng)絡逐漸出現(xiàn)梯度消失等W題,為了解決這拽??13??
征值能夠被更好的利用,從而讓網(wǎng)絡更淺。??稠密網(wǎng)絡有以下幾個優(yōu)點:??1.緩解了梯度消失的問題。??2.加強了特征的傳播。??3.鼓勵了特征的重用。??4.減少了參數(shù)的數(shù)量。??稠密網(wǎng)絡的模型結(jié)構(gòu)如下圖所示:??Input?????????T"?n?門門?門門?n?門?Prediction??g?Dense?Block?1?p???Dense?Block?2?〇?Dense?Block?3?^????"I"?*。觯。?H..'加說―??圖2.?3稠密網(wǎng)絡模型結(jié)構(gòu)??DenseBlock為DenseNet最核心的部分,其采用了一種被稱為稠密連接的模??式,使每一層都能夠直接連接到它接下來的所有層,因此第/層也就接收到它前??面/-I層的所有特征向量。其思想可以由下式所表示:??(2.5)??其中[1。,;^,...,;^]代指0到/-I層的所有特征向量。{也就是第/層的輸出。??//;指代為三個連續(xù)的操作:批量歸一化、ReLU激活函數(shù)、以及一個3x3大小的??卷積。由于特征向量的大小不同時公式中使用的串聯(lián)操作是不可行的。所以在??DenseBlock中不會使用池化操作,而是在三個DenseBlock之中添加transition??layers來實現(xiàn)池化操作,同時在transition?layers中還包含有lx丨的卷積來實現(xiàn)特??征向量的降維。??在一般的L層卷積網(wǎng)絡中,一共有L個連接,但是DenseNet通過稠密連接??的方式使得連接達到了^^個連接。將每一層中的特征向量進行了高效的重??用,從而產(chǎn)生了易于訓練并且參數(shù)高度有效的網(wǎng)絡模型。??14??
【參考文獻】:
碩士論文
[1]基于深度學習的圖像隱寫分析算法研究[D]. 張震.北京交通大學 2019
[2]基于深度學習的圖像信息隱藏方法研究[D]. 任科.大連理工大學 2019
[3]基于生成對抗網(wǎng)絡的圖像信息隱藏研究[D]. 董士琪.北京郵電大學 2019
本文編號:3548560
【文章來源】:南昌大學江西省 211工程院校
【文章頁數(shù)】:61 頁
【學位級別】:碩士
【部分圖文】:
圖2.?1模型深度對算法在訓練集和測試集上準確率的影響??
^(1111丨1:滅231;丨1;011)和批量歸一化(1331(:11]\1〇0111^^011)[271解決/_,使得訓??練深層網(wǎng)絡變得可能。但是當網(wǎng)絡的深度加深時,卻帶來了另外的問題,就是網(wǎng)??絡性能的退化問題,網(wǎng)絡的深度加深了,錯誤率卻上升了。下圖[31]是模型深度對??于算法在訓練集和測試集上準確率的影響:??lv?E--?20-laycr??c?、’■?一、56*lajer?2??-?2()-laycr???。悖颍?(Ic4)?iter.?(Ic4)??圖2.?1模型深度對算法在訓練集和測試集上準確率的影響??為解決上面所提出來得神經(jīng)網(wǎng)絡得深度增加了,神經(jīng)網(wǎng)絡的性能卻降低了的問題。??ResNet[31]的作者提出了一種“短路”(short?connections)的模型來幫助神經(jīng)網(wǎng)絡的??擬合。殘差網(wǎng)絡最初的設想是深層網(wǎng)絡的表達能力不應該比淺層網(wǎng)絡的表達能力??差,因為對于深層網(wǎng)絡來說,它只需要將比淺層網(wǎng)絡所多出來的那些層全部用來??做恒等映射就行了。從完成恒等映射這一功能來說,可以將網(wǎng)絡設計成為??//(x)?=?F(;c)?+?x的結(jié)構(gòu),這樣既完成了學習的功能,又實現(xiàn)了恒等映射。F(x)?+?x??閑數(shù)可以迪過具行short?connection的神經(jīng)網(wǎng)絡來卜實現(xiàn)如F圖:??X-.^N??weight?layer?\??F{x)?jrelu?"?x??—hjlaYer?1?J?identity??J(x)?+?x??圖2.?2殘差網(wǎng)絡基礎模塊??2.3.4稠密網(wǎng)絡??隨著網(wǎng)絡結(jié)構(gòu)越來越深,神經(jīng)網(wǎng)絡逐漸出現(xiàn)梯度消失等W題,為了解決這拽??13??
征值能夠被更好的利用,從而讓網(wǎng)絡更淺。??稠密網(wǎng)絡有以下幾個優(yōu)點:??1.緩解了梯度消失的問題。??2.加強了特征的傳播。??3.鼓勵了特征的重用。??4.減少了參數(shù)的數(shù)量。??稠密網(wǎng)絡的模型結(jié)構(gòu)如下圖所示:??Input?????????T"?n?門門?門門?n?門?Prediction??g?Dense?Block?1?p???Dense?Block?2?〇?Dense?Block?3?^????"I"?*。觯。?H..'加說―??圖2.?3稠密網(wǎng)絡模型結(jié)構(gòu)??DenseBlock為DenseNet最核心的部分,其采用了一種被稱為稠密連接的模??式,使每一層都能夠直接連接到它接下來的所有層,因此第/層也就接收到它前??面/-I層的所有特征向量。其思想可以由下式所表示:??(2.5)??其中[1。,;^,...,;^]代指0到/-I層的所有特征向量。{也就是第/層的輸出。??//;指代為三個連續(xù)的操作:批量歸一化、ReLU激活函數(shù)、以及一個3x3大小的??卷積。由于特征向量的大小不同時公式中使用的串聯(lián)操作是不可行的。所以在??DenseBlock中不會使用池化操作,而是在三個DenseBlock之中添加transition??layers來實現(xiàn)池化操作,同時在transition?layers中還包含有lx丨的卷積來實現(xiàn)特??征向量的降維。??在一般的L層卷積網(wǎng)絡中,一共有L個連接,但是DenseNet通過稠密連接??的方式使得連接達到了^^個連接。將每一層中的特征向量進行了高效的重??用,從而產(chǎn)生了易于訓練并且參數(shù)高度有效的網(wǎng)絡模型。??14??
【參考文獻】:
碩士論文
[1]基于深度學習的圖像隱寫分析算法研究[D]. 張震.北京交通大學 2019
[2]基于深度學習的圖像信息隱藏方法研究[D]. 任科.大連理工大學 2019
[3]基于生成對抗網(wǎng)絡的圖像信息隱藏研究[D]. 董士琪.北京郵電大學 2019
本文編號:3548560
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3548560.html
最近更新
教材專著