基于內(nèi)容的圖像安全檢索技術(shù)研究
發(fā)布時間:2022-01-02 19:23
隨著智能設(shè)備和互聯(lián)網(wǎng)的普及,多媒體數(shù)據(jù)量急速增長,基于內(nèi)容的圖像檢索(Content-based Image Retrieval,CBIR)能夠從大規(guī)模圖像中搜索出相似圖像,實(shí)現(xiàn)對數(shù)據(jù)的利用。對數(shù)據(jù)擁有者而言,將對圖像數(shù)據(jù)的管理和維護(hù)外包給云服務(wù)提供商,可以有效降低成本,但存在隱私泄露的問題。關(guān)于在數(shù)據(jù)外包場景下圖像隱私保護(hù)方法的研究日趨活躍,不少圖像安全檢索方案相繼被提出,然而這些方案存在客戶端計(jì)算量大、圖像擁有者、云服務(wù)器和查詢用戶交互輪數(shù)多、通信開銷大等問題,很難直接應(yīng)用。在實(shí)際環(huán)境中,同一項(xiàng)服務(wù)可以由多個云服務(wù)器共同提供支持,本文以基于內(nèi)容的圖像安全檢索為研究課題,重點(diǎn)研究了雙服務(wù)器模型下的圖像特征提取、索引設(shè)計(jì)和圖像檢索方法,主要內(nèi)容如下:(1)提出了一種基于BOVW特征的圖像安全檢索方案。該方案結(jié)合SIFT特征安全提取和局部敏感哈希算法,實(shí)現(xiàn)了對圖像BOVW特征的安全提取。為了保護(hù)圖像的BOVW特征,設(shè)計(jì)了基于詞頻劃分的倒排索引,對索引進(jìn)行分塊存儲。最后,設(shè)計(jì)了相應(yīng)的圖像檢索方法。該方案最大限度的減少了檢索過程中圖像擁有者和查詢用戶的參與。(2)提出了一種基于CNN特征的圖...
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:79 頁
【學(xué)位級別】:碩士
【部分圖文】:
云平臺架構(gòu)
電子科技大學(xué)碩士學(xué)位論文10提取出圖像特征后,根據(jù)具體需求,往往需要對特征進(jìn)一步處理,比如降維、聚類。SIFT特征、BOVW特征和CNN特征是常用的圖像特征,在圖像分類、檢索方面有良好表現(xiàn)。2.1.1尺度不變特征變換SIFT是一種圖像局部特征提取算法,也可以認(rèn)為是該算法提取的圖像局部特征。通過對圖像進(jìn)行尺度空間變換,檢測差分尺度空間下的極值點(diǎn),提取尺度、旋轉(zhuǎn)不變量,并抽象成特征向量進(jìn)行描述。由于SIFT特征獨(dú)特性好、描述符信息含量豐富,對視角變化、仿射變化、噪聲也具有一定的魯棒性,因此能夠?qū)D像進(jìn)行準(zhǔn)確地匹配。基于SIFT特征的圖像匹配一般包括:(1)提取目標(biāo)圖像和原圖像的SIFT特征描述符;(2)對提取出的SIFT特征進(jìn)行匹配,如圖2-1所示。圖2-1基于SIFT特征的圖像匹配圖像SIFT特征的提取步驟詳細(xì)描述如下:(1)尺度空間生成:首先建立相應(yīng)的高斯金字塔和高斯差分金字塔。對于圖像,其高斯差分金字塔是通過一個高斯差分函數(shù)與卷積得到的,二維圖像(,)的高斯尺度空間函數(shù)定義如式(2-1)、式(2-2)。(,,)=(,,)(,)(2-1)(,,)=122(2+2)22(2-2)其中(,,)是尺度可變的高斯核函數(shù),是尺度因子,(,)是空間坐標(biāo)。然后在同一組尺度空間下,計(jì)算高斯差分金字塔,如式(2-3)。(,,)=((,,)(,,))(,)=(,,)(,,)(2-3)(2)關(guān)鍵點(diǎn)定位:指在高斯差分金字塔檢測局部極值點(diǎn),比較的區(qū)間是與待檢測點(diǎn)相鄰的上層9個相鄰點(diǎn)、下層9個相鄰點(diǎn)和本層周圍的8個相鄰點(diǎn)。對初步得到的局部極值,一般會進(jìn)一步篩選以獲得穩(wěn)定的關(guān)鍵點(diǎn)。(3)方向分配:SIFT特征描述符的旋轉(zhuǎn)不變性與關(guān)鍵點(diǎn)分配密切相關(guān)。圍繞
電子科技大學(xué)碩士學(xué)位論文12圖2-2安全的SIFT特征提取流程2.1.3視覺詞袋模型視覺詞袋(BagOfVisualWords,簡稱BOVW)模型是與BOW詞袋模型(BagOfWords,簡稱BOW)相似的概念,BOW模型是自然語言處理和內(nèi)容檢索領(lǐng)域廣泛應(yīng)用的一種文檔簡化方式,基本思想是將一個文本視為獨(dú)立的單詞集合,忽略詞間的關(guān)系和順序,根據(jù)集合中詞的種類和數(shù)量對文本進(jìn)行分類。例如有以下兩個文檔:文檔1:Jerrylikesplayingchess.Stephenlikes,too.文檔2:Stephenlikesplayingpoker.針對這兩個文檔,可以構(gòu)造出詞典:詞典={1:Jerry,2:like,3:play,4:chess,5:Stephen,6:poker,7:too}.在得到字典之后,上面的2個文檔在BOW模型下可以表示為:文檔1:(1,2,1,1,1,0,1)文檔2:(0,1,1,0,0,1,0)向量中每個元素表示相關(guān)單詞在文檔中出現(xiàn)的次數(shù),注意到字典中的單詞用原形表示,這個過程是同義詞轉(zhuǎn)換。整個過程可以概括為三步:提取單詞(分詞)、生成字典、生成文檔向量。將BOW模型應(yīng)用于圖像檢索領(lǐng)域時,就成為了BOVW模型。Li在文獻(xiàn)[51]中提出了用BOW模型表達(dá)圖像的方法,他們認(rèn)為,圖像可以類比為由視覺詞組成的文檔。統(tǒng)計(jì)視覺詞在不同目標(biāo)類中出現(xiàn)的次數(shù),可以得到每幅圖像的直方圖表示。圖像BOVW特征生成可概括為以下步驟:(1)提取視覺詞:對應(yīng)于文檔分詞的步驟,提取圖像的局部特征;(2)生成視覺詞字典:對提取出的局部特征進(jìn)行二次采樣,通常做法是聚類,將聚類中心作為詞匯表來描述圖像;
【參考文獻(xiàn)】:
期刊論文
[1]近似最近鄰搜索算法——位置敏感哈希[J]. 高毫林,徐旭,李弼程. 信息工程大學(xué)學(xué)報. 2013(03)
[2]基于多表頻繁項(xiàng)投票和桶映射鏈的快速檢索方法[J]. 高毫林,彭天強(qiáng),李弼程,郭志剛. 電子與信息學(xué)報. 2012(11)
[3]一種基于隨機(jī)化視覺詞典組和查詢擴(kuò)展的目標(biāo)檢索方法[J]. 趙永威,李弼程,彭天強(qiáng),高毫林. 電子與信息學(xué)報. 2012(05)
碩士論文
[1]基于深度CNN特征的安全圖像檢索[D]. 魏志偉.西安電子科技大學(xué) 2019
本文編號:3564746
【文章來源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:79 頁
【學(xué)位級別】:碩士
【部分圖文】:
云平臺架構(gòu)
電子科技大學(xué)碩士學(xué)位論文10提取出圖像特征后,根據(jù)具體需求,往往需要對特征進(jìn)一步處理,比如降維、聚類。SIFT特征、BOVW特征和CNN特征是常用的圖像特征,在圖像分類、檢索方面有良好表現(xiàn)。2.1.1尺度不變特征變換SIFT是一種圖像局部特征提取算法,也可以認(rèn)為是該算法提取的圖像局部特征。通過對圖像進(jìn)行尺度空間變換,檢測差分尺度空間下的極值點(diǎn),提取尺度、旋轉(zhuǎn)不變量,并抽象成特征向量進(jìn)行描述。由于SIFT特征獨(dú)特性好、描述符信息含量豐富,對視角變化、仿射變化、噪聲也具有一定的魯棒性,因此能夠?qū)D像進(jìn)行準(zhǔn)確地匹配。基于SIFT特征的圖像匹配一般包括:(1)提取目標(biāo)圖像和原圖像的SIFT特征描述符;(2)對提取出的SIFT特征進(jìn)行匹配,如圖2-1所示。圖2-1基于SIFT特征的圖像匹配圖像SIFT特征的提取步驟詳細(xì)描述如下:(1)尺度空間生成:首先建立相應(yīng)的高斯金字塔和高斯差分金字塔。對于圖像,其高斯差分金字塔是通過一個高斯差分函數(shù)與卷積得到的,二維圖像(,)的高斯尺度空間函數(shù)定義如式(2-1)、式(2-2)。(,,)=(,,)(,)(2-1)(,,)=122(2+2)22(2-2)其中(,,)是尺度可變的高斯核函數(shù),是尺度因子,(,)是空間坐標(biāo)。然后在同一組尺度空間下,計(jì)算高斯差分金字塔,如式(2-3)。(,,)=((,,)(,,))(,)=(,,)(,,)(2-3)(2)關(guān)鍵點(diǎn)定位:指在高斯差分金字塔檢測局部極值點(diǎn),比較的區(qū)間是與待檢測點(diǎn)相鄰的上層9個相鄰點(diǎn)、下層9個相鄰點(diǎn)和本層周圍的8個相鄰點(diǎn)。對初步得到的局部極值,一般會進(jìn)一步篩選以獲得穩(wěn)定的關(guān)鍵點(diǎn)。(3)方向分配:SIFT特征描述符的旋轉(zhuǎn)不變性與關(guān)鍵點(diǎn)分配密切相關(guān)。圍繞
電子科技大學(xué)碩士學(xué)位論文12圖2-2安全的SIFT特征提取流程2.1.3視覺詞袋模型視覺詞袋(BagOfVisualWords,簡稱BOVW)模型是與BOW詞袋模型(BagOfWords,簡稱BOW)相似的概念,BOW模型是自然語言處理和內(nèi)容檢索領(lǐng)域廣泛應(yīng)用的一種文檔簡化方式,基本思想是將一個文本視為獨(dú)立的單詞集合,忽略詞間的關(guān)系和順序,根據(jù)集合中詞的種類和數(shù)量對文本進(jìn)行分類。例如有以下兩個文檔:文檔1:Jerrylikesplayingchess.Stephenlikes,too.文檔2:Stephenlikesplayingpoker.針對這兩個文檔,可以構(gòu)造出詞典:詞典={1:Jerry,2:like,3:play,4:chess,5:Stephen,6:poker,7:too}.在得到字典之后,上面的2個文檔在BOW模型下可以表示為:文檔1:(1,2,1,1,1,0,1)文檔2:(0,1,1,0,0,1,0)向量中每個元素表示相關(guān)單詞在文檔中出現(xiàn)的次數(shù),注意到字典中的單詞用原形表示,這個過程是同義詞轉(zhuǎn)換。整個過程可以概括為三步:提取單詞(分詞)、生成字典、生成文檔向量。將BOW模型應(yīng)用于圖像檢索領(lǐng)域時,就成為了BOVW模型。Li在文獻(xiàn)[51]中提出了用BOW模型表達(dá)圖像的方法,他們認(rèn)為,圖像可以類比為由視覺詞組成的文檔。統(tǒng)計(jì)視覺詞在不同目標(biāo)類中出現(xiàn)的次數(shù),可以得到每幅圖像的直方圖表示。圖像BOVW特征生成可概括為以下步驟:(1)提取視覺詞:對應(yīng)于文檔分詞的步驟,提取圖像的局部特征;(2)生成視覺詞字典:對提取出的局部特征進(jìn)行二次采樣,通常做法是聚類,將聚類中心作為詞匯表來描述圖像;
【參考文獻(xiàn)】:
期刊論文
[1]近似最近鄰搜索算法——位置敏感哈希[J]. 高毫林,徐旭,李弼程. 信息工程大學(xué)學(xué)報. 2013(03)
[2]基于多表頻繁項(xiàng)投票和桶映射鏈的快速檢索方法[J]. 高毫林,彭天強(qiáng),李弼程,郭志剛. 電子與信息學(xué)報. 2012(11)
[3]一種基于隨機(jī)化視覺詞典組和查詢擴(kuò)展的目標(biāo)檢索方法[J]. 趙永威,李弼程,彭天強(qiáng),高毫林. 電子與信息學(xué)報. 2012(05)
碩士論文
[1]基于深度CNN特征的安全圖像檢索[D]. 魏志偉.西安電子科技大學(xué) 2019
本文編號:3564746
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/3564746.html
最近更新
教材專著