天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于深度學(xué)習(xí)的圖像檢索技術(shù)研究

發(fā)布時(shí)間:2018-07-31 13:30
【摘要】:2012年以來,卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)在圖像分類任務(wù)中取得了巨大成功。許多研究人員開始將預(yù)訓(xùn)練好的CNN模型作為特征提取器,應(yīng)用于多種計(jì)算機(jī)視覺任務(wù),如物體檢測(cè),物體識(shí)別,圖像檢索等。圖像檢索任務(wù)不僅需要關(guān)注類別所代表的類間差距,同時(shí)需要對(duì)同一類別內(nèi)的圖像加以分級(jí)區(qū)分。但是,全局CNN特征用于圖像檢索任務(wù)時(shí),過于關(guān)注圖像類別所代表的的全局語(yǔ)義信息,缺乏對(duì)圖像局部細(xì)節(jié)的描述,以及不能有效的定義包含多個(gè)實(shí)體的圖像,檢索效果并不理想。本文研究基于深度學(xué)習(xí)的局部特征提取算法,通過特征聚合策略和顯著性區(qū)域描述策略,生成可作用于圖像檢索任務(wù)的局部特征,主要工作如下:1.系統(tǒng)的給出了深度學(xué)習(xí)的理論基礎(chǔ),簡(jiǎn)要的介紹了幾種傳統(tǒng)的圖像檢索算法,介紹了幾種經(jīng)典的深度學(xué)習(xí)模型結(jié)構(gòu),并對(duì)目前深度學(xué)習(xí)應(yīng)用于圖像檢索的相關(guān)工作進(jìn)行了分析和總結(jié)。2.通過分析全局CNN特征作用于圖像檢索任務(wù)時(shí)不能有效的描述局部細(xì)節(jié)的缺陷,提出了一種聚合CNN低層特征圖生成局部特征的策略。CNN模型的高層特征更注重語(yǔ)義信息,但是底層特征更注重局部細(xì)節(jié)信息。利用CNN模型從低到高越來越抽象的特性,本文通過提取低層的CNN特征圖,并經(jīng)過通道加權(quán)和空間加權(quán)聚合以及詞袋模型聚合兩種方式,生成可以描述圖像細(xì)節(jié)的局部特征。相比于全局CNN特征,將這種局部特征應(yīng)用于相同物體圖像檢索任務(wù),檢索準(zhǔn)確率得到了有效提升。3.通過借鑒傳統(tǒng)的局部特征描述子的生成過程,提出了通過提取顯著性區(qū)域、顯著性區(qū)域描述、編碼三個(gè)步驟生成深度局部特征的策略。傳統(tǒng)的局部描述子在圖像檢索領(lǐng)域仍然具有很大優(yōu)勢(shì)。因此,借鑒其原理,本文通過用顯著性區(qū)域來代替?zhèn)鹘y(tǒng)局部特征中的關(guān)鍵點(diǎn),從而生成深度局部特征。其中,本文利用圖像理解的手段來提取顯著性區(qū)域,并取得了較好的檢索效果。本文在經(jīng)典的圖像數(shù)據(jù)集上進(jìn)行了相同類別圖像檢索任務(wù)的實(shí)驗(yàn)仿真,并與經(jīng)典的圖像檢索算法進(jìn)行了對(duì)比。通過實(shí)驗(yàn)仿真證明了上述方法的有效性,能夠進(jìn)一步改善圖像檢索的效果,具有較強(qiáng)的實(shí)用性。
[Abstract]:Since 2012, the convolution neural network has achieved great success in the task of image classification. Many researchers begin to use pre-trained CNN models as feature extractors, which are applied to many computer vision tasks, such as object detection, object recognition, image retrieval and so on. The task of image retrieval needs not only to pay attention to the gap between classes, but also to classify the images within the same category. However, when the global CNN feature is used in image retrieval, it pays too much attention to the global semantic information represented by the image category, lacks the description of the local details of the image, and fails to effectively define the image containing multiple entities. The retrieval effect is not ideal. In this paper, the local feature extraction algorithm based on depth learning is studied. By means of feature aggregation strategy and salient region description strategy, local features can be generated for image retrieval tasks. The main work is as follows: 1. The theoretical basis of depth learning is given systematically, several traditional image retrieval algorithms are introduced briefly, and several classical depth learning model structures are introduced. The related work of depth learning applied in image retrieval is analyzed and summarized. 2. 2. By analyzing the defect that global CNN features can not effectively describe local details when they act on image retrieval tasks, a strategy to aggregate CNN low-level feature graphs to generate local features is proposed. The high-level features of CNN model pay more attention to semantic information. But the underlying features pay more attention to local details. Taking advantage of the more and more abstract features of CNN model from low to high, this paper extracts the low-level CNN feature map, and through channel weighted, spatial weighted aggregation and word bag model aggregation, generates local features that can describe the details of the image. Compared with the global CNN feature, the local feature is applied to the same object image retrieval task, and the retrieval accuracy is improved effectively. 3. By learning from the traditional process of local feature descriptors, this paper proposes a strategy of generating depth local features by extracting salient regions, describing salient regions and encoding three steps. Traditional local descriptors still have great advantages in image retrieval. Therefore, using its principle for reference, this paper uses the salient region instead of the key points in the traditional local feature to generate the depth local feature. In this paper, significant regions are extracted by means of image understanding, and good retrieval results are obtained. In this paper, the experimental simulation of the same kind of image retrieval task is carried out on the classical image dataset, and compared with the classical image retrieval algorithm. The experimental results show that the proposed method is effective and can further improve the effect of image retrieval.
【學(xué)位授予單位】:電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類號(hào)】:TP391.41;TP181

【相似文獻(xiàn)】

中國(guó)期刊全文數(shù)據(jù)庫(kù) 前10條

1 江士方,汪英姿;圖像及圖像檢索應(yīng)用前景的探討[J];江蘇工業(yè)學(xué)院學(xué)報(bào)(社會(huì)科學(xué)版);2003年04期

2 韓法旺;;基于云計(jì)算模式的圖像檢索研究[J];情報(bào)科學(xué);2011年10期

3 何巖;;以計(jì)算機(jī)為基礎(chǔ)的色彩圖像檢索方法與研究[J];計(jì)算機(jī)光盤軟件與應(yīng)用;2013年12期

4 郭海鳳;李廣水;仇彬任;;基于融合多特征的社會(huì)網(wǎng)上圖像檢索方法[J];計(jì)算機(jī)與現(xiàn)代化;2013年12期

5 柏正堯,周紀(jì)勤;基于復(fù)數(shù)矩不變性的圖像檢索方法研究[J];計(jì)算機(jī)應(yīng)用;2000年10期

6 夏峰,張文龍;一種圖像檢索的新方法[J];計(jì)算機(jī)應(yīng)用研究;2002年11期

7 鄧誠(chéng)強(qiáng),馮剛;基于內(nèi)容的多特征綜合圖像檢索[J];計(jì)算機(jī)應(yīng)用;2003年07期

8 斯白露,高文,盧漢清,曾煒,段立娟;基于感興趣區(qū)域的圖像檢索方法[J];高技術(shù)通訊;2003年05期

9 劉怡,于沛;基于“知網(wǎng)”的新聞圖像檢索方法[J];河南師范大學(xué)學(xué)報(bào)(自然科學(xué)版);2003年02期

10 張榮,鄭浩然,李金龍,王煦法;進(jìn)化加速技術(shù)在圖像檢索中的應(yīng)用[J];計(jì)算機(jī)工程與應(yīng)用;2004年16期

中國(guó)重要會(huì)議論文全文數(shù)據(jù)庫(kù) 前10條

1 陳旭文;朱紅麗;;一種高效的圖像檢索方法[A];中國(guó)儀器儀表學(xué)會(huì)第九屆青年學(xué)術(shù)會(huì)議論文集[C];2007年

2 周向東;張亮;張琪;劉莉;殷慷;施伯樂;;一種新的圖像檢索相關(guān)反饋方法[A];第十九屆全國(guó)數(shù)據(jù)庫(kù)學(xué)術(shù)會(huì)議論文集(研究報(bào)告篇)[C];2002年

3 陳世亮;李戰(zhàn)懷;閆劍鋒;;一種基于本體描述的空間語(yǔ)義圖像檢索方法[A];第二十一屆中國(guó)數(shù)據(jù)庫(kù)學(xué)術(shù)會(huì)議論文集(技術(shù)報(bào)告篇)[C];2004年

4 趙海英;彭宏;;基于最優(yōu)近似反饋的圖像檢索[A];’2004系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)交流會(huì)論文集[C];2004年

5 許相莉;張利彪;于哲舟;周春光;;基于商空間粒度計(jì)算的圖像檢索[A];第八屆全國(guó)信息隱藏與多媒體安全學(xué)術(shù)大會(huì)湖南省計(jì)算機(jī)學(xué)會(huì)第十一屆學(xué)術(shù)年會(huì)論文集[C];2009年

6 李凌偉;周榮貴;劉怡;;基于概念的圖像檢索方法[A];第十九屆全國(guó)數(shù)據(jù)庫(kù)學(xué)術(shù)會(huì)議論文集(技術(shù)報(bào)告篇)[C];2002年

7 楊關(guān)良;李忠杰;徐小杰;;基于代表色的圖像檢索方法研究[A];首屆信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2003年

8 彭瑜;喬奇峰;魏昆娟;;基于多示例學(xué)習(xí)的圖像檢索方法[A];第三屆全國(guó)信息檢索與內(nèi)容安全學(xué)術(shù)會(huì)議論文集[C];2007年

9 胡敬;武港山;;基于語(yǔ)義特征的風(fēng)景圖像檢索[A];2009年研究生學(xué)術(shù)交流會(huì)通信與信息技術(shù)論文集[C];2009年

10 許天兵;;一種基于語(yǔ)義分類的圖像檢索方法[A];中國(guó)圖象圖形學(xué)會(huì)第十屆全國(guó)圖像圖形學(xué)術(shù)會(huì)議(CIG’2001)和第一屆全國(guó)虛擬現(xiàn)實(shí)技術(shù)研討會(huì)(CVR’2001)論文集[C];2001年

中國(guó)博士學(xué)位論文全文數(shù)據(jù)庫(kù) 前10條

1 崔超然;圖像檢索中自動(dòng)標(biāo)注、標(biāo)簽處理和重排序問題的研究[D];山東大學(xué);2015年

2 楊迪;基于內(nèi)容的分布式圖像檢索[D];北京郵電大學(xué);2015年

3 張旭;網(wǎng)絡(luò)圖像檢索關(guān)鍵技術(shù)研究[D];西安電子科技大學(xué);2014年

4 吳夢(mèng)麟;基于半監(jiān)督學(xué)習(xí)的醫(yī)學(xué)圖像檢索研究[D];南京理工大學(xué);2015年

5 高毫林;基于哈希技術(shù)的圖像檢索研究[D];解放軍信息工程大學(xué);2014年

6 李清亮;圖像檢索中判別性增強(qiáng)研究[D];吉林大學(xué);2016年

7 劉爽;多特征融合圖像檢索方法及其應(yīng)用研究[D];哈爾濱理工大學(xué);2016年

8 程航;密文JPEG圖像檢索研究[D];上海大學(xué);2016年

9 李強(qiáng);基于語(yǔ)義理解的圖像檢索研究[D];天津大學(xué);2015年

10 劉少偉;面向用戶意圖的社會(huì)化圖像檢索[D];清華大學(xué);2016年

中國(guó)碩士學(xué)位論文全文數(shù)據(jù)庫(kù) 前10條

1 卞穎;基于深度學(xué)習(xí)的圖像檢索技術(shù)研究[D];電子科技大學(xué);2017年

2 趙鴻;基于尺度不變局部特征的圖像檢索研究[D];華南理工大學(xué);2015年

3 孫劍飛;基于圖像索引的熱點(diǎn)話題檢索方法研究[D];蘭州大學(xué);2015年

4 章進(jìn)洲;圖像檢索中的用戶意圖分析[D];南京理工大學(xué);2015年

5 苗思楊;移動(dòng)圖像檢索中的漸進(jìn)式傳輸方式研究[D];大連海事大學(xué);2015年

6 都業(yè)剛;基于顯著性的移動(dòng)圖像檢索[D];大連海事大學(xué);2015年

7 王夢(mèng)蕾;基于用戶反饋和改進(jìn)詞袋模型的圖像檢索[D];南京理工大學(xué);2015年

8 許鵬飛;基于草圖的海量圖像檢索方法研究[D];浙江大學(xué);2015年

9 馮進(jìn)麗;基于BoF的圖像檢索與行為識(shí)別研究[D];山西大學(xué);2015年

10 喬維強(qiáng);基于低級(jí)特征和語(yǔ)義特征的醫(yī)學(xué)圖像檢索[D];北京理工大學(xué);2015年



本文編號(hào):2155729

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2155729.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶0f7af***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com