天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

目標(biāo)提取與哈希機(jī)制的多標(biāo)簽圖像檢索

發(fā)布時間:2019-03-15 15:34
【摘要】:目的哈希是大規(guī)模圖像檢索的有效方法。為提高檢索精度,哈希碼應(yīng)保留語義信息。圖像之間越相似,其哈希碼也應(yīng)越接近,F(xiàn)有方法首先提取描述圖像整體的特征,然后生成哈希碼。這種方法不能精確地描述圖像包含的多個目標(biāo),限制了多標(biāo)簽圖像檢索的精度。為此提出一種基于卷積神經(jīng)網(wǎng)絡(luò)和目標(biāo)提取的哈希生成方法。方法首先提取圖像中可能包含目標(biāo)的一系列區(qū)域,然后用深度卷積神經(jīng)網(wǎng)絡(luò)提取每個區(qū)域的特征并進(jìn)行融合,通過生成一組特征來刻畫圖像中的每個目標(biāo),最后再產(chǎn)生整幅圖像的哈希碼。采用Triplet Loss的訓(xùn)練方法,使得哈希碼盡可能保留語義信息。結(jié)果在VOC2012、Flickr25K和NUSWIDE數(shù)據(jù)集上進(jìn)行多標(biāo)簽圖像檢索。在NDCG(normalized discounted cumulative gain)性能指標(biāo)上,當(dāng)返回圖像數(shù)量為1 000時,對于VOC2012,本文方法相對于DSRH(deep semantic ranking hashing)方法提高2 4個百分點(diǎn),相對于ITQ-CCA(iterative quantization-canonical correlation analysis)方法能提高3 6個百分點(diǎn);對于Flickr25,本文方法比DSRH方法能提高2個左右的百分點(diǎn);對于NUSWIDE,本文方法相對于DSRH方法能提高4個左右的百分點(diǎn)。對于平均檢索準(zhǔn)確度,本文方法在NUSWIDE和Flickr25上能提高2 5個百分點(diǎn)。根據(jù)多項評價指標(biāo)可以看出,本文方法能以更細(xì)粒度來精確地描述圖像,顯著提高了多標(biāo)簽圖像檢索的性能。結(jié)論本文新的特征學(xué)習(xí)模型,對圖像進(jìn)行細(xì)粒度特征編碼是一種可行的方法,能夠有效提高數(shù)據(jù)集的檢索性能。
[Abstract]:Objective Hash is an effective method for large-scale image retrieval. In order to improve the retrieval accuracy, hash codes should retain semantic information. The more similar the images, the closer the hash code should be. The existing methods first extract the features describing the whole image, and then generate hash codes. This method can not accurately describe the multiple objects contained in the image, which limits the accuracy of multi-label image retrieval. A hash generation method based on convolution neural network and target extraction is proposed. Methods A series of regions that may contain objects in the image are extracted firstly, then the features of each region are extracted and fused by using the depth convolution neural network, and a set of features is generated to depict each target in the image. Finally, the hash code of the whole image is generated. The training method of Triplet Loss is used to make the hash code retain semantic information as much as possible. Results Multi-label image retrieval was performed on VOC2012,Flickr25K and NUSWIDE datasets. In terms of the NDCG (normalized discounted cumulative gain) performance index, when the number of returned images is 1,000, the proposed method for VOC2012, is 24 percentage points higher than the DSRH (deep semantic ranking hashing) method. Compared with ITQ-CCA (iterative quantization-canonical correlation analysis) method), it could be increased by 36 percentage points. For Flickr25, this method can increase about two percentage points compared with DSRH method, and for NUSWIDE, this method can increase about 4 percentage points compared with DSRH method. For the average retrieval accuracy, this method can improve 25 percentage points on NUSWIDE and Flickr25. According to several evaluation indexes, it can be seen that the proposed method can accurately describe the image with finer granularity, and significantly improve the performance of multi-label image retrieval. Conclusion the new feature learning model in this paper shows that fine-grained feature coding is a feasible method to improve the retrieval performance of data sets.
【作者單位】: 國防科學(xué)技術(shù)大學(xué)并行與分布處理重點(diǎn)實(shí)驗室;
【基金】:國家自然科學(xué)基金項目(U1435219)~~
【分類號】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 韓法旺;;基于云計算模式的圖像檢索研究[J];情報科學(xué);2011年10期

2 何巖;;以計算機(jī)為基礎(chǔ)的色彩圖像檢索方法與研究[J];計算機(jī)光盤軟件與應(yīng)用;2013年12期

3 郭海鳳;李廣水;仇彬任;;基于融合多特征的社會網(wǎng)上圖像檢索方法[J];計算機(jī)與現(xiàn)代化;2013年12期

4 柏正堯,周紀(jì)勤;基于復(fù)數(shù)矩不變性的圖像檢索方法研究[J];計算機(jī)應(yīng)用;2000年10期

5 夏峰,張文龍;一種圖像檢索的新方法[J];計算機(jī)應(yīng)用研究;2002年11期

6 鄧誠強(qiáng),馮剛;基于內(nèi)容的多特征綜合圖像檢索[J];計算機(jī)應(yīng)用;2003年07期

7 斯白露,高文,盧漢清,曾煒,段立娟;基于感興趣區(qū)域的圖像檢索方法[J];高技術(shù)通訊;2003年05期

8 劉怡,于沛;基于“知網(wǎng)”的新聞圖像檢索方法[J];河南師范大學(xué)學(xué)報(自然科學(xué)版);2003年02期

9 張榮,鄭浩然,李金龍,王煦法;進(jìn)化加速技術(shù)在圖像檢索中的應(yīng)用[J];計算機(jī)工程與應(yīng)用;2004年16期

10 黃德才,胡嘉,鄭月鋒;交互式圖像檢索中相關(guān)反饋進(jìn)展研究[J];計算機(jī)應(yīng)用研究;2005年09期

相關(guān)會議論文 前10條

1 陳旭文;朱紅麗;;一種高效的圖像檢索方法[A];中國儀器儀表學(xué)會第九屆青年學(xué)術(shù)會議論文集[C];2007年

2 周向東;張亮;張琪;劉莉;殷慷;施伯樂;;一種新的圖像檢索相關(guān)反饋方法[A];第十九屆全國數(shù)據(jù)庫學(xué)術(shù)會議論文集(研究報告篇)[C];2002年

3 陳世亮;李戰(zhàn)懷;閆劍鋒;;一種基于本體描述的空間語義圖像檢索方法[A];第二十一屆中國數(shù)據(jù)庫學(xué)術(shù)會議論文集(技術(shù)報告篇)[C];2004年

4 趙海英;彭宏;;基于最優(yōu)近似反饋的圖像檢索[A];’2004系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)交流會論文集[C];2004年

5 許相莉;張利彪;于哲舟;周春光;;基于商空間粒度計算的圖像檢索[A];第八屆全國信息隱藏與多媒體安全學(xué)術(shù)大會湖南省計算機(jī)學(xué)會第十一屆學(xué)術(shù)年會論文集[C];2009年

6 李凌偉;周榮貴;劉怡;;基于概念的圖像檢索方法[A];第十九屆全國數(shù)據(jù)庫學(xué)術(shù)會議論文集(技術(shù)報告篇)[C];2002年

7 楊關(guān)良;李忠杰;徐小杰;;基于代表色的圖像檢索方法研究[A];首屆信息獲取與處理學(xué)術(shù)會議論文集[C];2003年

8 彭瑜;喬奇峰;魏昆娟;;基于多示例學(xué)習(xí)的圖像檢索方法[A];第三屆全國信息檢索與內(nèi)容安全學(xué)術(shù)會議論文集[C];2007年

9 胡敬;武港山;;基于語義特征的風(fēng)景圖像檢索[A];2009年研究生學(xué)術(shù)交流會通信與信息技術(shù)論文集[C];2009年

10 許天兵;;一種基于語義分類的圖像檢索方法[A];中國圖象圖形學(xué)會第十屆全國圖像圖形學(xué)術(shù)會議(CIG’2001)和第一屆全國虛擬現(xiàn)實(shí)技術(shù)研討會(CVR’2001)論文集[C];2001年

相關(guān)博士學(xué)位論文 前10條

1 崔超然;圖像檢索中自動標(biāo)注、標(biāo)簽處理和重排序問題的研究[D];山東大學(xué);2015年

2 楊迪;基于內(nèi)容的分布式圖像檢索[D];北京郵電大學(xué);2015年

3 張旭;網(wǎng)絡(luò)圖像檢索關(guān)鍵技術(shù)研究[D];西安電子科技大學(xué);2014年

4 吳夢麟;基于半監(jiān)督學(xué)習(xí)的醫(yī)學(xué)圖像檢索研究[D];南京理工大學(xué);2015年

5 高毫林;基于哈希技術(shù)的圖像檢索研究[D];解放軍信息工程大學(xué);2014年

6 李清亮;圖像檢索中判別性增強(qiáng)研究[D];吉林大學(xué);2016年

7 劉爽;多特征融合圖像檢索方法及其應(yīng)用研究[D];哈爾濱理工大學(xué);2016年

8 程航;密文JPEG圖像檢索研究[D];上海大學(xué);2016年

9 李展;基于多示例學(xué)習(xí)的圖像檢索與推薦相關(guān)算法研究[D];西北大學(xué);2012年

10 郭麗;基于內(nèi)容的商標(biāo)圖像檢索研究[D];南京理工大學(xué);2003年

相關(guān)碩士學(xué)位論文 前10條

1 趙鴻;基于尺度不變局部特征的圖像檢索研究[D];華南理工大學(xué);2015年

2 孫劍飛;基于圖像索引的熱點(diǎn)話題檢索方法研究[D];蘭州大學(xué);2015年

3 章進(jìn)洲;圖像檢索中的用戶意圖分析[D];南京理工大學(xué);2015年

4 苗思楊;移動圖像檢索中的漸進(jìn)式傳輸方式研究[D];大連海事大學(xué);2015年

5 都業(yè)剛;基于顯著性的移動圖像檢索[D];大連海事大學(xué);2015年

6 王夢蕾;基于用戶反饋和改進(jìn)詞袋模型的圖像檢索[D];南京理工大學(xué);2015年

7 許鵬飛;基于草圖的海量圖像檢索方法研究[D];浙江大學(xué);2015年

8 馮進(jìn)麗;基于BoF的圖像檢索與行為識別研究[D];山西大學(xué);2015年

9 喬維強(qiáng);基于低級特征和語義特征的醫(yī)學(xué)圖像檢索[D];北京理工大學(xué);2015年

10 蔣國寶;基于內(nèi)容的概念建模和圖像檢索重排序[D];復(fù)旦大學(xué);2014年

,

本文編號:2440755

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2440755.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶db76d***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com
神马午夜福利一区二区| 婷婷一区二区三区四区| 在线欧洲免费无线码二区免费| 一区二区不卡免费观看免费| 国产激情国产精品久久源| 日本不卡一本二本三区| 日本大学生精油按摩在线观看| 好吊色欧美一区二区三区顽频| 91福利免费一区二区三区| 最好看的人妻中文字幕| 欧美日韩亚洲巨色人妻| 国产综合一区二区三区av | 中文字幕人妻一区二区免费| 免费在线播放不卡视频| 国产目拍亚洲精品区一区| 日韩欧美中文字幕人妻| 91人妻丝袜一区二区三区| 亚洲少妇人妻一区二区| 人体偷拍一区二区三区| 好吊一区二区三区在线看| 国产一区在线免费国产一区| 欧美一级片日韩一级片| 好吊日成人免费视频公开| 夫妻性生活黄色录像视频| 欧美日韩一区二区三区色拉拉| 国产精品免费自拍视频| 午夜亚洲少妇福利诱惑| 国产日韩欧美在线亚洲| 超薄肉色丝袜脚一区二区| 国产精品欧美在线观看| 久久午夜福利精品日韩| 欧美三级精品在线观看| 日韩精品综合免费视频| 狠狠干狠狠操亚洲综合| 欧美日韩一区二区午夜| 狠狠亚洲丁香综合久久| 国产亚洲欧美日韩精品一区| 日本国产欧美精品视频| 91午夜少妇极品福利| 色综合视频一区二区观看| 在线观看国产午夜福利|