天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 碩博論文 > 信息類碩士論文 >

基于字典學(xué)習(xí)的跨模態(tài)監(jiān)督離散哈希方法研究

發(fā)布時間:2020-11-06 14:07
   近年來,因特網(wǎng)的發(fā)展和社交媒體的興起使得多媒體數(shù)據(jù)規(guī)模增長迅速同時數(shù)據(jù)種類也不斷增加。給定某個模態(tài)的查詢,跨模態(tài)檢索希望返回的是與其相似的另一個模態(tài)的樣本,比如利用文本來檢索相關(guān)的圖片或視頻。哈希方法憑借其檢索速度快、存儲開銷小的優(yōu)勢在大規(guī)模數(shù)據(jù)檢索領(lǐng)域引起了相當(dāng)多的關(guān)注。很多基于哈希學(xué)習(xí)的跨模態(tài)檢索方法被提出并取得了一定的檢索效果,然而這些方法可能仍有一些限制。首先,大部分哈希檢索方法直接采用線性映射來將不同模態(tài)的數(shù)據(jù)映射到公共的漢明空間中。哈希方法的目的是相似性保持,由于異構(gòu)數(shù)據(jù)的復(fù)雜性,線性映射難以保持原始空間中的相似性,導(dǎo)致此類方法存在巨大的誤差。其次,大多數(shù)監(jiān)督跨模態(tài)哈希方法構(gòu)建相似性矩陣的規(guī)則是:如果兩個實例有至少一個相同的標(biāo)簽則視為相似。然而這種定義方式過于簡單且丟失了很多有用的監(jiān)督信息。最后,大多數(shù)哈希方法在優(yōu)化的時候選擇松弛或者舍棄離散限制來解決一個連續(xù)優(yōu)化問題,再將實值解量化成二進(jìn)制碼,這會導(dǎo)致巨大的量化誤差。目前已有一些論文提出采用離散優(yōu)化策略,但這些方法通常僅適用于單模態(tài)。為了克服這些限制,本文提出了一個新穎的跨模態(tài)哈希方法,稱作基于字典學(xué)習(xí)的監(jiān)督離散哈希(Dictionary Learning based Supervised Discrete Hashing,簡寫為DLSDH)。DLSDH是兩步哈希方法,分為哈希碼學(xué)習(xí)過程和哈希函數(shù)學(xué)習(xí)過程。DLSDH構(gòu)造的成對相似性矩陣和離散迭代優(yōu)化策略使得哈希碼學(xué)習(xí)過程學(xué)得更高質(zhì)量的哈希碼。在哈希函數(shù)學(xué)習(xí)階段,DLSDH首先為每個實例生成稀疏表示,再映射到低維漢明空間中。本文提出的方法其主要貢獻(xiàn)有:·提出了一種基于字典學(xué)習(xí)的監(jiān)督跨模態(tài)哈希方法,首先為每一個模態(tài)學(xué)習(xí)一個字典并為每一個實例生成稀疏表示,相比于復(fù)雜的原始特征稀疏表示更適合映射到低維隱空間中,解決了相似的實例在低維隱空間中難以接近的問題!榱顺浞掷迷紭(biāo)簽信息,DLSDH使用余弦相似度來計算成對的相似性,新構(gòu)建的相似性矩陣能更好地監(jiān)督哈希碼學(xué)習(xí)過程!LSDH采用列采樣策略來解決離散優(yōu)化問題,避免了量化帶來的誤差。同時,DLSDH在訓(xùn)練時使用的是整個數(shù)據(jù)集而不是采樣數(shù)據(jù),保證了哈希函數(shù)的泛化性能。·通過在三個數(shù)據(jù)集上與先進(jìn)跨模態(tài)哈希方法進(jìn)行對比實驗,證明DLSDH的檢索性能優(yōu)于或者媲美先進(jìn)對比方法。同時,實驗證明了余弦相似性矩陣的有效性。
【學(xué)位單位】:山東大學(xué)
【學(xué)位級別】:碩士
【學(xué)位年份】:2020
【中圖分類】:TP311.13;TP18
【部分圖文】:

曲線,哈希,數(shù)據(jù)集,碼長


?—CVH?I?I?I?—4—CVH??〇24?-???1?-?_?_?—如IMH??1?1??1???*?SCM-orth?〇??I?了?SCM-orth??〇22??i??j.?—?_?--SCM-seq?.?“?,?i?SCM-seq??<?r-*-**^*^*^!?1?? ̄4?一?CMFH?〇.fl|? ̄??1?+——CMFH??〇1〇?^^^^?^oo?〇1〇?^?^5?丄??N?N??圖4.1?Wiki數(shù)據(jù)集哈希碼為32位情況下Top-N?precision曲線??4.2實驗結(jié)果與分析??4.2.1?Wiki數(shù)據(jù)集上的結(jié)果與分析??本小節(jié)在Wiki數(shù)據(jù)集上根據(jù)上述對比方法和評價標(biāo)準(zhǔn)進(jìn)行對比實驗。對比??方法和本文提出的DLSDH在評價標(biāo)準(zhǔn)MAP上的結(jié)果展示在表格4.1中。為了??進(jìn)一步展示DLSDH和對比方法的效果,圖4.1?-圖4.4中分別畫出32位和64位??的?Top-N?precision?和?Precision-Pecall?曲線。從表?4.1?和圖?4.1?-?4.4?可以觀察到:???在Image-to-Text任務(wù)上,在哈希碼長度為8位和16位時僅SRDMH的MAP??值優(yōu)于DLSDH,?DLSDH在哈希碼長度為32位和64位時取得最好的MAP??值。也就是說隨著哈希碼長度增加,DLSDH的MAP值增加的更加顯著,??這說明更長的哈希碼可以捕獲更多有用的信息。???在Text-to-Image任務(wù)上,哈希碼長度從8位到64位,DLSDH的MAP值都??優(yōu)于其他對比方法。???在兩個檢索任務(wù)上,DLSDH的

曲線,數(shù)據(jù)集,哈希,情況


?」?_?!??0.24???J?-?-?'r?-?SCM ̄orth???0.7丨言?t?_?SCM-orth??'?1L?Tt?,?SCM ̄seq?J?*一-A一-,?一▲巉,SCM-seq??0?22?-?-?-▲?i-?——a.?-?-???-?CMFH?〇.〇[??1—?…?一?CMFH??|?.?^:CCQMH?I?\?_?_?^:CCQMH?.??〇,0??M?5^?^?0.2?丄?L?"?〇'8?*?^??Recall?Recall??圖4.2?Wiki數(shù)據(jù)集哈希碼為32位情況下Precision-Recall曲線??Image-to-Text?@?64?bits?Text-To-lmage?@?64?bits??0.261?i-?1?1??■?i?-?I?0.81?1?1?1??v?-?I??i?|?—?—CVH?i?i?i?—CVH??0.24?ifC:?-??'?-1??-IMH?1?1?1?—IMH??|?;?-?-SCM-orth?0J]?丨丨?了一-SCM-ortfi?■??0-22?-?a,? ̄?T^n^V?-?|???—?—????SCM-seq???1?i?SCM-seq??-4-CMFH?-I????—CMFH??0.2?-?-?H?-?-★-LSSH?'?-A—LSSH??§?°-18?_/■―itlsRDMH?|?"?'?-^-SRDMH??o?^^8?—?-SePH-knn?〇?。。?,?SePH-km??2?°-16ir???—?^DLSDH?it?2?〇.4?

曲線,數(shù)據(jù)集,哈希,情況


?」?_?!??0.24???J?-?-?'r?-?SCM ̄orth???0.7丨言?t?_?SCM-orth??'?1L?Tt?,?SCM ̄seq?J?*一-A一-,?一▲巉,SCM-seq??0?22?-?-?-▲?i-?——a.?-?-???-?CMFH?〇.〇[??1—?…?一?CMFH??|?.?^:CCQMH?I?\?_?_?^:CCQMH?.??〇,0??M?5^?^?0.2?丄?L?"?〇'8?*?^??Recall?Recall??圖4.2?Wiki數(shù)據(jù)集哈希碼為32位情況下Precision-Recall曲線??Image-to-Text?@?64?bits?Text-To-lmage?@?64?bits??0.261?i-?1?1??■?i?-?I?0.81?1?1?1??v?-?I??i?|?—?—CVH?i?i?i?—CVH??0.24?ifC:?-??'?-1??-IMH?1?1?1?—IMH??|?;?-?-SCM-orth?0J]?丨丨?了一-SCM-ortfi?■??0-22?-?a,? ̄?T^n^V?-?|???—?—????SCM-seq???1?i?SCM-seq??-4-CMFH?-I????—CMFH??0.2?-?-?H?-?-★-LSSH?'?-A—LSSH??§?°-18?_/■―itlsRDMH?|?"?'?-^-SRDMH??o?^^8?—?-SePH-knn?〇?。。?,?SePH-km??2?°-16ir???—?^DLSDH?it?2?〇.4?
【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 朱治蘭;荊曉遠(yuǎn);董西偉;吳飛;;有監(jiān)督鑒別哈?缒B(tài)檢索[J];計算機應(yīng)用與軟件;2019年04期

2 蔣大宏;動態(tài)哈希方法[J];計算機工程;1993年01期

3 金漢均;吳靜;;基于深度柯西哈希的圖像檢索研究[J];電子測量技術(shù);2020年09期

4 魯明;宋馥莉;;基于誤差加權(quán)哈希的圖像檢索方法[J];河南科技;2016年17期

5 林計文;劉華文;鄭忠龍;;面向圖像檢索的深度漢明嵌入哈希[J];模式識別與人工智能;2020年06期

6 宋欣;;哈希:品質(zhì)承諾鑄就品牌基石[J];現(xiàn)代企業(yè)文化;2012年Z1期

7 蔣大宏;實現(xiàn)檢索代價最優(yōu)的動態(tài)哈希法[J];計算機工程與應(yīng)用;1994年Z2期

8 郁延珍;;基于深度多監(jiān)督哈希的快速圖像檢索[J];計算機應(yīng)用與軟件;2019年11期

9 孫瑤;;深度學(xué)習(xí)哈希研究與發(fā)展[J];數(shù)據(jù)通信;2018年02期

10 潘輝;鄭剛;胡曉惠;馬恒太;;基于感知哈希的圖像內(nèi)容鑒別性能分析[J];計算機輔助設(shè)計與圖形學(xué)學(xué)報;2012年07期


相關(guān)博士學(xué)位論文 前10條

1 馬雷;面向大規(guī)模圖像哈希學(xué)習(xí)的理論與方法研究[D];電子科技大學(xué);2019年

2 王家樂;基于哈希學(xué)習(xí)的跨模態(tài)檢索與標(biāo)注方法研究[D];華中科技大學(xué);2017年

3 馬超;語義鑒別和相似性保持的哈希方法研究與應(yīng)用[D];南京理工大學(xué);2017年

4 季劍秋;面向大規(guī)模數(shù)據(jù)相似計算和搜索的哈希方法研究[D];清華大學(xué);2015年

5 付海燕;基于圖像哈希的大規(guī)模圖像檢索方法研究[D];大連理工大學(xué);2014年

6 劉兆慶;圖像感知哈希若干關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2013年

7 姚濤;基于哈希方法的跨媒體檢索研究[D];大連理工大學(xué);2017年

8 陳勇昌;基于不變特征的數(shù)字水印與感知哈希圖像認(rèn)證技術(shù)研究[D];華南理工大學(xué);2014年

9 趙玉鑫;多媒體感知哈希算法及應(yīng)用研究[D];南京理工大學(xué);2009年

10 張慧;圖像感知哈希測評基準(zhǔn)及算法研究[D];哈爾濱工業(yè)大學(xué);2009年


相關(guān)碩士學(xué)位論文 前10條

1 吳燁;基于字典學(xué)習(xí)的跨模態(tài)監(jiān)督離散哈希方法研究[D];山東大學(xué);2020年

2 楊慶濤;信息不對稱問題的跨模態(tài)哈希檢索算法研究[D];西安理工大學(xué);2020年

3 王彤;深度跨媒體哈希關(guān)鍵技術(shù)研究[D];山東師范大學(xué);2020年

4 王盛;基于標(biāo)簽對的深度哈希學(xué)習(xí)[D];南京大學(xué);2017年

5 馮璐;面向圖像檢索和分類的監(jiān)督哈希方法研究[D];山東大學(xué);2017年

6 胡志鍇;結(jié)合語義保護(hù)和關(guān)聯(lián)挖掘的跨模態(tài)哈希檢索算法研究[D];華僑大學(xué);2019年

7 袁知洪;基于哈希學(xué)習(xí)的大規(guī)模圖像檢索[D];重慶郵電大學(xué);2018年

8 許焱;基于哈希的行人重識別[D];電子科技大學(xué);2019年

9 李嘉展;基于深度離散哈希的醫(yī)學(xué)影像檢索與平臺實現(xiàn)[D];西安電子科技大學(xué);2019年

10 李逸凡;基于哈希學(xué)習(xí)的跨模態(tài)檢索技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2019年



本文編號:2873240

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2873240.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶5d895***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com