基于三元組的深度視頻哈希方法研究
發(fā)布時(shí)間:2021-04-11 11:41
近年來(lái)隨著互聯(lián)網(wǎng)和通信技術(shù)的飛速發(fā)展,用戶上傳、下載互聯(lián)網(wǎng)中的視頻數(shù)據(jù)變得越來(lái)越便利。這不僅導(dǎo)致了互聯(lián)網(wǎng)中的視頻數(shù)據(jù)的急劇增長(zhǎng),也給視頻數(shù)據(jù)的處理和存儲(chǔ)帶來(lái)了極大的挑戰(zhàn)。如何在海量視頻數(shù)據(jù)中精準(zhǔn)的查找用戶所需的視頻內(nèi)容,成為了近年來(lái)多媒體領(lǐng)域需要迫切解決的關(guān)鍵問(wèn)題之一。哈希學(xué)習(xí)可以將復(fù)雜的原始數(shù)據(jù)映射成極短的哈希碼,并在哈希碼中保持原始數(shù)據(jù)間的相似性,通過(guò)哈希碼在數(shù)據(jù)庫(kù)中進(jìn)行檢索,既可以大幅度提高檢索速度,又可以有效減少對(duì)存儲(chǔ)空間的需求。因此,基于哈希學(xué)習(xí)實(shí)現(xiàn)圖像和視頻的檢索,是近年來(lái)的一個(gè)研究熱點(diǎn)。目前,哈希學(xué)習(xí)方法在圖像檢索中已有較多研究,取得了較大的進(jìn)展,但在視頻檢索中的研究工作還比較有限,主要體現(xiàn)在哈希學(xué)習(xí)中對(duì)視頻的時(shí)空特征編碼不足,標(biāo)簽信息嵌入能力不強(qiáng),且計(jì)算復(fù)雜度較高,這導(dǎo)致檢索哈希檢索性能與應(yīng)用需求還有較大的差距。因此,本人選擇基于哈希學(xué)習(xí)的視頻檢索作為研究課題,以進(jìn)一步提升視頻檢索的性能。本論文研究了一種基于三元組的深度視頻哈希檢索方法,并對(duì)所提方法的性能進(jìn)行了實(shí)驗(yàn)驗(yàn)證。主要研究工作概括如下:(1)基于卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短時(shí)記憶網(wǎng)絡(luò),提出了一種端到端的有監(jiān)督視頻哈希編碼網(wǎng)...
【文章來(lái)源】:山東大學(xué)山東省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:55 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1?VGG網(wǎng)絡(luò)結(jié)構(gòu)??經(jīng)最后一層池化后的特征圖大小為7*7,輸出特征張量的維度為7*7*512
??環(huán)神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)的全連接神經(jīng)網(wǎng)絡(luò)相比,其主要區(qū)別在于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)通常??由輸入到隱藏層再到輸出,層與層之間為全連接的關(guān)系,而循環(huán)神經(jīng)網(wǎng)絡(luò)的每層??網(wǎng)絡(luò)輸出除了與當(dāng)前的輸入有關(guān),也與之前序列的輸出有關(guān)。這使得網(wǎng)絡(luò)的隱藏??層并非獨(dú)立于每一層網(wǎng)絡(luò)中,而是互相連接貫穿整個(gè)輸入序列,這種結(jié)構(gòu)有利于??保存先前輸入的序列信息。得益于循環(huán)輸入的結(jié)構(gòu),循環(huán)神經(jīng)網(wǎng)絡(luò)非常適合序列??信息的處理,在自然語(yǔ)言處理與視頻的相關(guān)場(chǎng)景中應(yīng)用廣泛。從理論上來(lái)講,循??環(huán)神經(jīng)網(wǎng)絡(luò)可以處理任意長(zhǎng)度的序列數(shù)據(jù)。圖2-2是一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)示??意圖,公式(2.1)(2.2)表示了該循環(huán)神經(jīng)網(wǎng)絡(luò)的前向傳播過(guò)程。??6?°. ̄1?°t?°M??▲?A?A?n??v?v?v?v??個(gè)w個(gè)w個(gè)w??V?u?u?u??X?x,-l?Xt??圖2-2循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖??10??
?山東大學(xué)碩士學(xué)位論文???St=f(U-Xt?+?W-?5t_i)?(2.1)??0t?=?g(V-St)?(2.2)??上式中S為隱藏層狀態(tài),x為每一層網(wǎng)絡(luò)的輸入,〇為輸出,t/、V、W為權(quán)重??矩陣,/(?)與扒?)為激活函數(shù)。??然而如圖2-2所示的循環(huán)神經(jīng)網(wǎng)絡(luò)在實(shí)際應(yīng)用中存在一些問(wèn)題,如隨著序列??的逐漸加深,序列先前部分的信息會(huì)隨著網(wǎng)絡(luò)傳播逐漸減小,且越靠近初始部分,??信息損失就越大。此外,在網(wǎng)絡(luò)的反向傳播更新參數(shù)的過(guò)程中,隱藏層參數(shù)的連??乘會(huì)導(dǎo)致梯度消失從而導(dǎo)致無(wú)法更新參數(shù)的問(wèn)題;谶@些問(wèn)題,Hochreiter和??SchmidhuberfM等人提出了一種循環(huán)神經(jīng)網(wǎng)絡(luò)的變體,長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long??Short-Term?Memory)?0?????????^?t?/?t?/?t??-??—?-―?-??-1關(guān)—?—??-???a?^I3ZC?A?.??L?)?vj??J?v,?j??I?I?1??@?(xT)?Q??圖2-3長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)示意圖??圖2-3為長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的示意圖。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)與傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)的??主要區(qū)別在于細(xì)胞狀態(tài)的加入。細(xì)胞狀態(tài)是編碼整個(gè)序列所有信息的一條信息??流,細(xì)胞狀態(tài)通過(guò)遺忘門(mén)和輸入門(mén)進(jìn)行狀態(tài)更新。每當(dāng)由新的序列信息輸入時(shí),??遺忘門(mén)會(huì)計(jì)算之前的細(xì)胞狀態(tài)中有哪些信息需要丟棄,有哪些信息需要保留,同??時(shí)輸入門(mén)根據(jù)之前的輸出和新的輸入,計(jì)算哪些信息需要輸入細(xì)胞狀態(tài),隨后細(xì)??胞狀態(tài)根據(jù)遺忘門(mén)和輸入門(mén)的結(jié)果進(jìn)行更新。輸出門(mén)決定了細(xì)胞狀態(tài)中的哪些信??息輸出,將更新后的細(xì)胞狀態(tài)中的信息輸出并傳遞至下一時(shí)間步。下式(2
本文編號(hào):3131190
【文章來(lái)源】:山東大學(xué)山東省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:55 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1?VGG網(wǎng)絡(luò)結(jié)構(gòu)??經(jīng)最后一層池化后的特征圖大小為7*7,輸出特征張量的維度為7*7*512
??環(huán)神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)的全連接神經(jīng)網(wǎng)絡(luò)相比,其主要區(qū)別在于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)通常??由輸入到隱藏層再到輸出,層與層之間為全連接的關(guān)系,而循環(huán)神經(jīng)網(wǎng)絡(luò)的每層??網(wǎng)絡(luò)輸出除了與當(dāng)前的輸入有關(guān),也與之前序列的輸出有關(guān)。這使得網(wǎng)絡(luò)的隱藏??層并非獨(dú)立于每一層網(wǎng)絡(luò)中,而是互相連接貫穿整個(gè)輸入序列,這種結(jié)構(gòu)有利于??保存先前輸入的序列信息。得益于循環(huán)輸入的結(jié)構(gòu),循環(huán)神經(jīng)網(wǎng)絡(luò)非常適合序列??信息的處理,在自然語(yǔ)言處理與視頻的相關(guān)場(chǎng)景中應(yīng)用廣泛。從理論上來(lái)講,循??環(huán)神經(jīng)網(wǎng)絡(luò)可以處理任意長(zhǎng)度的序列數(shù)據(jù)。圖2-2是一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)示??意圖,公式(2.1)(2.2)表示了該循環(huán)神經(jīng)網(wǎng)絡(luò)的前向傳播過(guò)程。??6?°. ̄1?°t?°M??▲?A?A?n??v?v?v?v??個(gè)w個(gè)w個(gè)w??V?u?u?u??X?x,-l?Xt??圖2-2循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖??10??
?山東大學(xué)碩士學(xué)位論文???St=f(U-Xt?+?W-?5t_i)?(2.1)??0t?=?g(V-St)?(2.2)??上式中S為隱藏層狀態(tài),x為每一層網(wǎng)絡(luò)的輸入,〇為輸出,t/、V、W為權(quán)重??矩陣,/(?)與扒?)為激活函數(shù)。??然而如圖2-2所示的循環(huán)神經(jīng)網(wǎng)絡(luò)在實(shí)際應(yīng)用中存在一些問(wèn)題,如隨著序列??的逐漸加深,序列先前部分的信息會(huì)隨著網(wǎng)絡(luò)傳播逐漸減小,且越靠近初始部分,??信息損失就越大。此外,在網(wǎng)絡(luò)的反向傳播更新參數(shù)的過(guò)程中,隱藏層參數(shù)的連??乘會(huì)導(dǎo)致梯度消失從而導(dǎo)致無(wú)法更新參數(shù)的問(wèn)題;谶@些問(wèn)題,Hochreiter和??SchmidhuberfM等人提出了一種循環(huán)神經(jīng)網(wǎng)絡(luò)的變體,長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long??Short-Term?Memory)?0?????????^?t?/?t?/?t??-??—?-―?-??-1關(guān)—?—??-???a?^I3ZC?A?.??L?)?vj??J?v,?j??I?I?1??@?(xT)?Q??圖2-3長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)示意圖??圖2-3為長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的示意圖。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)與傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)的??主要區(qū)別在于細(xì)胞狀態(tài)的加入。細(xì)胞狀態(tài)是編碼整個(gè)序列所有信息的一條信息??流,細(xì)胞狀態(tài)通過(guò)遺忘門(mén)和輸入門(mén)進(jìn)行狀態(tài)更新。每當(dāng)由新的序列信息輸入時(shí),??遺忘門(mén)會(huì)計(jì)算之前的細(xì)胞狀態(tài)中有哪些信息需要丟棄,有哪些信息需要保留,同??時(shí)輸入門(mén)根據(jù)之前的輸出和新的輸入,計(jì)算哪些信息需要輸入細(xì)胞狀態(tài),隨后細(xì)??胞狀態(tài)根據(jù)遺忘門(mén)和輸入門(mén)的結(jié)果進(jìn)行更新。輸出門(mén)決定了細(xì)胞狀態(tài)中的哪些信??息輸出,將更新后的細(xì)胞狀態(tài)中的信息輸出并傳遞至下一時(shí)間步。下式(2
本文編號(hào):3131190
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/3131190.html
最近更新
教材專著