基于深度哈希學(xué)習(xí)算法的移動視覺檢索系統(tǒng)設(shè)計與實現(xiàn)
發(fā)布時間:2021-03-10 22:04
移動設(shè)備的激增產(chǎn)生了新的移動視覺搜索應(yīng)用,使用戶能夠使用智能手機(jī)感知周圍的環(huán)境。由于移動視覺搜索的特殊挑戰(zhàn),實現(xiàn)高比特率成為現(xiàn)有相關(guān)工作的一貫?zāi)繕?biāo),而在移動視覺檢索領(lǐng)域,檢索的速度以及對移動端設(shè)備的性能要求也是至關(guān)重要的。在這樣的背景下,本文設(shè)計并實現(xiàn)了基于深度哈希學(xué)習(xí)算法的移動視覺檢索系統(tǒng)。在本文中,探索整體利用深度學(xué)習(xí)為基礎(chǔ)的哈希方法來構(gòu)建更強(qiáng)大和即時的移動視覺搜索,提出了輕量級,低延遲和高精度的基于深度哈希方法構(gòu)建移動視覺搜索系統(tǒng)。首先,利用MobileNet模型的體系結(jié)構(gòu),通過在保持精確性的同時減少模型參數(shù)的數(shù)量來顯著減少深度特征提取的延遲,此模型尺寸遠(yuǎn)遠(yuǎn)小于之前的模型,并能保持相對高的檢索準(zhǔn)確率,有利于將模型部署在移動端直接提取特征。接著,在MobileNet網(wǎng)絡(luò)模型中添加一個類似哈希的網(wǎng)絡(luò)層,使用移動視覺數(shù)據(jù)來有監(jiān)督的訓(xùn)練模型,使用哈希層可以將圖片對應(yīng)的特征向量量化為二元哈希碼,使用向量間的海明距離來檢索最相似的圖片,這會大大提高檢索的速度并在檢索精度上也有一定提高。最后,評估結(jié)果表明,所提出的系統(tǒng)在檢索精度方面(MAP)可以超過目前為止最先進(jìn)算法的性能。更重要的是,內(nèi)存消...
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:61 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1?LeNet[4]網(wǎng)絡(luò)架構(gòu)??如圖2-1所示,LeNet-5共有7層,不包含輸入,每層都包含可訓(xùn)練參數(shù),??
3??圖2-2?AlexNet[13】網(wǎng)絡(luò)架構(gòu)??如圖2-2所示,上圖采用是兩臺GPU服務(wù)器,所有會看到兩個流程圖,我??們這里以一臺CPU服務(wù)器為例做描述。該模型一共分為8層,5個卷積層,,以??及3個全連接層,在每一個卷積層中包含了激勵函數(shù)ReLU以及局部響應(yīng)歸一化??LRN處理,然后在經(jīng)過降采樣(pooling處理)。通過眾多的技巧(dropout、RELU、??Data?Augmentation)解決深層神經(jīng)網(wǎng)絡(luò)的過擬合問題,使得該網(wǎng)絡(luò)在60?million??參數(shù)的情況下依舊能很好收斂。這些方法現(xiàn)在已經(jīng)成為了?CNN不可或缺的一部??分。該網(wǎng)絡(luò)共包含8個權(quán)重層,其中5個卷積層,3個全連接層。1,2卷積層后??連有LRN層,不過此后的網(wǎng)絡(luò)也證明LRN并非CNN中必須包含的層,甚至有??些網(wǎng)絡(luò)加入LRN后效果反而降低。每個LRN及最后層卷積層后跟有最大池化??層,并且各個權(quán)重層均連有ReLU激活函數(shù)。全連接層后使用了?Dropout這一方??法以解決過擬合。圖2-2的特征圖需要綜合上下兩個GPU的結(jié)果
p-5錯誤率6.67%,只有AlexNet的一半不到。??onVl有22層深,比AlexNet的8層或者VGGNet的19層還要只有15億次浮點運(yùn)算,同時只有500萬的參數(shù)量,僅為AlexN萬)的1/12,卻可以達(dá)到遠(yuǎn)勝于AlexNet的準(zhǔn)確率,可以說是實用的模型。InceptionVl降低參數(shù)量的目的有兩點:第一,參,需要供模型學(xué)習(xí)的數(shù)據(jù)量就越大,而目前高質(zhì)量的數(shù)據(jù)非常越多,耗費(fèi)的計算資源也會更大。??onVl參數(shù)少但效果好的原因除了模型層數(shù)更深、表達(dá)能力更強(qiáng)是去除了最后的全連接層,用全局平均池化層(即將圖片尺寸變?yōu)槿B接層幾乎占據(jù)了?AlexNet或VGGNet中90%的參數(shù)量,而去除全連接層后模型訓(xùn)練更快并且減輕了過擬合。??onVl中精心設(shè)計的Inception?Module提高了參數(shù)的利用效率,示。這一部分也借鑒了?NetworklnNetwork的思想,形象的解odule本身如同大網(wǎng)絡(luò)中的一個小網(wǎng)絡(luò),其結(jié)構(gòu)可以反復(fù)堆疊。??
本文編號:3075354
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:61 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1?LeNet[4]網(wǎng)絡(luò)架構(gòu)??如圖2-1所示,LeNet-5共有7層,不包含輸入,每層都包含可訓(xùn)練參數(shù),??
3??圖2-2?AlexNet[13】網(wǎng)絡(luò)架構(gòu)??如圖2-2所示,上圖采用是兩臺GPU服務(wù)器,所有會看到兩個流程圖,我??們這里以一臺CPU服務(wù)器為例做描述。該模型一共分為8層,5個卷積層,,以??及3個全連接層,在每一個卷積層中包含了激勵函數(shù)ReLU以及局部響應(yīng)歸一化??LRN處理,然后在經(jīng)過降采樣(pooling處理)。通過眾多的技巧(dropout、RELU、??Data?Augmentation)解決深層神經(jīng)網(wǎng)絡(luò)的過擬合問題,使得該網(wǎng)絡(luò)在60?million??參數(shù)的情況下依舊能很好收斂。這些方法現(xiàn)在已經(jīng)成為了?CNN不可或缺的一部??分。該網(wǎng)絡(luò)共包含8個權(quán)重層,其中5個卷積層,3個全連接層。1,2卷積層后??連有LRN層,不過此后的網(wǎng)絡(luò)也證明LRN并非CNN中必須包含的層,甚至有??些網(wǎng)絡(luò)加入LRN后效果反而降低。每個LRN及最后層卷積層后跟有最大池化??層,并且各個權(quán)重層均連有ReLU激活函數(shù)。全連接層后使用了?Dropout這一方??法以解決過擬合。圖2-2的特征圖需要綜合上下兩個GPU的結(jié)果
p-5錯誤率6.67%,只有AlexNet的一半不到。??onVl有22層深,比AlexNet的8層或者VGGNet的19層還要只有15億次浮點運(yùn)算,同時只有500萬的參數(shù)量,僅為AlexN萬)的1/12,卻可以達(dá)到遠(yuǎn)勝于AlexNet的準(zhǔn)確率,可以說是實用的模型。InceptionVl降低參數(shù)量的目的有兩點:第一,參,需要供模型學(xué)習(xí)的數(shù)據(jù)量就越大,而目前高質(zhì)量的數(shù)據(jù)非常越多,耗費(fèi)的計算資源也會更大。??onVl參數(shù)少但效果好的原因除了模型層數(shù)更深、表達(dá)能力更強(qiáng)是去除了最后的全連接層,用全局平均池化層(即將圖片尺寸變?yōu)槿B接層幾乎占據(jù)了?AlexNet或VGGNet中90%的參數(shù)量,而去除全連接層后模型訓(xùn)練更快并且減輕了過擬合。??onVl中精心設(shè)計的Inception?Module提高了參數(shù)的利用效率,示。這一部分也借鑒了?NetworklnNetwork的思想,形象的解odule本身如同大網(wǎng)絡(luò)中的一個小網(wǎng)絡(luò),其結(jié)構(gòu)可以反復(fù)堆疊。??
本文編號:3075354
本文鏈接:http://sikaile.net/kejilunwen/sousuoyinqinglunwen/3075354.html
最近更新
教材專著