基于深度學(xué)習(xí)的圖像搜索系統(tǒng)研究與實(shí)現(xiàn)
發(fā)布時(shí)間:2021-09-14 20:50
隨著人工智能的浪潮興起和智能技術(shù)的發(fā)展普及,互聯(lián)網(wǎng)和移動智能終端產(chǎn)生的數(shù)字圖像呈現(xiàn)指數(shù)爆炸增長。圖像數(shù)據(jù)給用戶帶來舒適體驗(yàn)和便捷服務(wù)的同時(shí),也帶來了巨大挑戰(zhàn)。如何從海量的圖像數(shù)據(jù)中篩選用戶感興趣的圖片,并搜索用戶想要的相關(guān)相似內(nèi)容是面臨的數(shù)據(jù)難題。圖像搜索作為計(jì)算機(jī)視覺研究的重要領(lǐng)域之一,可以解決大規(guī)模數(shù)字圖像搜索相似內(nèi)容這一難題。圖像搜索目前在研究和應(yīng)用中仍存在的問題有:(1)圖像內(nèi)容特征難以準(zhǔn)確表達(dá),即計(jì)算機(jī)的模型算法對圖像特征的表達(dá)與人在視覺上的感知存在差異性,降低了圖像搜索的準(zhǔn)確率;(2)近似近鄰搜索算法中,單一度量函數(shù)對圖像內(nèi)容特征相似度結(jié)果存在偏差導(dǎo)致準(zhǔn)確率下降問題仍需研究;(3)目前國內(nèi)外圖像搜索的應(yīng)用引擎大多是基于文本的方式,圖像搜索結(jié)果存在不相關(guān)的情況較多。針對上述問題,本文以深度學(xué)習(xí)為支撐,重點(diǎn)圍繞生成高效且蘊(yùn)含語義的圖像內(nèi)容特征和快速準(zhǔn)確實(shí)現(xiàn)大規(guī)模圖像搜索進(jìn)行研究,實(shí)現(xiàn)了面向互聯(lián)網(wǎng)購物平臺的圖像搜索系統(tǒng)。主要研究內(nèi)容有:(1)針對圖像內(nèi)容特征難以準(zhǔn)確表達(dá)的問題,提出并實(shí)現(xiàn)了一種基于CNN-DeepAE的特征提取和編碼聯(lián)合模型。該模型采用多特征融合的方法優(yōu)化了圖像內(nèi)...
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:72 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-2近似近鄰搜索算法在Fashion-MNIST上的評測結(jié)果[45]??5??
基于CNN的圖像搜索技術(shù)跟隨深度學(xué)習(xí)興起在研究上取得了不錯(cuò)的成績,??超越了傳統(tǒng)基于SIFT的圖像搜索方法。1.2.1章節(jié)中詳細(xì)論述了基于CNN模型??對特征提取的三種方式。下圖2-2顯示了基于SIFT描述子和基于CNN模型提取??特征的圖像搜索流程[12]。??feature?extraction?encoding?indexing?ranJt?J??tla?yr^??mm?馬::?於’.’-?^22??,職?H?'?visual?word??CNN?rt^e?tuned^,??end-to-end?feature?extraction?and?encoding?L^」.i.Li.UJ??Sif^-ciss?’?^?compact?vector?IfiMj??圖2-2基于SIFT和基于CNN特征提取的圖像搜索流程圖I12】??從上圖中可以看到,不管基于傳統(tǒng)的SIFT特征描述子進(jìn)行圖像特征提取,??還是釆用基于CNN特征的三種模型方法P1,圖像搜索的流程都需要經(jīng)過四個(gè)步??驟:第一步是圖像內(nèi)容特征提取,第二步是對獲取的特征進(jìn)行編碼或者池化操作,??第三步是構(gòu)建索引或者編碼成緊湊的向量,最后一步是采用排序算法將圖像搜索??結(jié)果集排序輸出。??卷積神經(jīng)網(wǎng)絡(luò)對于圖像內(nèi)容信息的處理主要有兩種典型的操作:卷積和池化。??卷積操作通過不同數(shù)量的卷積核與圖像局部信息進(jìn)行矩陣計(jì)算,能夠有效的提取??圖像局部信息
自編碼器神經(jīng)網(wǎng)絡(luò)可以通過隱含層的編碼對這樣抽象的特征進(jìn)行無監(jiān)督的??學(xué)習(xí)來捕獲高效語義特征的表示,接著是解碼器的部分,學(xué)習(xí)從該隱藏層表示的??特征重建輸入圖像,圖2-3是自動編碼器的結(jié)構(gòu)表示。??2?I?.??圖2-3編碼Is網(wǎng)絡(luò)結(jié)構(gòu)??這里隱藏層表示的維度小于原始輸入向量的維度,在這種情況下,網(wǎng)絡(luò)是欠??完備自動編碼器。這種網(wǎng)絡(luò)的典型應(yīng)用是圖像壓縮和圖像搜索。設(shè)定的損失函數(shù)??如公式(2-1)所示:??Kx.g^ix)))?(2-1)??自編碼網(wǎng)絡(luò)通過簡單的學(xué)習(xí)輸入和輸出這一任務(wù),看起來雖然簡單,但是通??過不同的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)設(shè)置,會得到不同的效果。上面提到的欠完備自動編碼??13??
【參考文獻(xiàn)】:
期刊論文
[1]深度學(xué)習(xí)相關(guān)研究綜述[J]. 張軍陽,王慧麗,郭陽,扈嘯. 計(jì)算機(jī)應(yīng)用研究. 2018(07)
[2]基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像檢索算法研究[J]. 劉海龍,李寶安,呂學(xué)強(qiáng),黃躍. 計(jì)算機(jī)應(yīng)用研究. 2017(12)
[3]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
[4]一種基于內(nèi)容的海量圖像檢索框架的設(shè)計(jì)與實(shí)現(xiàn)[J]. 林文煜,戴青云,曹江中,何小明,李能. 電腦知識與技術(shù). 2016(09)
博士論文
[1]基于量化的近似最近鄰搜索技術(shù)研究[D]. 張婷.中國科學(xué)技術(shù)大學(xué) 2017
碩士論文
[1]基于內(nèi)容的圖像檢索系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 趙津津.河北科技大學(xué) 2019
[2]基于內(nèi)容的圖像檢索系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 陳乾明.南京大學(xué) 2018
本文編號:3395508
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:72 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-2近似近鄰搜索算法在Fashion-MNIST上的評測結(jié)果[45]??5??
基于CNN的圖像搜索技術(shù)跟隨深度學(xué)習(xí)興起在研究上取得了不錯(cuò)的成績,??超越了傳統(tǒng)基于SIFT的圖像搜索方法。1.2.1章節(jié)中詳細(xì)論述了基于CNN模型??對特征提取的三種方式。下圖2-2顯示了基于SIFT描述子和基于CNN模型提取??特征的圖像搜索流程[12]。??feature?extraction?encoding?indexing?ranJt?J??tla?yr^??mm?馬::?於’.’-?^22??,職?H?'?visual?word??CNN?rt^e?tuned^,??end-to-end?feature?extraction?and?encoding?L^」.i.Li.UJ??Sif^-ciss?’?^?compact?vector?IfiMj??圖2-2基于SIFT和基于CNN特征提取的圖像搜索流程圖I12】??從上圖中可以看到,不管基于傳統(tǒng)的SIFT特征描述子進(jìn)行圖像特征提取,??還是釆用基于CNN特征的三種模型方法P1,圖像搜索的流程都需要經(jīng)過四個(gè)步??驟:第一步是圖像內(nèi)容特征提取,第二步是對獲取的特征進(jìn)行編碼或者池化操作,??第三步是構(gòu)建索引或者編碼成緊湊的向量,最后一步是采用排序算法將圖像搜索??結(jié)果集排序輸出。??卷積神經(jīng)網(wǎng)絡(luò)對于圖像內(nèi)容信息的處理主要有兩種典型的操作:卷積和池化。??卷積操作通過不同數(shù)量的卷積核與圖像局部信息進(jìn)行矩陣計(jì)算,能夠有效的提取??圖像局部信息
自編碼器神經(jīng)網(wǎng)絡(luò)可以通過隱含層的編碼對這樣抽象的特征進(jìn)行無監(jiān)督的??學(xué)習(xí)來捕獲高效語義特征的表示,接著是解碼器的部分,學(xué)習(xí)從該隱藏層表示的??特征重建輸入圖像,圖2-3是自動編碼器的結(jié)構(gòu)表示。??2?I?.??圖2-3編碼Is網(wǎng)絡(luò)結(jié)構(gòu)??這里隱藏層表示的維度小于原始輸入向量的維度,在這種情況下,網(wǎng)絡(luò)是欠??完備自動編碼器。這種網(wǎng)絡(luò)的典型應(yīng)用是圖像壓縮和圖像搜索。設(shè)定的損失函數(shù)??如公式(2-1)所示:??Kx.g^ix)))?(2-1)??自編碼網(wǎng)絡(luò)通過簡單的學(xué)習(xí)輸入和輸出這一任務(wù),看起來雖然簡單,但是通??過不同的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)設(shè)置,會得到不同的效果。上面提到的欠完備自動編碼??13??
【參考文獻(xiàn)】:
期刊論文
[1]深度學(xué)習(xí)相關(guān)研究綜述[J]. 張軍陽,王慧麗,郭陽,扈嘯. 計(jì)算機(jī)應(yīng)用研究. 2018(07)
[2]基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像檢索算法研究[J]. 劉海龍,李寶安,呂學(xué)強(qiáng),黃躍. 計(jì)算機(jī)應(yīng)用研究. 2017(12)
[3]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計(jì)算機(jī)學(xué)報(bào). 2017(06)
[4]一種基于內(nèi)容的海量圖像檢索框架的設(shè)計(jì)與實(shí)現(xiàn)[J]. 林文煜,戴青云,曹江中,何小明,李能. 電腦知識與技術(shù). 2016(09)
博士論文
[1]基于量化的近似最近鄰搜索技術(shù)研究[D]. 張婷.中國科學(xué)技術(shù)大學(xué) 2017
碩士論文
[1]基于內(nèi)容的圖像檢索系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 趙津津.河北科技大學(xué) 2019
[2]基于內(nèi)容的圖像檢索系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 陳乾明.南京大學(xué) 2018
本文編號:3395508
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3395508.html
最近更新
教材專著