基于深度學(xué)習(xí)的圖像分類搜索系統(tǒng)
發(fā)布時(shí)間:2021-08-05 20:58
圖像分類是根據(jù)圖像的信息將不同類別的圖像區(qū)分開來(lái),是計(jì)算機(jī)視覺中重要的基本問(wèn)題,也是圖像檢測(cè)、圖像分割、物體跟蹤、行為分析等其他高層視覺任務(wù)的基礎(chǔ)。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新的領(lǐng)域,其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來(lái)解釋數(shù)據(jù),例如圖像、聲音和文本。該系統(tǒng)基于Caffe深度學(xué)習(xí)框架,首先對(duì)數(shù)據(jù)集進(jìn)行訓(xùn)練分析構(gòu)建深度學(xué)習(xí)網(wǎng)絡(luò),提取數(shù)據(jù)集圖像特征信息,得到數(shù)據(jù)對(duì)應(yīng)的分類模型,然后以bvlc-imagenet訓(xùn)練集模型為基礎(chǔ),對(duì)目標(biāo)圖像進(jìn)行擴(kuò)展應(yīng)用,實(shí)現(xiàn)"以圖搜圖"Web應(yīng)用。
【文章來(lái)源】:電子技術(shù)應(yīng)用. 2019,45(12)
【文章頁(yè)數(shù)】:5 頁(yè)
【部分圖文】:
3×3矩陣卷積過(guò)程
如果輸入的圖像是6×6的一組矩陣,其前3×3格的數(shù)據(jù)經(jīng)過(guò)權(quán)值weight的加權(quán)求和后可以得到429,得到第一個(gè)卷積后的數(shù)據(jù);輸入矩陣每次運(yùn)算向后移動(dòng)一小格,并與權(quán)值weight進(jìn)行加權(quán)求和,掃完整個(gè)數(shù)據(jù)可以得到一個(gè)4×4的數(shù)據(jù),卷積的結(jié)果是維數(shù)降低了,如圖2所示。1.2 卷積核
池化與卷積非常相似,簡(jiǎn)單來(lái)說(shuō)就是下采樣,都是使用一個(gè)矩陣與另一個(gè)矩陣的加權(quán)和得到最后的數(shù)據(jù)。池化與卷積最大的不同是卷積重復(fù)使用一個(gè)數(shù)據(jù),而池化是每個(gè)數(shù)據(jù)只加權(quán)求和使用一次。當(dāng)原來(lái)的矩陣是m×m、采樣窗口是n×n時(shí),卷積能夠取得(m-n+1)×(m-n+1)的矩陣結(jié)果,而池化在不重復(fù)使用數(shù)據(jù)加權(quán)求和的情況下,一共只能采樣(m/n)×(m/n)的結(jié)果矩陣。之所以這么做,是因?yàn)榧词棺鐾炅司矸e,圖像仍然很大(因?yàn)榫矸e核比較小),所以為了降低數(shù)據(jù)維度,就進(jìn)行下采樣。之所以能這么做,是因?yàn)榧词箿p少了許多數(shù)據(jù),特征的統(tǒng)計(jì)屬性仍能夠描述圖像,而且由于降低了數(shù)據(jù)維度,有效地避免了過(guò)擬合[4-5]。池化的過(guò)程如圖3所示,原始圖片大小是12×12維度,對(duì)其進(jìn)行下采樣,采樣窗口為10×10,通過(guò)池化將其下采樣成為一個(gè)2×2大小的特征圖。1.4 訓(xùn)練流程
【參考文獻(xiàn)】:
期刊論文
[1]基于TensorFlow深度學(xué)習(xí)手寫體數(shù)字識(shí)別及應(yīng)用[J]. 黃睿,陸許明,鄔依林. 電子技術(shù)應(yīng)用. 2018(10)
[2]基于深度學(xué)習(xí)的圖像分類方法[J]. 許少尉,陳思宇. 電子技術(shù)應(yīng)用. 2018(06)
[3]深度卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用[J]. 張順,龔怡宏,王進(jìn)軍. 計(jì)算機(jī)學(xué)報(bào). 2019(03)
[4]深度學(xué)習(xí)框架Caffe在圖像分類中的應(yīng)用[J]. 王茜,張海仙. 現(xiàn)代計(jì)算機(jī)(專業(yè)版). 2016(05)
[5]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽(yáng)明,王正. 計(jì)算機(jī)應(yīng)用研究. 2012(08)
碩士論文
[1]基于Caffe平臺(tái)深度學(xué)習(xí)的人臉識(shí)別研究與實(shí)現(xiàn)[D]. 魏正.西安電子科技大學(xué) 2015
本文編號(hào):3324448
【文章來(lái)源】:電子技術(shù)應(yīng)用. 2019,45(12)
【文章頁(yè)數(shù)】:5 頁(yè)
【部分圖文】:
3×3矩陣卷積過(guò)程
如果輸入的圖像是6×6的一組矩陣,其前3×3格的數(shù)據(jù)經(jīng)過(guò)權(quán)值weight的加權(quán)求和后可以得到429,得到第一個(gè)卷積后的數(shù)據(jù);輸入矩陣每次運(yùn)算向后移動(dòng)一小格,并與權(quán)值weight進(jìn)行加權(quán)求和,掃完整個(gè)數(shù)據(jù)可以得到一個(gè)4×4的數(shù)據(jù),卷積的結(jié)果是維數(shù)降低了,如圖2所示。1.2 卷積核
池化與卷積非常相似,簡(jiǎn)單來(lái)說(shuō)就是下采樣,都是使用一個(gè)矩陣與另一個(gè)矩陣的加權(quán)和得到最后的數(shù)據(jù)。池化與卷積最大的不同是卷積重復(fù)使用一個(gè)數(shù)據(jù),而池化是每個(gè)數(shù)據(jù)只加權(quán)求和使用一次。當(dāng)原來(lái)的矩陣是m×m、采樣窗口是n×n時(shí),卷積能夠取得(m-n+1)×(m-n+1)的矩陣結(jié)果,而池化在不重復(fù)使用數(shù)據(jù)加權(quán)求和的情況下,一共只能采樣(m/n)×(m/n)的結(jié)果矩陣。之所以這么做,是因?yàn)榧词棺鐾炅司矸e,圖像仍然很大(因?yàn)榫矸e核比較小),所以為了降低數(shù)據(jù)維度,就進(jìn)行下采樣。之所以能這么做,是因?yàn)榧词箿p少了許多數(shù)據(jù),特征的統(tǒng)計(jì)屬性仍能夠描述圖像,而且由于降低了數(shù)據(jù)維度,有效地避免了過(guò)擬合[4-5]。池化的過(guò)程如圖3所示,原始圖片大小是12×12維度,對(duì)其進(jìn)行下采樣,采樣窗口為10×10,通過(guò)池化將其下采樣成為一個(gè)2×2大小的特征圖。1.4 訓(xùn)練流程
【參考文獻(xiàn)】:
期刊論文
[1]基于TensorFlow深度學(xué)習(xí)手寫體數(shù)字識(shí)別及應(yīng)用[J]. 黃睿,陸許明,鄔依林. 電子技術(shù)應(yīng)用. 2018(10)
[2]基于深度學(xué)習(xí)的圖像分類方法[J]. 許少尉,陳思宇. 電子技術(shù)應(yīng)用. 2018(06)
[3]深度卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用[J]. 張順,龔怡宏,王進(jìn)軍. 計(jì)算機(jī)學(xué)報(bào). 2019(03)
[4]深度學(xué)習(xí)框架Caffe在圖像分類中的應(yīng)用[J]. 王茜,張海仙. 現(xiàn)代計(jì)算機(jī)(專業(yè)版). 2016(05)
[5]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽(yáng)明,王正. 計(jì)算機(jī)應(yīng)用研究. 2012(08)
碩士論文
[1]基于Caffe平臺(tái)深度學(xué)習(xí)的人臉識(shí)別研究與實(shí)現(xiàn)[D]. 魏正.西安電子科技大學(xué) 2015
本文編號(hào):3324448
本文鏈接:http://sikaile.net/kejilunwen/sousuoyinqinglunwen/3324448.html
最近更新
教材專著