基于遷移學習的箱包五金件圖像識別方法及其應(yīng)用研究
發(fā)布時間:2021-12-01 22:30
箱包制造企業(yè)在生成各類各款箱包產(chǎn)品時不僅離不開五金件而且使用率極高。但目前這些生產(chǎn)箱包的規(guī)模不大的中小企業(yè)進行五金件選擇時基本采用的是人工挑選需要的五金件。人工挑選五金件不僅導(dǎo)致企業(yè)成本上升,而且影響產(chǎn)品的生產(chǎn)效率,從而影響企業(yè)的經(jīng)營成本提升和利潤降低。因此,研發(fā)一套能自動挑選箱包產(chǎn)品需要的五金件的系統(tǒng)是有應(yīng)用價值的。本文基于箱包企業(yè)常用的五金件圖像研究一種有效的五金件圖像進行圖像識別模型和研發(fā)一個基于Web的箱包五金件圖像識別系統(tǒng)。具體研究工作和取得的階段性成果說明如下。1、研究分析了深度學習的四個模型和箱包五金件圖像數(shù)據(jù)集的特點。首先,較深入研究分析AlexNet網(wǎng)絡(luò)、GoogLeNet網(wǎng)絡(luò)、ResNet網(wǎng)絡(luò)、MobileNet網(wǎng)絡(luò)這四個先進的深度學習模型,并研究基于這些模型實現(xiàn)遷移學習模型的技術(shù)。其次,研究箱包五金件圖像數(shù)據(jù)集并對數(shù)據(jù)集進行預(yù)處理和層次化,以更好訓練有效的基于遷移學習的箱包五金件圖像識別模型。2、提出了基于遷移學習的箱包五金件圖像識別模型。針對目前從箱包企業(yè)采集到的五金件圖像數(shù)據(jù)集不夠大,為了更有效地實現(xiàn)基于深度學習進行箱包五金件圖像識別,本文在對深度學習尤其是遷...
【文章來源】:南昌大學江西省 211工程院校
【文章頁數(shù)】:74 頁
【學位級別】:碩士
【部分圖文】:
圖2.1?AlexNet的網(wǎng)絡(luò)結(jié)構(gòu)圖??
卷積核,分別是1x1,3x3,?5x5,而且在卷積層中采用了不同的填充值,??還使用了相同的步長1,卷積后可以使得維度的特征一樣。在特征響應(yīng)圖的后??面,Inception模型連接了?3個不同卷積核大小的卷積層與一個池化層,然后在??進行非線性變化的時候使用了?ReLU激活函數(shù),最后將所有的組裝輸出。在圖??2.2中可以看到inception結(jié)構(gòu)進行特征提取時使用了?4種不同的核,而且還采用??了?1x1卷積核進行稀疏傳輸,這樣可以減少參數(shù)的計算量。??GoogLeNet的整體架構(gòu)如圖2.3所7K,GoogLeNet?—共含有了?9個inception??模塊,而且每個卷積層后面都加上ReLu激活函數(shù),在inception模塊也同樣使??用了?ReLu激活函數(shù)。GoogLeNet中含有的inception模塊進行通道降維時在卷??積之前使用1x1卷積,是因為多個卷積層會使得輸出時特征響應(yīng)圖通道堆疊,??特征變得臃腫,這樣無疑加大了參數(shù)的計算量。從圖中可以看出,1x1卷積,??3x3卷積和5x5卷積后面連接的是輸出的通道數(shù),在GoogLeNet網(wǎng)絡(luò)中一共使??用了3個損失函數(shù)計算單元,在反向傳播中,會出現(xiàn)梯度消失的問題,為了有??效的解決此問題,可以在中間層加入損失單元,這樣可以加快模型的收斂速??度,使得更好的訓練網(wǎng)絡(luò)。在訓練網(wǎng)絡(luò)的過程中最終的損失函數(shù)是權(quán)重0.3與??中間的兩個損失單元相乘,然后計算結(jié)果加到最后輸出的損失單元中。??./?(?77?-?//??.111.1內(nèi)?W?W?!?/。浚В。?!?N?M?|?4|?|IU;?P-UK4|||??|?|K?|?,,,?!??:,臟?U?-:?—」
訓練出來的。ResNet網(wǎng)絡(luò)的動機是網(wǎng)絡(luò)退化問題,即傳統(tǒng)網(wǎng)??絡(luò)隨著層數(shù)增多,準確率不升反降。ResNet使用恒等映射(Identity?mapping)收斂??速度更快,而且還不額外增加參數(shù)。在網(wǎng)絡(luò)中某一位置添加一條shortcut??connection,將前層的特征直接傳遞過來,這個新連接稱為Identity?mapping,如圖??2.4所示:??■■??weight?layer?\??JT(X)?jrelu?x??weighjlayer?1?J?identity??圖2.4殘差單元??假設(shè);c,代表第f層輸入的特征響應(yīng)圖,F〇c,)代表預(yù)測值,在圖2.4的結(jié)構(gòu)??中,第〖層輸出和第/?+?fl層的輸出公式如下:??^■+1?+?^?(2-5)??n-\??xi+n=xi+yZ(xi+J)?(2.6)??7=〇??ResNet網(wǎng)絡(luò)比較常用的是50-layer,101-layer,?152-layer。他們都是由上述??的殘差模塊堆疊在一起實現(xiàn)的。下面使用50-layer的ResNet作為例子,其結(jié)構(gòu)??如表2.1所示:??表2.1?ResNet-50網(wǎng)絡(luò)結(jié)構(gòu)??過濾器?|輸出尺寸?過濾器參數(shù)??Convl?112*112?7*7*64,?stride=2??Conv2_x?56*56?3*3?max?pooling,?stride?=2??10??
【參考文獻】:
期刊論文
[1]基于遷移學習的語言文本識別分類研究與實現(xiàn)[J]. 楊顯華,丁春利. 電子技術(shù)與軟件工程. 2019(20)
[2]基于深度學習的圖像檢索研究[J]. 楊馥溢,何嘉. 計算機與數(shù)字工程. 2019(09)
[3]面向移動端的輕量化卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[J]. 畢鵬程,羅健欣,陳衛(wèi)衛(wèi),鄧益儂,劉禎. 信息技術(shù)與網(wǎng)絡(luò)安全. 2019(09)
[4]基于改進的卷積神經(jīng)網(wǎng)絡(luò)的交通標志檢測與識別算法[J]. 盧飛宇. 工業(yè)控制計算機. 2019(06)
[5]基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學習的色織物疵點檢測[J]. 羅俊麗,路凱. 上海紡織科技. 2019(06)
[6]基于遷移學習的番茄葉片病害圖像分類[J]. 王艷玲,張宏立,劉慶飛,張亞爍. 中國農(nóng)業(yè)大學學報. 2019(06)
[7]基于深度神經(jīng)網(wǎng)絡(luò)的肺炎圖像識別模型[J]. 何新宇,張曉龍. 計算機應(yīng)用. 2019(06)
[8]基于深度學習的快速植物圖像識別[J]. 張雪芹,陳嘉豪,諸葛晶晶,余麗君. 華東理工大學學報(自然科學版). 2018(06)
[9]基于卷積神經(jīng)網(wǎng)絡(luò)的手寫漢字識別研究[J]. 楊佶. 信息技術(shù)與信息化. 2018(12)
[10]TensorFlow在圖像識別系統(tǒng)中的應(yīng)用[J]. 邢艷芳,段紅秀,何光威. 計算機技術(shù)與發(fā)展. 2019(05)
碩士論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類方法研究[D]. 陳采璐.哈爾濱工業(yè)大學 2019
[2]基于深度學習的五金件圖像檢索方法及其應(yīng)用研究[D]. 何智海.南昌大學 2019
[3]基于遷移學習的人臉識別研究[D]. 姜慧.青島科技大學 2018
[4]隧道裂縫圖像智能匹配與變化趨勢檢測算法研究[D]. 王春薇.北京交通大學 2017
[5]基于圖像分析的路面裂縫檢測方法與識別研究[D]. 姜吉榮.南京郵電大學 2016
本文編號:3527179
【文章來源】:南昌大學江西省 211工程院校
【文章頁數(shù)】:74 頁
【學位級別】:碩士
【部分圖文】:
圖2.1?AlexNet的網(wǎng)絡(luò)結(jié)構(gòu)圖??
卷積核,分別是1x1,3x3,?5x5,而且在卷積層中采用了不同的填充值,??還使用了相同的步長1,卷積后可以使得維度的特征一樣。在特征響應(yīng)圖的后??面,Inception模型連接了?3個不同卷積核大小的卷積層與一個池化層,然后在??進行非線性變化的時候使用了?ReLU激活函數(shù),最后將所有的組裝輸出。在圖??2.2中可以看到inception結(jié)構(gòu)進行特征提取時使用了?4種不同的核,而且還采用??了?1x1卷積核進行稀疏傳輸,這樣可以減少參數(shù)的計算量。??GoogLeNet的整體架構(gòu)如圖2.3所7K,GoogLeNet?—共含有了?9個inception??模塊,而且每個卷積層后面都加上ReLu激活函數(shù),在inception模塊也同樣使??用了?ReLu激活函數(shù)。GoogLeNet中含有的inception模塊進行通道降維時在卷??積之前使用1x1卷積,是因為多個卷積層會使得輸出時特征響應(yīng)圖通道堆疊,??特征變得臃腫,這樣無疑加大了參數(shù)的計算量。從圖中可以看出,1x1卷積,??3x3卷積和5x5卷積后面連接的是輸出的通道數(shù),在GoogLeNet網(wǎng)絡(luò)中一共使??用了3個損失函數(shù)計算單元,在反向傳播中,會出現(xiàn)梯度消失的問題,為了有??效的解決此問題,可以在中間層加入損失單元,這樣可以加快模型的收斂速??度,使得更好的訓練網(wǎng)絡(luò)。在訓練網(wǎng)絡(luò)的過程中最終的損失函數(shù)是權(quán)重0.3與??中間的兩個損失單元相乘,然后計算結(jié)果加到最后輸出的損失單元中。??./?(?77?-?//??.111.1內(nèi)?W?W?!?/。浚В。?!?N?M?|?4|?|IU;?P-UK4|||??|?|K?|?,,,?!??:,臟?U?-:?—」
訓練出來的。ResNet網(wǎng)絡(luò)的動機是網(wǎng)絡(luò)退化問題,即傳統(tǒng)網(wǎng)??絡(luò)隨著層數(shù)增多,準確率不升反降。ResNet使用恒等映射(Identity?mapping)收斂??速度更快,而且還不額外增加參數(shù)。在網(wǎng)絡(luò)中某一位置添加一條shortcut??connection,將前層的特征直接傳遞過來,這個新連接稱為Identity?mapping,如圖??2.4所示:??■■??weight?layer?\??JT(X)?jrelu?x??weighjlayer?1?J?identity??圖2.4殘差單元??假設(shè);c,代表第f層輸入的特征響應(yīng)圖,F〇c,)代表預(yù)測值,在圖2.4的結(jié)構(gòu)??中,第〖層輸出和第/?+?fl層的輸出公式如下:??^■+1?+?^?(2-5)??n-\??xi+n=xi+yZ(xi+J)?(2.6)??7=〇??ResNet網(wǎng)絡(luò)比較常用的是50-layer,101-layer,?152-layer。他們都是由上述??的殘差模塊堆疊在一起實現(xiàn)的。下面使用50-layer的ResNet作為例子,其結(jié)構(gòu)??如表2.1所示:??表2.1?ResNet-50網(wǎng)絡(luò)結(jié)構(gòu)??過濾器?|輸出尺寸?過濾器參數(shù)??Convl?112*112?7*7*64,?stride=2??Conv2_x?56*56?3*3?max?pooling,?stride?=2??10??
【參考文獻】:
期刊論文
[1]基于遷移學習的語言文本識別分類研究與實現(xiàn)[J]. 楊顯華,丁春利. 電子技術(shù)與軟件工程. 2019(20)
[2]基于深度學習的圖像檢索研究[J]. 楊馥溢,何嘉. 計算機與數(shù)字工程. 2019(09)
[3]面向移動端的輕量化卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[J]. 畢鵬程,羅健欣,陳衛(wèi)衛(wèi),鄧益儂,劉禎. 信息技術(shù)與網(wǎng)絡(luò)安全. 2019(09)
[4]基于改進的卷積神經(jīng)網(wǎng)絡(luò)的交通標志檢測與識別算法[J]. 盧飛宇. 工業(yè)控制計算機. 2019(06)
[5]基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學習的色織物疵點檢測[J]. 羅俊麗,路凱. 上海紡織科技. 2019(06)
[6]基于遷移學習的番茄葉片病害圖像分類[J]. 王艷玲,張宏立,劉慶飛,張亞爍. 中國農(nóng)業(yè)大學學報. 2019(06)
[7]基于深度神經(jīng)網(wǎng)絡(luò)的肺炎圖像識別模型[J]. 何新宇,張曉龍. 計算機應(yīng)用. 2019(06)
[8]基于深度學習的快速植物圖像識別[J]. 張雪芹,陳嘉豪,諸葛晶晶,余麗君. 華東理工大學學報(自然科學版). 2018(06)
[9]基于卷積神經(jīng)網(wǎng)絡(luò)的手寫漢字識別研究[J]. 楊佶. 信息技術(shù)與信息化. 2018(12)
[10]TensorFlow在圖像識別系統(tǒng)中的應(yīng)用[J]. 邢艷芳,段紅秀,何光威. 計算機技術(shù)與發(fā)展. 2019(05)
碩士論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類方法研究[D]. 陳采璐.哈爾濱工業(yè)大學 2019
[2]基于深度學習的五金件圖像檢索方法及其應(yīng)用研究[D]. 何智海.南昌大學 2019
[3]基于遷移學習的人臉識別研究[D]. 姜慧.青島科技大學 2018
[4]隧道裂縫圖像智能匹配與變化趨勢檢測算法研究[D]. 王春薇.北京交通大學 2017
[5]基于圖像分析的路面裂縫檢測方法與識別研究[D]. 姜吉榮.南京郵電大學 2016
本文編號:3527179
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3527179.html
最近更新
教材專著