輕量級卷積神經網絡的目標檢測研究
發(fā)布時間:2021-09-22 04:11
目標檢測是計算視覺主要研究問題之一,其利用特征提取、機器學習、深度學習等技術判斷圖像中目標位置與類別,在生產生活中應用廣泛。基于卷積神經網絡的目標檢測算法因其特征表達能力及魯棒性較強而受到廣泛關注,但其生成的目標檢測模型計算復雜度高、權重參數(shù)多、生成檢測模型規(guī)模大,難以在計算力及內存受限的場景應用。針對上述問題,本文提出一種輕量級的多目標檢測方法IR-YOLO(Inverted Residual YOLO)。首先,利用深度可分離卷積替代常規(guī)卷積,解耦“空間-跨通道”的特征學習過程,以減少參數(shù)存儲量及計算量;其次,引入批量規(guī)范化層,并且基于深度可分離卷積構造反殘差塊,以減少信息損失,提高模型檢測精度;然后,應用6個下采樣層和6個反殘差塊堆疊構建特征提取網絡;此外,借鑒特征金字塔思想,采用多尺度特征圖融合的方式,即深層特征圖通過上采樣操作連接淺層特征圖,最終生成兩種尺度的特征圖;最后,搭建輕量級目標檢測框架,在生成的兩種尺度的特征圖上進行目標檢測。對IR-YOLO算法進行實驗驗證,與改進前算法、YOLO系列算法進行對比實驗,客觀地從檢測速度及精度、計算消耗、模型尺寸四個方面評價其性能。實驗...
【文章來源】:遼寧工程技術大學遼寧省
【文章頁數(shù)】:69 頁
【學位級別】:碩士
【部分圖文】:
Relu函數(shù)及梯度函數(shù)Figure2.5Relufunctionandgradientfunction
遼寧工程技術大學碩士學位論文12由圖2.5可知,Relu函數(shù)輸入小于0時,函數(shù)值為0;輸入大于0時,函數(shù)值為x,使得Relu函數(shù)能夠激活部分神經元,從而增加了稀疏性。且Relu函數(shù)梯度為常數(shù),也使得Relu在反向傳播過程中計算更快。但由于Relu函數(shù)輸入為負數(shù)時,梯度為0,將導致部分神經元不能被激活,從而影響網絡的收斂性。因此,Leaky-Relu函數(shù)在Relu函數(shù)的基礎上進行改進,Leaky-Relu及梯度計算公式為:,0(),0xxfxaxx=(2.5)1,0(),0xfxax=(2.6)Leaky-Relu解決了輸入數(shù)據x0時Relu函數(shù)的梯度消失問題,Leaky-Relu及其梯度函數(shù)曲線如圖2.6所示。圖2.6Leaky-Relu函數(shù)及梯度函數(shù)Figure2.6Leaky-Relufunctionandgradientfunction由圖2.6可知,Leaky-Relu函數(shù)輸入x0時,函數(shù)值為ax,其梯度為a,解決了梯度值為0的問題。2.1.3池化層池化層可以通過刪除特征圖中不重要的樣本從而減少參數(shù)數(shù)量,降低數(shù)據維度。池化計算將原特征圖依據過濾器壓縮成特征值,從而壓縮整個特征圖,則壓縮后圖像尺寸計算公式為:
訓練損失圖對比
【參考文獻】:
期刊論文
[1]深度學習目標檢測方法綜述[J]. 趙永強,饒元,董世鵬,張君毅. 中國圖象圖形學報. 2020(04)
[2]基于深度學習的小目標檢測研究與應用綜述[J]. 劉穎,劉紅燕,范九倫,公衍超,李瑩華,王富平,盧津. 電子學報. 2020(03)
[3]基于神經元容錯度分析的神經網絡裁剪與近似計算技術研究[J]. 王旭,王晶,張偉功. 微電子學與計算機. 2019(11)
[4]基于灰色關聯(lián)分析的卷積神經網絡模型裁剪方法[J]. 黃世青,白瑞林,覃高鄂. 激光與光電子學進展. 2020(04)
[5]卷積神經網絡結構優(yōu)化綜述[J]. 林景棟,吳欣怡,柴毅,尹宏鵬. 自動化學報. 2020(01)
[6]中國圖像工程:2018[J]. 章毓晉. 中國圖象圖形學報. 2019(05)
[7]基于多通道稀疏卷積神經網絡的行人檢測算法[J]. 曹璐,陳明,秦玉芳. 傳感器與微系統(tǒng). 2018(10)
[8]基于改進SSD的交通大場景多目標檢測[J]. 華夏,王新晴,王東,馬昭燁,邵發(fā)明. 光學學報. 2018(12)
[9]醫(yī)學圖像分析深度學習方法研究與挑戰(zhàn)[J]. 田娟秀,劉國才,谷珊珊,鞠忠建,劉勁光,顧冬冬. 自動化學報. 2018(03)
[10]深度學習在目標視覺檢測中的應用進展與展望[J]. 張慧,王坤峰,王飛躍. 自動化學報. 2017(08)
本文編號:3403113
【文章來源】:遼寧工程技術大學遼寧省
【文章頁數(shù)】:69 頁
【學位級別】:碩士
【部分圖文】:
Relu函數(shù)及梯度函數(shù)Figure2.5Relufunctionandgradientfunction
遼寧工程技術大學碩士學位論文12由圖2.5可知,Relu函數(shù)輸入小于0時,函數(shù)值為0;輸入大于0時,函數(shù)值為x,使得Relu函數(shù)能夠激活部分神經元,從而增加了稀疏性。且Relu函數(shù)梯度為常數(shù),也使得Relu在反向傳播過程中計算更快。但由于Relu函數(shù)輸入為負數(shù)時,梯度為0,將導致部分神經元不能被激活,從而影響網絡的收斂性。因此,Leaky-Relu函數(shù)在Relu函數(shù)的基礎上進行改進,Leaky-Relu及梯度計算公式為:,0(),0xxfxaxx=(2.5)1,0(),0xfxax=(2.6)Leaky-Relu解決了輸入數(shù)據x0時Relu函數(shù)的梯度消失問題,Leaky-Relu及其梯度函數(shù)曲線如圖2.6所示。圖2.6Leaky-Relu函數(shù)及梯度函數(shù)Figure2.6Leaky-Relufunctionandgradientfunction由圖2.6可知,Leaky-Relu函數(shù)輸入x0時,函數(shù)值為ax,其梯度為a,解決了梯度值為0的問題。2.1.3池化層池化層可以通過刪除特征圖中不重要的樣本從而減少參數(shù)數(shù)量,降低數(shù)據維度。池化計算將原特征圖依據過濾器壓縮成特征值,從而壓縮整個特征圖,則壓縮后圖像尺寸計算公式為:
訓練損失圖對比
【參考文獻】:
期刊論文
[1]深度學習目標檢測方法綜述[J]. 趙永強,饒元,董世鵬,張君毅. 中國圖象圖形學報. 2020(04)
[2]基于深度學習的小目標檢測研究與應用綜述[J]. 劉穎,劉紅燕,范九倫,公衍超,李瑩華,王富平,盧津. 電子學報. 2020(03)
[3]基于神經元容錯度分析的神經網絡裁剪與近似計算技術研究[J]. 王旭,王晶,張偉功. 微電子學與計算機. 2019(11)
[4]基于灰色關聯(lián)分析的卷積神經網絡模型裁剪方法[J]. 黃世青,白瑞林,覃高鄂. 激光與光電子學進展. 2020(04)
[5]卷積神經網絡結構優(yōu)化綜述[J]. 林景棟,吳欣怡,柴毅,尹宏鵬. 自動化學報. 2020(01)
[6]中國圖像工程:2018[J]. 章毓晉. 中國圖象圖形學報. 2019(05)
[7]基于多通道稀疏卷積神經網絡的行人檢測算法[J]. 曹璐,陳明,秦玉芳. 傳感器與微系統(tǒng). 2018(10)
[8]基于改進SSD的交通大場景多目標檢測[J]. 華夏,王新晴,王東,馬昭燁,邵發(fā)明. 光學學報. 2018(12)
[9]醫(yī)學圖像分析深度學習方法研究與挑戰(zhàn)[J]. 田娟秀,劉國才,谷珊珊,鞠忠建,劉勁光,顧冬冬. 自動化學報. 2018(03)
[10]深度學習在目標視覺檢測中的應用進展與展望[J]. 張慧,王坤峰,王飛躍. 自動化學報. 2017(08)
本文編號:3403113
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3403113.html
最近更新
教材專著