天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于改進(jìn)的端到端卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法研究

發(fā)布時(shí)間:2021-11-05 05:12
  基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法的定義是利用深度卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建模型,之后利用模型對(duì)給定的圖片或視頻中感興趣的目標(biāo)進(jìn)行定位和識(shí)別。根據(jù)算法的結(jié)構(gòu)中是否包含區(qū)域建議模塊,基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法的模型可以劃分為單階段檢測(cè)算法和二階段檢測(cè)算法,兩者在自動(dòng)駕駛、行人重識(shí)別、人臉識(shí)別等領(lǐng)域得到了普遍的應(yīng)用。其中單階段檢測(cè)算法在檢測(cè)速度上相較于二階段檢測(cè)算法占有優(yōu)勢(shì),但是在檢測(cè)準(zhǔn)確率上相對(duì)劣勢(shì),通過(guò)改進(jìn)算法的網(wǎng)絡(luò)結(jié)構(gòu)的方法可以彌補(bǔ)單階段算法的不足。在實(shí)際應(yīng)用中,基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法的模型存在參數(shù)量過(guò)大、占用大量存儲(chǔ)空間的不足,通過(guò)對(duì)算法模型進(jìn)行輕量化改進(jìn),使得算法在滿足準(zhǔn)確率和檢測(cè)速度需求的同時(shí)減少參數(shù)量,從而降低模型的存儲(chǔ)大小。因此,針對(duì)基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法的研究,在學(xué)術(shù)上和實(shí)際應(yīng)用上都有著重要的價(jià)值。本文主要針對(duì)的是單階段檢測(cè)算法中的YOLO v3和FSSD進(jìn)行結(jié)構(gòu)的改進(jìn)以提升算法的檢測(cè)速度和準(zhǔn)確率,主要研究工作如下:1、提出了一種基于改進(jìn)的YOLO v3的目標(biāo)檢測(cè)算法。該方法主要是利用深度可分離卷積構(gòu)建的MobileNet網(wǎng)絡(luò)對(duì)YOLO v3算法中的... 

【文章來(lái)源】:湖北工業(yè)大學(xué)湖北省

【文章頁(yè)數(shù)】:70 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于改進(jìn)的端到端卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法研究


本文組織結(jié)構(gòu)圖

網(wǎng)絡(luò)結(jié)構(gòu)圖,網(wǎng)絡(luò)結(jié)構(gòu),算法,全連接


湖北工業(yè)大學(xué)學(xué)術(shù)碩士學(xué)位論文9表2.1OverFeat快速版結(jié)構(gòu)表網(wǎng)絡(luò)層1234567輸出階段conv+maxconv+maxconvconvconv+max全連接全連接全連接通道數(shù)9625651210241024307240961000卷積核大小11×115×53×33×33×3---卷積步長(zhǎng)4×41×11×11×11×1---池化核大小2×22×2--2×2---池化步長(zhǎng)2×22×2--2×2---填充大小--1×1×1×11×1×1×11×1×1×1---輸入大小231×23124×2412×1212×1212×126×61×11×12015年,Joseph和Girshick等人提出了名為YOLO[11]的基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法,該算法的網(wǎng)絡(luò)模型是早期的統(tǒng)一結(jié)構(gòu)的典型的單階段目標(biāo)檢測(cè)算法。算法的網(wǎng)絡(luò)結(jié)構(gòu)為一個(gè)單一的卷積神經(jīng)網(wǎng)絡(luò),定位和分類的分支共享同一個(gè)網(wǎng)絡(luò)模型產(chǎn)生的特征圖。YOLO的模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖2.3所示[11]。圖2.3YOLO網(wǎng)絡(luò)結(jié)構(gòu)YOLO算法的核心優(yōu)勢(shì)在于檢測(cè)速度快,通常版本的YOLO算法檢測(cè)速度可以達(dá)到每秒45張圖片。而極速版本的YOLO算法,其檢測(cè)速度甚至可以達(dá)到每秒155張圖,這是因?yàn)閅OLO算法的設(shè)計(jì)初衷是為了滿足實(shí)時(shí)檢測(cè)的需求。YOLO算法雖然在速度上與同時(shí)期最好的模型相比具有很大的優(yōu)勢(shì),但是在準(zhǔn)確率上相交與同時(shí)期的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法,例如FasterRCNN等,相對(duì)較弱。

示意圖,瓶頸,殘差,模塊


湖北工業(yè)大學(xué)學(xué)術(shù)碩士學(xué)位論文13具體的改進(jìn)內(nèi)容為:1、將深度可分離卷積模塊的輸出部分的ReLU6激活函數(shù)替換成線性的激活函數(shù),減少ReLU函數(shù)對(duì)低維度張量計(jì)算所導(dǎo)致的信息丟失;2、在深度可分離卷積模塊之前引入一個(gè)1×1的逐點(diǎn)卷積操作來(lái)提升輸入張量的通道數(shù),即對(duì)輸入的張量進(jìn)行維度提升;3、在模塊中引入跳躍連接,將模塊的輸入傳到模塊的末尾部分與經(jīng)過(guò)模塊處理的結(jié)果通過(guò)相加的方式進(jìn)行合并(當(dāng)步長(zhǎng)為2時(shí),模塊不需要這一步驟)。線性瓶頸的反向殘差模塊[39]的結(jié)構(gòu)如圖2.5所示。圖2.5線性瓶頸的反向殘差模塊結(jié)構(gòu)示意圖2.2.2ShufflenetShuffleNet[26]是由曠世公司提出的高效計(jì)算的輕量化網(wǎng)絡(luò)模型,主要應(yīng)用于計(jì)算能力和存儲(chǔ)能力有限的移動(dòng)設(shè)備上。表2.5為ShuffleNet網(wǎng)絡(luò)結(jié)構(gòu)[26]的表格。ShuffleNet的網(wǎng)絡(luò)結(jié)構(gòu)中有兩個(gè)核心的創(chuàng)新之處,其一是逐點(diǎn)分組卷積,另一個(gè)是通道隨機(jī)洗牌[26]。逐點(diǎn)分組卷積的操作主要是將特征圖沿著通道維度進(jìn)行劃分,劃分后的每組特征圖由對(duì)應(yīng)的卷積核進(jìn)行處理和計(jì)算,這樣可以實(shí)現(xiàn)多個(gè)卷積的并行計(jì)算,提升卷積計(jì)算的效率。通道隨機(jī)洗牌的操作主要是將各個(gè)分組計(jì)算得到的特征圖進(jìn)行隨機(jī)的混合,再傳入到下一個(gè)分組卷積的網(wǎng)絡(luò)層中。在

【參考文獻(xiàn)】:
期刊論文
[1]結(jié)合反殘差塊和YOLOv3的目標(biāo)檢測(cè)法[J]. 焦天馳,李強(qiáng),林茂松,賀賢珍.  傳感器與微系統(tǒng). 2019(09)
[2]基于深度融合的顯著性目標(biāo)檢測(cè)算法[J]. 張冬明,靳國(guó)慶,代鋒,袁慶升,包秀國(guó),張勇東.  計(jì)算機(jī)學(xué)報(bào). 2019(09)
[3]改進(jìn)的SSD航拍目標(biāo)檢測(cè)方法[J]. 裴偉,許晏銘,朱永英,王鵬乾,魯明羽,李飛.  軟件學(xué)報(bào). 2019(03)
[4]面向小目標(biāo)的多尺度Faster-RCNN檢測(cè)算法[J]. 黃繼鵬,史穎歡,高陽(yáng).  計(jì)算機(jī)研究與發(fā)展. 2019(02)
[5]基于改進(jìn)特征金字塔的Mask R-CNN目標(biāo)檢測(cè)方法[J]. 任之俊,藺素珍,李大威,王麗芳,左健宏.  激光與光電子學(xué)進(jìn)展. 2019(04)
[6]深度卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用[J]. 張順,龔怡宏,王進(jìn)軍.  計(jì)算機(jī)學(xué)報(bào). 2019(03)



本文編號(hào):3477143

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3477143.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶45973***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com