天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于深度神經(jīng)網(wǎng)絡(luò)的多尺度目標(biāo)檢測(cè)算法研究

發(fā)布時(shí)間:2020-11-12 03:42
   目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)研究熱點(diǎn),它實(shí)現(xiàn)圖像中目標(biāo)的定位與分類。目標(biāo)檢測(cè)在生活中的應(yīng)用比較廣泛,生活中的目標(biāo)具有多尺度性,不同尺度目標(biāo)給目標(biāo)檢測(cè)帶來(lái)了一定的難度。目前絕大多數(shù)的目標(biāo)檢測(cè)算法都使用深度神經(jīng)網(wǎng)絡(luò),但由于網(wǎng)絡(luò)較深,對(duì)小目標(biāo)的檢測(cè)分類不利。因此,本文為了解決多尺度目標(biāo)檢測(cè)問(wèn)題,提高小尺度目標(biāo)檢測(cè)精度,同時(shí)減少計(jì)算量,主要做了以下工作:(1)首先介紹目標(biāo)檢測(cè)的研究背景及意義,簡(jiǎn)述深度神經(jīng)網(wǎng)絡(luò)的組成,以及基于候選框的目標(biāo)識(shí)檢測(cè)過(guò)程。指出目前多尺度目標(biāo)檢測(cè)是生活中的常見(jiàn)檢測(cè)問(wèn)題,而多尺度目標(biāo)檢測(cè)存在一定的難點(diǎn),常用的深度神經(jīng)網(wǎng)絡(luò)最后一層特征不能很好的表示出小目標(biāo)的位置,忽略了小目標(biāo)問(wèn)題。本文針對(duì)多尺度目標(biāo)檢測(cè)的部分難點(diǎn)提出了可行的解決辦法。(2)根據(jù)深度神經(jīng)網(wǎng)絡(luò)的特征圖在不同層有不同程度的語(yǔ)義表示,淺層卷積層特征圖與深層卷積層特征圖對(duì)不同尺度的目標(biāo)特征表示有所差異,本文提出精簡(jiǎn)的特征金字塔區(qū)域建議網(wǎng)絡(luò)(Concise Feature Pyramid Region Proposal Netwotk,CFPRPN)進(jìn)行多尺度目標(biāo)檢測(cè)算法。它將圖像金字塔和特征金字塔進(jìn)行單模型結(jié)合,對(duì)不同尺度的目標(biāo)在合適的卷積層進(jìn)行分類和檢測(cè)。在得到分類預(yù)測(cè)框后,進(jìn)行基于IOU損失的校正定位,最后得到更加精準(zhǔn)的目標(biāo)定位。實(shí)驗(yàn)結(jié)果表明,本文方法對(duì)于多尺度目標(biāo)檢測(cè)是有效的,特別是對(duì)小目標(biāo)的檢測(cè),有了很大的提高。(3)為了進(jìn)一步提高多尺度目標(biāo)的檢測(cè)精度,本文將對(duì)前文的圖像金字塔和特征金字塔進(jìn)行多個(gè)模型融合,提出了基于模型融合的CFPRPN算法,將小尺度目標(biāo)模型與CFPRPN模型進(jìn)行融合,進(jìn)行多尺度目標(biāo)的識(shí)檢測(cè)。進(jìn)一步提高了小尺度目標(biāo)的檢測(cè)率,得到有效的多尺度目標(biāo)檢測(cè)結(jié)果,提高了多尺度目標(biāo)檢測(cè)精度。
【學(xué)位單位】:合肥工業(yè)大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2019
【中圖分類】:TP391.41;TP183
【部分圖文】:

網(wǎng)絡(luò)模型


圖 2. 3 LeNet 網(wǎng)絡(luò)模型Fig 2.3 LeNet network modelAlexNet 網(wǎng)絡(luò)是 2012 年由 Alex Krizhevsk[19]提出并將它應(yīng)用到 ImageNet 圖像分類競(jìng)賽中獲得了第一名。AlexNet 的網(wǎng)絡(luò)模型如圖 2.4 所示,AlexNet 網(wǎng)絡(luò)相對(duì)于 LeNet,在數(shù)據(jù)處理方面,它使用了數(shù)據(jù)增強(qiáng)技術(shù),包括圖片水平翻轉(zhuǎn),隨機(jī)裁剪和平移變換等。同時(shí)它對(duì)數(shù)據(jù)增強(qiáng)后的圖片進(jìn)行局部歸一化 LRN,提高模型的泛化能力。在激活函數(shù)方面,AlexNet 網(wǎng)絡(luò)使用 ReLU 激活函數(shù)來(lái)代替 sigmoid 函數(shù)和 tanh 函數(shù),解決了梯度消失問(wèn)題。在池化層方面,它選擇的是最大池化方式,這使得提取的特征更加明顯,而且池化層采用的是覆蓋池化,池化核大小大于步長(zhǎng),這使得網(wǎng)絡(luò)不容易過(guò)擬合。同時(shí)在訓(xùn)練時(shí)使用 dropout 函數(shù),對(duì)于某一層神經(jīng)元,隨機(jī)忽略一部分神經(jīng)元,保持輸入和輸出神經(jīng)元個(gè)數(shù)不變,更新參數(shù),再次訓(xùn)練時(shí)依舊隨機(jī)忽略部分神經(jīng)元,dropout 函數(shù)應(yīng)用也能防止模型的過(guò)擬合。AlexNet 型的成功應(yīng)用,掀起了神經(jīng)網(wǎng)絡(luò)的熱潮。

網(wǎng)絡(luò)模型


圖 2. 3 LeNet 網(wǎng)絡(luò)模型Fig 2.3 LeNet network modelAlexNet 網(wǎng)絡(luò)是 2012 年由 Alex Krizhevsk[19]提出并將它應(yīng)用到 ImageNet 圖像分類競(jìng)賽中獲得了第一名。AlexNet 的網(wǎng)絡(luò)模型如圖 2.4 所示,AlexNet 網(wǎng)絡(luò)相對(duì)于 LeNet,在數(shù)據(jù)處理方面,它使用了數(shù)據(jù)增強(qiáng)技術(shù),包括圖片水平翻轉(zhuǎn),隨機(jī)裁剪和平移變換等。同時(shí)它對(duì)數(shù)據(jù)增強(qiáng)后的圖片進(jìn)行局部歸一化 LRN,提高模型的泛化能力。在激活函數(shù)方面,AlexNet 網(wǎng)絡(luò)使用 ReLU 激活函數(shù)來(lái)代替 sigmoid 函數(shù)和 tanh 函數(shù),解決了梯度消失問(wèn)題。在池化層方面,它選擇的是最大池化方式,這使得提取的特征更加明顯,而且池化層采用的是覆蓋池化,池化核大小大于步長(zhǎng),這使得網(wǎng)絡(luò)不容易過(guò)擬合。同時(shí)在訓(xùn)練時(shí)使用 dropout 函數(shù),對(duì)于某一層神經(jīng)元,隨機(jī)忽略一部分神經(jīng)元,保持輸入和輸出神經(jīng)元個(gè)數(shù)不變,更新參數(shù),再次訓(xùn)練時(shí)依舊隨機(jī)忽略部分神經(jīng)元,dropout 函數(shù)應(yīng)用也能防止模型的過(guò)擬合。AlexNet 型的成功應(yīng)用,掀起了神經(jīng)網(wǎng)絡(luò)的熱潮。

模型圖,模型,卷積分,相關(guān)理論


ogleNet 引入分類節(jié)點(diǎn),它將中間某層輸出作為分類,并且以一定的權(quán)重加的分類結(jié)果中。GoogleNet 比 VGGNet 更深,它是 22 層深的網(wǎng)絡(luò)。Goog模型進(jìn)行了多次改進(jìn),因此它有四個(gè)版本,GoogleNet V1 到 GoogleNet V4通過(guò)卷積分解,降低特征圖的大小,還與后面 ResNet 網(wǎng)絡(luò)的殘差塊的結(jié)了一個(gè)穩(wěn)健的 GoogleNet 網(wǎng)絡(luò)。第二章 目標(biāo)檢測(cè)相關(guān)理論
【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 舒朗;郭春生;;基于回歸與深度強(qiáng)化學(xué)習(xí)的目標(biāo)檢測(cè)算法[J];軟件導(dǎo)刊;2018年12期

2 王鈐;張穗華;雷絲雨;鄧博文;;一種基于數(shù)據(jù)聚類的目標(biāo)檢測(cè)算法[J];機(jī)電產(chǎn)品開(kāi)發(fā)與創(chuàng)新;2016年06期

3 孫林;鮑金河;劉一超;;高光譜圖像目標(biāo)檢測(cè)算法分析[J];測(cè)繪科學(xué);2012年01期

4 張桂林,熊艷,曹偉,李強(qiáng);一種評(píng)價(jià)自動(dòng)目標(biāo)檢測(cè)算法性能的方法[J];華中理工大學(xué)學(xué)報(bào);1994年05期

5 許云;李彬;;基于背景遺傳模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J];自動(dòng)化技術(shù)與應(yīng)用;2017年03期

6 杜佳;宋春林;;一種改進(jìn)的毫米波雷達(dá)多目標(biāo)檢測(cè)算法[J];通信技術(shù);2015年07期

7 諸葛霞;向健勇;;基于分形特征的目標(biāo)檢測(cè)算法概述及仿真[J];紅外技術(shù);2006年10期

8 張寬;滕國(guó)偉;;基于位置預(yù)測(cè)的目標(biāo)檢測(cè)算法[J];電子測(cè)量技術(shù);2019年19期

9 丁業(yè)兵;;運(yùn)動(dòng)目標(biāo)檢測(cè)算法綜述[J];科技資訊;2019年30期

10 方路平;何杭江;周國(guó)民;;目標(biāo)檢測(cè)算法研究綜述[J];計(jì)算機(jī)工程與應(yīng)用;2018年13期


相關(guān)博士學(xué)位論文 前10條

1 張麗麗;基于空譜聯(lián)合特性的高光譜圖像異常目標(biāo)檢測(cè)算法研究[D];哈爾濱工程大學(xué);2018年

2 趙紅燕;被動(dòng)多基站雷達(dá)目標(biāo)檢測(cè)算法研究[D];西安電子科技大學(xué);2017年

3 郭小路;多通道雷達(dá)干擾抑制與目標(biāo)檢測(cè)算法研究[D];西安電子科技大學(xué);2017年

4 李健;星載寬幅SAR及目標(biāo)檢測(cè)算法研究[D];西安電子科技大學(xué);2018年

5 潘雪莉;機(jī)載環(huán)視SAR海面特性和艦船目標(biāo)檢測(cè)算法研究[D];西安電子科技大學(xué);2018年

6 陳宇環(huán);聯(lián)合時(shí)空特征的視覺(jué)顯著目標(biāo)檢測(cè)算法研究[D];深圳大學(xué);2018年

7 曾冬冬;視頻監(jiān)控中的前景目標(biāo)檢測(cè)算法研究[D];中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院長(zhǎng)春光學(xué)精密機(jī)械與物理研究所);2019年

8 王志虎;基于顯著性的運(yùn)動(dòng)目標(biāo)檢測(cè)算法研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2015年

9 郭明瑋;基于視覺(jué)記憶的目標(biāo)檢測(cè)算法:一個(gè)特征學(xué)習(xí)與特征聯(lián)想的過(guò)程[D];中國(guó)科學(xué)技術(shù)大學(xué);2014年

10 王俊強(qiáng);圖像中人體目標(biāo)檢測(cè)算法研究[D];北京郵電大學(xué);2012年


相關(guān)碩士學(xué)位論文 前10條

1 劉業(yè)鵬;基于深度學(xué)習(xí)的輸電線路目標(biāo)檢測(cè)方法研究[D];華北電力大學(xué);2019年

2 張江勇;基于深度學(xué)習(xí)的動(dòng)車關(guān)鍵部位故障圖像檢測(cè)[D];電子科技大學(xué);2019年

3 王威;基于視覺(jué)的車輛智能檢測(cè)技術(shù)的研究[D];電子科技大學(xué);2019年

4 魏墨非;基于深度學(xué)習(xí)目標(biāo)檢測(cè)的優(yōu)化研究與實(shí)現(xiàn)[D];電子科技大學(xué);2019年

5 侯小春;基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法研究[D];電子科技大學(xué);2019年

6 石齊雙;城市管理案件圖像目標(biāo)檢測(cè)算法研究[D];桂林電子科技大學(xué);2019年

7 莫燁;基于生成對(duì)抗網(wǎng)絡(luò)的復(fù)雜環(huán)境目標(biāo)檢測(cè)算法研究[D];桂林電子科技大學(xué);2019年

8 徐首韜;基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法研究[D];合肥工業(yè)大學(xué);2019年

9 方璐;基于深度神經(jīng)網(wǎng)絡(luò)的多尺度目標(biāo)檢測(cè)算法研究[D];合肥工業(yè)大學(xué);2019年

10 王曉蕓;基于OpenCL的深度學(xué)習(xí)目標(biāo)檢測(cè)算法加速方法研究[D];北京交通大學(xué);2019年



本文編號(hào):2880189

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2880189.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶a501d***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com