天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法研究與應(yīng)用

發(fā)布時間:2020-06-11 21:40
【摘要】:目標(biāo)檢測技術(shù)是計算機視覺領(lǐng)域中的研究熱點,隨著深度學(xué)習(xí)技術(shù)的興起,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法逐漸代替?zhèn)鹘y(tǒng)目標(biāo)檢測算法。這些算法或具有高檢測精度,或?qū)崟r性較好,如何將算法應(yīng)用于實際也是研究的熱點。在實際應(yīng)用中,有些場景目標(biāo)檢測難度大,需要檢測精度較高的算法;有些場景對算法在移動端實時性要求較高,需要檢測速度較快的算法。針對檢測難度大的場景,本文以遙感圖像中的飛機為檢測目標(biāo),提出一種高精度目標(biāo)檢測算法Dense-YOLO,并使用此算法完成遙感目標(biāo)檢測與分析系統(tǒng)設(shè)計。針對在移動端需實時檢測的場景,本文以駕駛員異常行為作為目標(biāo),通過對Dense-YOLO算法進(jìn)行優(yōu)化,提出可在嵌入式硬件平臺上實時檢測的目標(biāo)檢測算法Realtime-YOLO,并使用此算法在嵌入式硬件平臺NVIDIA Jetson TX2上完成駕駛員行為監(jiān)測系統(tǒng)設(shè)計。本文的主要工作與創(chuàng)新性研究成果如下:1)為了使提出的目標(biāo)檢測算法有較高精度,在算法設(shè)計中引入多尺度檢測的思想,使用K-means維度聚類算法對自建的遙感圖像中飛機目標(biāo)數(shù)據(jù)集進(jìn)行聚類分析,選出最適合的檢測尺度與先驗框大小。在算法的基礎(chǔ)網(wǎng)絡(luò)設(shè)計中引入密集連接的思想,提出了一種帶有殘差連接與密集連接的深度基礎(chǔ)網(wǎng)絡(luò),解決網(wǎng)絡(luò)過深帶來的梯度爆炸問題并加強網(wǎng)絡(luò)中信息流的傳遞。將多尺度檢測方式與基礎(chǔ)網(wǎng)絡(luò)結(jié)合,設(shè)計出高精度目標(biāo)檢測算法Dense-YOLO。實驗表明此算法對遙感圖像中飛機目標(biāo)進(jìn)行檢測時精度高于其它經(jīng)典目標(biāo)檢測算法。使用此算法結(jié)合圖形類庫QT在計算機上完成遙感目標(biāo)檢測與分析系統(tǒng)設(shè)計,此系統(tǒng)可以快速分析一幅遙感圖像中的目標(biāo)個數(shù)、大小、位置、圖像切片等信息。2)為了使提出的目標(biāo)檢測算法可在嵌入式硬件平臺實時檢測,針對嵌入式硬件平臺資源有限的特點,對Dense-YOLO算法中多尺度檢測機制和基礎(chǔ)網(wǎng)絡(luò)進(jìn)行優(yōu)化,提出一種輕量級嵌入式實時目標(biāo)檢測算法Realtime-YOLO。實驗表明此算法保證可在嵌入式硬件平臺NVIDIA Jetson TX2上實時檢測目標(biāo)的前提下,檢測精度也相對較高。應(yīng)用此算法完成駕駛員異常行為監(jiān)測系統(tǒng)的設(shè)計,此系統(tǒng)有智能判斷駕駛員異常行為并語音報警、截圖取證等功能。
【圖文】:

直方圖,目標(biāo)檢測,算法分類,經(jīng)典


在圖 1.2 中列舉的常用的傳統(tǒng)目標(biāo)檢測算法有三種,包括尺度不變特征(ScalInvariant Feature Transform, SIFT)[10]、方向梯度直方圖(Histogram of Oriented Gradient,HOG)[11]、DPM(Deformable Parts Model)[12]。1999 年 David G.Lowe 提出了尺度不變特征 SIFT 算法,在 2004 年,SIFT 算法得到了改進(jìn),為了完成特征提取的工作而構(gòu)建一個尺度空間[13],這樣使 SIFT 算法對尺度與方向都具有不變性。ThomaMoranduzzo[14],姬曉飛[15]等人利用了尺度不變特征提取 SIFT 特征實現(xiàn)了多目標(biāo)的檢測。但使用此方法完成目標(biāo)檢測的速度較慢,因為提取 SIFT 特征時要進(jìn)行大量重復(fù)的計算。將 HOG 特征與支持向量機分類器進(jìn)行組合在傳統(tǒng)目標(biāo)檢測上也有著廣泛應(yīng)用,孫皓[16]等人使用了這種方式對艦船進(jìn)行檢測。此后,Wang[17]將 HOG 和局部二值模式[18](Local Binary Patterns,LBP)兩種特征相結(jié)合,為了增加算法的判別信息,在邊緣特征中融入例如紋理特征,完成算法的改進(jìn)。DPM 是卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測算法誕生之前最經(jīng)典的目標(biāo)檢測算法。這個算法取得了連續(xù)三年的 VOC 目標(biāo)檢測大賽的冠軍。在圖像分割與行為檢測等眾多領(lǐng)域中都有著廣泛的應(yīng)用[19]。與基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法相比,傳統(tǒng)的目標(biāo)檢測算法具有優(yōu)勢:1)小樣本:與卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測算法不同,傳統(tǒng)目標(biāo)檢測算法不需要大量的數(shù)據(jù)樣

結(jié)構(gòu)圖,人工神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)圖


經(jīng)網(wǎng)絡(luò)人腦神經(jīng)結(jié)構(gòu)的啟發(fā),提出了人次,其中第一層包含有一億多神經(jīng)元件的連接逐步到高層,,圖像的學(xué)習(xí)和進(jìn)化,進(jìn)而能夠?qū)δ繕?biāo)的這種學(xué)習(xí)方式類比到計算機的將人工神經(jīng)網(wǎng)絡(luò)第一層每一個節(jié)全連接的方式。對人工神經(jīng)網(wǎng)絡(luò)到圖像的特征信息,更高的層會。
【學(xué)位授予單位】:長春理工大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:TP391.41;TP183

【參考文獻(xiàn)】

相關(guān)期刊論文 前4條

1 姬曉飛;秦寧麗;;光學(xué)遙感圖像多目標(biāo)檢測及識別算法設(shè)計與實現(xiàn)[J];計算機應(yīng)用;2015年11期

2 王雅敬;王金艷;;貴州高原山區(qū)衛(wèi)星影像數(shù)據(jù)的選擇問題探討——以三都水族自治縣為例[J];雞西大學(xué)學(xué)報;2013年12期

3 孫皓;孫顯;王宏琦;;一種高分辨率遙感圖像艦船檢測方法研究[J];測繪科學(xué);2013年05期

4 秦其明;遙感圖像自動解譯面臨的問題與解決的途徑[J];測繪科學(xué);2000年02期

相關(guān)博士學(xué)位論文 前1條

1 李軒;基于局部特征的遙感圖像目標(biāo)檢測方法研究[D];長春理工大學(xué);2016年

相關(guān)碩士學(xué)位論文 前10條

1 姜丹;基于視頻監(jiān)控的目標(biāo)檢測與跟蹤算法研究[D];西安理工大學(xué);2018年

2 鄭強斌;SAR圖像中艦船檢測與識別算法的研究及其硬件實現(xiàn)[D];西安理工大學(xué);2018年

3 黃莉芝;基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法研究[D];西南交通大學(xué);2018年

4 韓東娟;SAR圖像海面艦船目標(biāo)檢測算法研究[D];中國航天科技集團(tuán)公司第五研究院西安分院;2018年

5 張亞超;基于深度視感知學(xué)習(xí)的目標(biāo)檢測算法與應(yīng)用研究[D];蘭州理工大學(xué);2018年

6 高帥;基于機器學(xué)習(xí)的掃視路徑估計方法研究[D];西安電子科技大學(xué);2018年

7 謝一德;基于深度卷積神經(jīng)網(wǎng)絡(luò)和圖像傳感器的道路多目標(biāo)檢測研究[D];北京交通大學(xué);2018年

8 包志敏;復(fù)雜場景下視頻目標(biāo)檢測方法研究[D];安徽大學(xué);2018年

9 黃祖微;基于深度學(xué)習(xí)的多特征融合的目標(biāo)檢測[D];浙江大學(xué);2018年

10 溫捷文;基于深度學(xué)習(xí)的目標(biāo)檢測算法研究[D];廣東工業(yè)大學(xué);2018年



本文編號:2708498

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2708498.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶f6aab***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com