天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 路橋論文 >

基于無(wú)人機(jī)圖像的車輛目標(biāo)識(shí)別方法研究與實(shí)現(xiàn)

發(fā)布時(shí)間:2020-10-14 14:31
   目標(biāo)識(shí)別一直以來(lái)都是計(jì)算機(jī)視覺(jué)里的研究熱點(diǎn)與難點(diǎn)。無(wú)人機(jī)圖像中的車輛目標(biāo)識(shí)別在民用與軍用領(lǐng)域都具有極其重要的價(jià)值。在無(wú)人機(jī)圖像中的車輛目標(biāo)一般比較小,目標(biāo)經(jīng)過(guò)網(wǎng)絡(luò)運(yùn)算以后細(xì)節(jié)信息丟失嚴(yán)重,造成了現(xiàn)有的識(shí)別算法對(duì)無(wú)人機(jī)圖像中的車輛目標(biāo)的識(shí)別效果較差。本論文主要研究無(wú)人機(jī)圖像中的車輛目標(biāo)識(shí)別方法,以目前目標(biāo)識(shí)別領(lǐng)域最具有代表性的兩種算法為基礎(chǔ),針對(duì)本論文數(shù)據(jù)集的特點(diǎn)對(duì)算法進(jìn)行改進(jìn)。本論文的主要工作包括以下幾個(gè)部分。(1)構(gòu)建了一個(gè)大規(guī)模的基于無(wú)人機(jī)圖像的車輛目標(biāo)識(shí)別數(shù)據(jù)集。帶有目標(biāo)類別標(biāo)簽與目標(biāo)位置的大規(guī)模數(shù)據(jù)集是運(yùn)用深度學(xué)習(xí)進(jìn)行目標(biāo)識(shí)別的基礎(chǔ)與核心。本論文構(gòu)建的無(wú)人機(jī)圖像數(shù)據(jù)集總共包括1978張圖片,總共包括將近10萬(wàn)個(gè)車輛目標(biāo)。(2)以Region-based Convolution Neural Networks(Faster RCNN)網(wǎng)絡(luò)為基礎(chǔ),針對(duì)本論文中的無(wú)人機(jī)圖像中的車輛目標(biāo)識(shí)別進(jìn)行改進(jìn)。原始的Faster RCNN對(duì)無(wú)人機(jī)圖像中的小的車輛目標(biāo)的識(shí)別效果較差,尤其是其中的不完整目標(biāo)。本論文使用不同的anchor組合,選取最優(yōu)的anchor大小與個(gè)數(shù),使得網(wǎng)絡(luò)的檢測(cè)AP值提高了8.0%;然后又針對(duì)網(wǎng)絡(luò)對(duì)小目標(biāo)的運(yùn)算造成細(xì)節(jié)信息丟失的問(wèn)題,在網(wǎng)絡(luò)中增加了多層特征融合,使得網(wǎng)絡(luò)的檢測(cè)AP值提高2.1%。改進(jìn)后的網(wǎng)絡(luò)的測(cè)試AP總共提高10.1%,精度從80.5%提高到了90.6%,但是因?yàn)樵黾恿薬nchor個(gè)數(shù)的原因,改進(jìn)后的網(wǎng)絡(luò)識(shí)別的速度略有下降。(3)以You Look Only Once(YOLO)網(wǎng)絡(luò)為基礎(chǔ),針對(duì)本論文中的無(wú)人機(jī)圖像中的車輛目標(biāo)識(shí)別進(jìn)行改進(jìn)。本論文使用的是YOLO的v3版本,其對(duì)本論文中的無(wú)人機(jī)圖像中的不完整目標(biāo)與部分完整目標(biāo)存在漏檢。本論文使用K-means++算法對(duì)訓(xùn)練數(shù)據(jù)集的Ground Truth進(jìn)行k=9的聚類,將聚類中心作為網(wǎng)絡(luò)的初始框,改善了網(wǎng)絡(luò)對(duì)小目標(biāo)的漏檢,使得網(wǎng)絡(luò)的檢測(cè)AP值提高了4.31%;使用Soft Non-Maximum Suppression(Soft-NMS)算法對(duì)Non-Maximum Suppression(NMS)算法進(jìn)行改進(jìn),改善了NMS算法對(duì)部分完整目標(biāo)的錯(cuò)誤抑制問(wèn)題,使得網(wǎng)絡(luò)的AP值提高了1.17%。改進(jìn)后的網(wǎng)絡(luò)整體AP值提高了5.48%。本論文還使用了COWC、VEDAI與中科院CAR等三個(gè)數(shù)據(jù)集對(duì)Faster RCNN與YOLOv3網(wǎng)絡(luò)進(jìn)行了魯棒性驗(yàn)證與對(duì)比。YOLOv3網(wǎng)絡(luò)的優(yōu)勢(shì)是識(shí)別的精度與速度,Faster RCNN的優(yōu)勢(shì)在于網(wǎng)絡(luò)的魯棒性更好。
【學(xué)位單位】:電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2019
【中圖分類】:TP391.41;U495;E91
【文章目錄】:
摘要
abstract
第一章 緒論
    1.1 研究工作的背景與意義
    1.2 國(guó)內(nèi)外研究現(xiàn)狀與研究方法
        1.2.1 基于圖像分割的目標(biāo)檢測(cè)方法
        1.2.2 基于幀差的目標(biāo)檢測(cè)方法
        1.2.3 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法
    1.3 主要研究?jī)?nèi)容
    1.4 論文組織結(jié)構(gòu)
    1.5 本章小結(jié)
第二章 深度學(xué)習(xí)目標(biāo)識(shí)別理論與數(shù)據(jù)集構(gòu)建
    2.1 深度學(xué)習(xí)基礎(chǔ)理論知識(shí)
        2.1.1 卷積神經(jīng)網(wǎng)絡(luò)
        2.1.2 激活函數(shù)
        2.1.3 基于SGD的 softmax求解
    2.2 數(shù)據(jù)采集與數(shù)據(jù)集構(gòu)建
        2.2.1 無(wú)人機(jī)系統(tǒng)簡(jiǎn)介
        2.2.2 數(shù)據(jù)采集過(guò)程與數(shù)據(jù)擴(kuò)充
        2.2.3 數(shù)據(jù)集構(gòu)建
    2.3 本章小結(jié)
第三章 面向小目標(biāo)檢測(cè)的Faster RCNN網(wǎng)絡(luò)優(yōu)化
    3.1 Faster RCNN算法簡(jiǎn)介
        3.1.1 區(qū)域推薦網(wǎng)絡(luò)RPN
        3.1.2 Fast RCNN架構(gòu)
        3.1.3 RPN和 Fast RCNN共享特征
    3.2 Faster RCNN針對(duì)小型密集目標(biāo)檢測(cè)的優(yōu)化
        3.2.1 實(shí)驗(yàn)平臺(tái)介紹
        3.2.2 Faster RCNN網(wǎng)絡(luò)的實(shí)驗(yàn)結(jié)果
        3.2.3 Faster RCNN 模型的改進(jìn)與實(shí)驗(yàn)
    3.3 實(shí)驗(yàn)結(jié)果分析
    3.4 本章小結(jié)
第四章 面向小目標(biāo)檢測(cè)的YOLO網(wǎng)絡(luò)優(yōu)化
    4.1 YOLO網(wǎng)絡(luò)簡(jiǎn)介
    4.2 YOLOv3 網(wǎng)絡(luò)
        4.2.1 YOLOv2 網(wǎng)絡(luò)改進(jìn)細(xì)節(jié)
        4.2.2 YOLOv3 網(wǎng)絡(luò)改進(jìn)細(xì)節(jié)
        4.2.3 YOLOv3 網(wǎng)絡(luò)的實(shí)驗(yàn)結(jié)果
    4.3 YOLO網(wǎng)絡(luò)針對(duì)小型密集目標(biāo)檢測(cè)的優(yōu)化
        4.3.1 K-means++算法簡(jiǎn)介
        4.3.2 Soft-NMS算法簡(jiǎn)介
        4.3.3 改進(jìn)后的 YOLOv3 算法及實(shí)驗(yàn)
    4.4 實(shí)驗(yàn)結(jié)果分析
    4.5 網(wǎng)絡(luò)的魯棒性驗(yàn)證
    4.6 本章小結(jié)
第五章 總結(jié)與展望
    5.1 全文總結(jié)
    5.2 后續(xù)工作展望
致謝
參考文獻(xiàn)
攻讀碩士學(xué)位期間取得的成果

【參考文獻(xiàn)】

相關(guān)博士學(xué)位論文 前3條

1 李大偉;固定翼無(wú)人機(jī)地面車輛目標(biāo)自動(dòng)檢測(cè)與跟蹤[D];中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院國(guó)家空間科學(xué)中心);2017年

2 王海羅;基于視覺(jué)感知的無(wú)人機(jī)目標(biāo)識(shí)別與跟蹤技術(shù)研究[D];北京理工大學(xué);2015年

3 王寧;基于粒子濾波的視覺(jué)目標(biāo)跟蹤方法關(guān)鍵技術(shù)研究[D];華中科技大學(xué);2013年



本文編號(hào):2840790

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/2840790.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶d5a22***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com