天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于卷積神經(jīng)網(wǎng)絡(luò)的飛行器目標(biāo)識(shí)別算法研究

發(fā)布時(shí)間:2021-10-28 10:25
  隨著社會(huì)經(jīng)濟(jì)的發(fā)展,我們國(guó)家在航空領(lǐng)域也得到了進(jìn)一步的突破,飛行器的種類(lèi)和數(shù)量都在不斷增長(zhǎng),導(dǎo)致我國(guó)的許多空域出現(xiàn)了一種接近飽和的狀態(tài)。結(jié)合現(xiàn)狀存在的問(wèn)題,研究空中各種可能出現(xiàn)的碰撞情景,制定避險(xiǎn)方案。在其中,無(wú)人機(jī)自主完成對(duì)飛行目標(biāo)的識(shí)別占有重要比重。這段時(shí)間以來(lái),因?yàn)樯鐣?huì)的飛速發(fā)展,深度學(xué)習(xí)理念也已經(jīng)進(jìn)入了新的階段,所以在很多場(chǎng)景中我們都可以看到深度學(xué)習(xí)的影子。對(duì)于本文來(lái)講,對(duì)于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用在飛行器圖像識(shí)別上的研究是必不可少的。飛行器目標(biāo)識(shí)別近年來(lái)也使用了深度學(xué)習(xí)進(jìn)行了一些初步的嘗試。本文在TensorFlow學(xué)習(xí)框架的基礎(chǔ)上研究飛行器識(shí)別方法。將飛行器識(shí)別分為兩大板塊來(lái)重點(diǎn)研究,候選區(qū)域生成算法和圖像分類(lèi)算法。首先,介紹了貫穿全文的基本理論算法卷積神經(jīng)網(wǎng)絡(luò),介紹了它的各個(gè)層次的構(gòu)造、作用和優(yōu)勢(shì),并選取本文所用到的深度學(xué)習(xí)框架。其次,對(duì)候選區(qū)域生成算法進(jìn)行結(jié)構(gòu)的介紹和分析所用到的幾類(lèi)算法,并得出該類(lèi)算法的優(yōu)缺性。候選區(qū)域生成算法借鑒faster R-CNN算法思路,提出了改進(jìn)的候選區(qū)域生成算法。然后,介紹圖像分類(lèi)的幾種算法。并且以AlexNet網(wǎng)絡(luò)為基礎(chǔ)進(jìn)行網(wǎng)絡(luò)上的改進(jìn),并結(jié)合... 

【文章來(lái)源】:河北科技大學(xué)河北省

【文章頁(yè)數(shù)】:62 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于卷積神經(jīng)網(wǎng)絡(luò)的飛行器目標(biāo)識(shí)別算法研究


AlexNet網(wǎng)絡(luò)模型

網(wǎng)絡(luò)模型,目標(biāo)識(shí)別


第1章緒論5圖1-2VGG16網(wǎng)絡(luò)模型1.2.3目標(biāo)識(shí)別目標(biāo)識(shí)別作為機(jī)器視覺(jué)中一個(gè)長(zhǎng)期存在且具有挑戰(zhàn)性的任務(wù),長(zhǎng)期以來(lái)都屬于研究的重點(diǎn)方向和領(lǐng)域[38]。準(zhǔn)確的來(lái)說(shuō),目標(biāo)識(shí)別的目的是盤(pán)查所需要檢查的圖像中是否包含給出的目標(biāo),如果圖像中有的話,則將目標(biāo)在圖像的大致位置得出后返回它。目標(biāo)識(shí)別也廣泛應(yīng)用在各行各業(yè),比如先進(jìn)的門(mén)鎖,支付寶的人臉付款功能等。就目前來(lái)看,深度學(xué)習(xí)已經(jīng)滲入到了我們周邊的各種環(huán)境中,也促進(jìn)著我們的發(fā)展。而且來(lái)說(shuō),深度學(xué)習(xí)將目標(biāo)識(shí)別的發(fā)展推向了更高的一個(gè)臺(tái)階。目標(biāo)識(shí)別不僅能識(shí)別非相似的物體,比如電視機(jī)和床,也能識(shí)別相似的物體,比如民航飛機(jī)和民用無(wú)人機(jī)。從剛開(kāi)始研究到現(xiàn)在初步有成,他的領(lǐng)域大致都在單個(gè)或者幾個(gè)固定

卷積,神經(jīng)網(wǎng)絡(luò)


第2章卷積神經(jīng)網(wǎng)絡(luò)7第2章卷積神經(jīng)網(wǎng)絡(luò)2.1引言卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用在各個(gè)環(huán)境中,是深度學(xué)習(xí)的代表算法之一。卷積神經(jīng)網(wǎng)絡(luò)是通過(guò)對(duì)動(dòng)物的腦子進(jìn)行研究得到的,學(xué)者們通過(guò)研究發(fā)現(xiàn)了動(dòng)物腦子里有極其敏感的神經(jīng)元,通過(guò)這個(gè)研究,學(xué)者們提出了感受野這一詞,并且學(xué)者們發(fā)現(xiàn)了神經(jīng)元與神經(jīng)元之間的連接方式是十分科學(xué)有效的,它能夠降低整體的復(fù)雜性,簡(jiǎn)化整體的結(jié)構(gòu)[40]。自此,學(xué)者們又在這個(gè)研究成果的基礎(chǔ)上進(jìn)行改進(jìn),得到神經(jīng)認(rèn)知機(jī),它被學(xué)術(shù)界認(rèn)為是卷積神經(jīng)網(wǎng)絡(luò)的雛形,也是通過(guò)對(duì)動(dòng)物腦子的研究的第一次應(yīng)用和展現(xiàn)[41]。在此基礎(chǔ)上,學(xué)者們又將其進(jìn)行革新?lián)Q代,研究出了一種好幾層的神經(jīng)網(wǎng)絡(luò)LeNet-5[42],將它應(yīng)用于人們手寫(xiě)的數(shù)字上的識(shí)別中,并且效果極佳。自此,歷史上卷積神經(jīng)網(wǎng)絡(luò)的第一個(gè)結(jié)構(gòu)雛形誕生了。但是該結(jié)構(gòu)僅僅對(duì)人類(lèi)手寫(xiě)的數(shù)字的識(shí)別效果好,對(duì)于別的物體的識(shí)別效果,依然不是很理想。隨著時(shí)代的進(jìn)步和計(jì)算機(jī)突飛猛進(jìn)的升級(jí),人類(lèi)建立了歷史上第一個(gè)數(shù)量最大的圖像數(shù)據(jù)集—ImageNet[43],而且在此數(shù)據(jù)集的基礎(chǔ)上創(chuàng)辦了視覺(jué)識(shí)別的比賽[44],自此,學(xué)者們都爭(zhēng)鋒相擁的開(kāi)始關(guān)注這個(gè)領(lǐng)域。我們通過(guò)將如圖2-1所示的LeNet-5網(wǎng)絡(luò)模型作為神經(jīng)網(wǎng)絡(luò)的代表來(lái)深入的介紹卷積神經(jīng)網(wǎng)絡(luò)的各個(gè)部分以及區(qū)別于其他算法的不同之處[45]。圖2-1LeNet-5卷積神經(jīng)網(wǎng)絡(luò)2.2卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡(luò)主要包含卷積層、采樣層(池化層)和全連接層[46]。每一層對(duì)于網(wǎng)絡(luò)來(lái)說(shuō)都是無(wú)法取代的,都有其特定的功能,以下我們會(huì)對(duì)各層進(jìn)行展開(kāi)詳細(xì)的描述。

【參考文獻(xiàn)】:
期刊論文
[1]基于改進(jìn)的Faster R-CNN算法的機(jī)械零件圖像識(shí)別[J]. 郭斐,靳伍銀,王猛.  機(jī)械設(shè)計(jì). 2019(09)
[2]北京民航運(yùn)輸與區(qū)域發(fā)展關(guān)系研究[J]. 張碩.  民航管理. 2019(07)
[3]基于深度學(xué)習(xí)的輪廓檢測(cè)算法:綜述[J]. 林川,曹以雋.  廣西科技大學(xué)學(xué)報(bào). 2019(02)
[4]安全vs隱私:美國(guó)無(wú)人機(jī)聯(lián)邦監(jiān)管述評(píng)[J]. 王歡,付超.  中國(guó)刑警學(xué)院學(xué)報(bào). 2019(01)
[5]基于RCNN的車(chē)輛區(qū)域檢測(cè)研究[J]. 賈瑞.  數(shù)字技術(shù)與應(yīng)用. 2019(02)
[6]基于卷積神經(jīng)網(wǎng)絡(luò)的深度圖像超分辨率重建方法[J]. 李偉,張旭東.  電子測(cè)量與儀器學(xué)報(bào). 2017(12)
[7]深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)中的應(yīng)用研究綜述[J]. 王琳,趙耀,余靜華,陳曦.  農(nóng)村經(jīng)濟(jì)與科技. 2017(14)
[8]基于深度卷積神經(jīng)網(wǎng)絡(luò)的貨車(chē)車(chē)號(hào)識(shí)別研究[J]. 廖健.  交通運(yùn)輸工程與信息學(xué)報(bào). 2016(04)
[9]基于CNN模型的高分辨率遙感圖像目標(biāo)識(shí)別[J]. 曲景影,孫顯,高鑫.  國(guó)外電子測(cè)量技術(shù). 2016(08)
[10]基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法[J]. 陳耀丹,王連明.  東北師大學(xué)報(bào)(自然科學(xué)版). 2016(02)

博士論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉基準(zhǔn)點(diǎn)定位研究[D]. 張少華.華中科技大學(xué) 2016
[2]基于計(jì)算機(jī)視覺(jué)的手勢(shì)識(shí)別系統(tǒng)研究[D]. 周航.北京交通大學(xué) 2008

碩士論文
[1]基于深度學(xué)習(xí)的無(wú)人機(jī)位姿視覺(jué)測(cè)量與計(jì)算方法[D]. 張嘉旭.西安理工大學(xué) 2019
[2]改進(jìn)DCNN算法及其在無(wú)人機(jī)目標(biāo)識(shí)別中應(yīng)用[D]. 翟進(jìn)有.南昌航空大學(xué) 2019
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的醫(yī)學(xué)圖像分類(lèi)方法研究[D]. 史亮亮.河北科技大學(xué) 2019
[4]FPGA實(shí)現(xiàn)的可編程神經(jīng)網(wǎng)絡(luò)處理器[D]. 趙博然.西安電子科技大學(xué) 2018
[5]臨近空間強(qiáng)機(jī)動(dòng)目標(biāo)跟蹤算法研究[D]. 苗士雨.北京交通大學(xué) 2018
[6]基于深度卷積神經(jīng)網(wǎng)絡(luò)和無(wú)監(jiān)督K均值特征的SAR圖像目標(biāo)識(shí)別方法研究[D]. 劉凱品.五邑大學(xué) 2017
[7]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別[D]. 蔣帥.吉林大學(xué) 2017
[8]基于深度學(xué)習(xí)的人臉識(shí)別算法研究[D]. 馬良慧.山東理工大學(xué) 2017
[9]基于卷積神經(jīng)網(wǎng)絡(luò)的高光譜數(shù)據(jù)分類(lèi)方法研究[D]. 宋欣益.哈爾濱工業(yè)大學(xué) 2016
[10]工件非接觸檢測(cè)中機(jī)器視覺(jué)的研究與應(yīng)用[D]. 段德山.北京郵電大學(xué) 2007



本文編號(hào):3462688

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3462688.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)ce671***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com