天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 信息工程論文 >

基于雷達(dá)微多普勒信號的運(yùn)動(dòng)目標(biāo)分類識別技術(shù)研究

發(fā)布時(shí)間:2021-01-12 09:39
  目標(biāo)探測與分類技術(shù)具有十分廣泛的用途,其中包括了對邊境物體種類的監(jiān)控,醫(yī)療中對患者行為的監(jiān)護(hù)、安全防護(hù)工作中對未知人員的確認(rèn)等,已成為各國政府、公司和學(xué)者關(guān)注的熱點(diǎn)。近年來雷達(dá)逐漸成為人體探測和分類領(lǐng)域關(guān)注的焦點(diǎn),與其它傳感器相比,雷達(dá)在人體探測與分類上具有的優(yōu)勢主要表現(xiàn)在:不受光線和天氣的影響,可對人體進(jìn)行全天候的監(jiān)測。然而,該技術(shù)還處在起步階段,理論基礎(chǔ)尚不完善。本文對物體種類識別、人體動(dòng)作判別以及身份識別進(jìn)行了研究,具有重要的理論意義和應(yīng)用價(jià)值,主要工作與成果如下:(1)研究了人體基本運(yùn)動(dòng)模型,旨在通過理論仿真得到人體雷達(dá)回波,驗(yàn)證使用雷達(dá)實(shí)現(xiàn)身份識別的可能性。將非剛體的人體簡化為由上肢、下肢以及軀干組成的簡單剛體模型,分別對這幾個(gè)部分的雷達(dá)回波進(jìn)行建模,從而得到人體運(yùn)動(dòng)的雷達(dá)回波。通過對上肢、下肢以及軀干的長度的調(diào)整,得到不同人體在運(yùn)動(dòng)時(shí)的雷達(dá)回波,而后使用傳統(tǒng)機(jī)器學(xué)習(xí)算法與深度卷積神經(jīng)網(wǎng)絡(luò)對這些雷達(dá)回波進(jìn)行識別,從而在理論上實(shí)現(xiàn)人體身份識別。(2)研究了基于雷達(dá)微多普勒信號的不同物體種類的識別。不同物體由于結(jié)構(gòu)不一樣,它們運(yùn)動(dòng)時(shí)所產(chǎn)生的微多普勒信號也會有一定差異,因此雷達(dá)微多... 

【文章來源】:南京航空航天大學(xué)江蘇省 211工程院校

【文章頁數(shù)】:79 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于雷達(dá)微多普勒信號的運(yùn)動(dòng)目標(biāo)分類識別技術(shù)研究


四種算法的抗噪聲性

頻譜圖,混淆矩陣,學(xué)習(xí)率


(a) (b)圖 5.6 (a)使用 SVM 進(jìn)行識別時(shí)的混淆矩陣;(b)使用 NB 進(jìn)行識別時(shí)的混淆矩陣5.4.2 Alexnet 模型訓(xùn)練首先我們對 Alexnet 進(jìn)行微調(diào),本文采用 Rectified Linear Units (ReLU)作為激活函數(shù),各層采用最大池化的池化方式。本文將學(xué)習(xí)率調(diào)整為 0.0001,因?yàn)楫?dāng)學(xué)習(xí)率較大時(shí),損失不會收斂,當(dāng)學(xué)習(xí)率較小時(shí),訓(xùn)練過程會消耗很長的時(shí)間。將最大迭代次數(shù)調(diào)整為 5000 次時(shí)得到的結(jié)果趨于穩(wěn)定。本節(jié)采用梯度下降法求解優(yōu)化問題,因此每 1000 次迭代之后,我們將學(xué)習(xí)速率降低到0.0001*0.9 ^ ( floor (5000 /1000)),權(quán)重衰減改為 0.0005,訓(xùn)練和驗(yàn)證網(wǎng)絡(luò)的定義以及每一層的參數(shù)都記錄在一個(gè)特定的文件中。在這個(gè)文件中,輸入的圖片的大小被重新調(diào)整為227 227,因?yàn)?Alexnet 整個(gè)網(wǎng)絡(luò)的輸入為 。訓(xùn)練部分和測試部分的“batch”的數(shù)量分別調(diào)整為 32和 16!癰atch”定義的數(shù)量的大小表示每次迭代中獲取的樣本數(shù)量。這些樣本梯度的平均值用于更新網(wǎng)絡(luò)參數(shù)!癰atch”的大小決定了梯度下降的方向、收斂的效果和速度以及內(nèi)存利用率。由于用于訓(xùn)練的頻譜圖多于用于測試的頻譜圖,訓(xùn)練部分的 batch 的數(shù)量大于“測試”部分的“batch”的數(shù)量。在全連接層中,我們將偏差學(xué)習(xí)率調(diào)整為 10,權(quán)重學(xué)習(xí)率調(diào)整為 20,以加

特征圖,特征圖,混淆矩陣


(a) (b)圖 5.7 (a)第一層池化層的特征圖;(b)第二層池化層的特征圖1.000.000.000.000.000.001.000.000.000.000.000.000.980.000.000.000.000.001.000.000.000.000.020.001.00蹲 起 原 地 拳 擊 原 地 擺 臂 站 立 不 動(dòng) 跑 步蹲 起原 地 拳 擊原 地 擺 臂站 立 不 動(dòng)跑 步圖 5.8 使用 Alexnet 識別的混淆矩陣21train losstrain accuracytest losstest accuracy

【參考文獻(xiàn)】:
期刊論文
[1]基于微多普勒特征的外輻射源雷達(dá)目標(biāo)識別方法[J]. 王文兵,李華,梁龍.  電子信息對抗技術(shù). 2018(05)
[2]合成孔徑雷達(dá)微動(dòng)目標(biāo)指示(SAR/MMTI)研究進(jìn)展[J]. 鄧彬,吳稱光,秦玉亮,黎湘,王宏強(qiáng).  電子學(xué)報(bào). 2013(12)
[3]基于經(jīng)驗(yàn)?zāi)B(tài)分解的空中飛機(jī)目標(biāo)分類[J]. 王寶帥,杜蘭,劉宏偉,李彥兵,馮博.  電子與信息學(xué)報(bào). 2012(09)
[4]基于微多普勒分析的復(fù)合運(yùn)動(dòng)目標(biāo)參數(shù)估計(jì)[J]. 陳廣鋒,張林讓,劉高高,王純.  計(jì)算機(jī)應(yīng)用. 2011(08)
[5]復(fù)合運(yùn)動(dòng)目標(biāo)微多普勒特征的分析和提取[J]. 陳廣鋒,張林讓,王純,劉高高.  西安電子科技大學(xué)學(xué)報(bào). 2011(03)
[6]空間錐體目標(biāo)微動(dòng)特性分析與識別方法[J]. 關(guān)永勝,左群聲,劉宏偉,杜蘭,李彥兵.  西安電子科技大學(xué)學(xué)報(bào). 2011(02)
[7]基于微多普勒特征的空間錐體目標(biāo)識別[J]. 關(guān)永勝,左群聲,劉宏偉.  電波科學(xué)學(xué)報(bào). 2011(02)
[8]微動(dòng)目標(biāo)OFDM雷達(dá)回波調(diào)制機(jī)理分析[J]. 霍凱,李康樂,姜衛(wèi)東,黎湘,毛鈞杰.  電子學(xué)報(bào). 2011(03)
[9]基于微多普勒特征的地面目標(biāo)分類[J]. 李彥兵,杜蘭,劉宏偉,丁蘇穎,關(guān)永勝.  電子與信息學(xué)報(bào). 2010(12)
[10]行進(jìn)人體目標(biāo)雷達(dá)瞬時(shí)多普勒特征分析[J]. 賀峰,黃曉濤,劉承蘭,李欣,周智敏.  信號處理. 2010(09)

博士論文
[1]雷達(dá)目標(biāo)微多普勒特征分析及其應(yīng)用[D]. 陳廣鋒.西安電子科技大學(xué) 2014
[2]合成孔徑雷達(dá)微動(dòng)目標(biāo)指示(SAR/MMTI)研究[D]. 鄧彬.國防科學(xué)技術(shù)大學(xué) 2011
[3]空間錐體目標(biāo)微動(dòng)特性與識別方法研究[D]. 關(guān)永勝.西安電子科技大學(xué) 2011
[4]基于OFDM新體制雷達(dá)信號的微動(dòng)目標(biāo)特征提取研究[D]. 霍凱.國防科學(xué)技術(shù)大學(xué) 2011

碩士論文
[1]基于深度學(xué)習(xí)方法的人體微動(dòng)特征識別[D]. 邵禹銘.中國科學(xué)技術(shù)大學(xué) 2018
[2]基于JEM特征的空中飛機(jī)目標(biāo)分類方法研究[D]. 程榮剛.西安電子科技大學(xué) 2012
[3]基于微多普勒特征的目標(biāo)分類方法研究[D]. 符婷.西安電子科技大學(xué) 2011
[4]超寬帶雷達(dá)回波信號微動(dòng)特征識別研究[D]. 何永波.成都理工大學(xué) 2009
[5]基于雷達(dá)回波的人體檢測和步態(tài)特征提取[D]. 楊杉.電子科技大學(xué) 2009



本文編號:2972618

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/2972618.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶3a778***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com