天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于深度學(xué)習(xí)的空間非合作目標(biāo)姿態(tài)估計算法設(shè)計

發(fā)布時間:2022-02-09 19:44
  空間非合作目標(biāo)的信息獲取問題在空間對抗、在軌維護(hù)等領(lǐng)域都具有很高的研究價值,探索非合作目標(biāo)的識別方法也是維護(hù)國家空天安全的客觀需要,因此對空間非合作目標(biāo)姿態(tài)識別方案的研究具有重要意義。本文將通過深度學(xué)習(xí)方法,運(yùn)用Tensor Flow架構(gòu),實現(xiàn)一種基于視覺圖像的姿態(tài)信息識別算法。本文設(shè)計一套功能比較完備的空間非合作目標(biāo)識別算法,實現(xiàn)輸入一張帶有衛(wèi)星圖像的灰度圖片數(shù)據(jù),輸出衛(wèi)星姿態(tài)角;或輸入一系列連續(xù)拍攝的圖像數(shù)據(jù),輸出衛(wèi)星角速度矢量的功能。首先,帶有衛(wèi)星圖像信息的照片,自動通過MSER等圖像數(shù)據(jù)預(yù)處理的算法,進(jìn)行分割、拉伸、灰度標(biāo)準(zhǔn)話,得到299×299像素的標(biāo)準(zhǔn)灰度圖片。再經(jīng)由卷積神經(jīng)網(wǎng)絡(luò),識別生成衛(wèi)星的姿態(tài)角信息。還可以通過輸入一系列連續(xù)的帶有時間戳的圖像數(shù)據(jù),分別經(jīng)卷積神經(jīng)網(wǎng)絡(luò)獲取姿態(tài)角數(shù)據(jù),再通過回歸分析自動求取衛(wèi)星的旋轉(zhuǎn)角速度信息。此外,本文還研究了對比訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)時,不同優(yōu)化器結(jié)構(gòu)對網(wǎng)絡(luò)性能及收斂性的影響,并通過實驗找到了適用于本課題模型的優(yōu)化器和學(xué)習(xí)率,設(shè)計了適用于衛(wèi)星姿態(tài)識別的Loss函數(shù)。通過Tensor Flow架構(gòu)設(shè)計并實現(xiàn)了具有42層深度的Inception... 

【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省211工程院校985工程院校

【文章頁數(shù)】:65 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的空間非合作目標(biāo)姿態(tài)估計算法設(shè)計


SUMO/FREND計劃概念圖

系統(tǒng)概念


圖 1-1 SUMO/FREND 計劃概念圖經(jīng)在上個世紀(jì)末提出“實驗服務(wù)衛(wèi)星”(Experim究項目[9]。項目初期,研究論證并實現(xiàn)了對前期發(fā)故障維護(hù)方案。該項目衛(wèi)星搭載了一個高精度的有立體成像的多個光學(xué)傳感器,項目衛(wèi)星可以通行成像分析,運(yùn)用激光測距裝置以及視覺測量工本世紀(jì)初,德國宇航局又立項了“德國軌道服務(wù)計作航天起的抵近偵察與干擾捕捉任務(wù)的技術(shù)細(xì)節(jié)的范圍內(nèi),DEOS 將會利用光學(xué)成像設(shè)備,基于目標(biāo)的位置與姿態(tài)信息。

二維圖像,衛(wèi)星追蹤,科研團(tuán)隊,單目視覺


圖 1-3 基于模型的衛(wèi)星追蹤M 帶領(lǐng)其科研團(tuán)隊,深入地研究了通過單目視覺方法與姿態(tài)信息進(jìn)行系統(tǒng)辨識的方案[10]。實施方法是基于定了非合作目標(biāo)的三位模型的前提下,整合分析非合目標(biāo)航天器的三位模型向二維圖像面投影,隨后把投上的邊緣進(jìn)行匹配,從而利用復(fù)雜的非線性化優(yōu)化程輸出估算出的目標(biāo)航天器姿態(tài)角參數(shù)。具有精度高、圖 1-4 基于三維點(diǎn)云的衛(wèi)星追蹤

【參考文獻(xiàn)】:
期刊論文
[1]基于TensorFlow深度學(xué)習(xí)框架的卷積神經(jīng)網(wǎng)絡(luò)研究[J]. 袁文翠,孔雪.  微型電腦應(yīng)用. 2018(02)
[2]Deep Learning and Its Applications in Biomedicine[J]. Chensi Cao,Feng Liu,Hai Tan,Deshou Song,Wenjie Shu,Weizhong Li,Yiming Zhou,Xiaochen Bo,Zhi Xie.  Genomics,Proteomics & Bioinformatics. 2018(01)
[3]開源人工智能系統(tǒng)TensorFlow的教育應(yīng)用[J]. 石磊.  現(xiàn)代教育技術(shù). 2018(01)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的深度圖姿態(tài)估計算法研究[J]. 王松,劉復(fù)昌,黃驥,許威威,董洪偉.  系統(tǒng)仿真學(xué)報. 2017(11)
[5]空間翻滾非合作目標(biāo)消旋技術(shù)發(fā)展綜述[J]. 路勇,劉曉光,周宇,劉崇超.  航空學(xué)報. 2018(01)
[6]谷歌TensorFlow機(jī)器學(xué)習(xí)框架及應(yīng)用[J]. 章敏敏,徐和平,王曉潔,周夢昀,洪淑月.  微型機(jī)與應(yīng)用. 2017(10)
[7]TensorFlow平臺下的視頻目標(biāo)跟蹤深度學(xué)習(xí)模型設(shè)計[J]. 劉帆,劉鵬遠(yuǎn),李兵,徐彬彬.  激光與光電子學(xué)進(jìn)展. 2017(09)
[8]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍.  計算機(jī)學(xué)報. 2017(06)
[9]梯度下降法的分析和改進(jìn)[J]. 郭躍東,宋旭東.  科技展望. 2016(15)
[10]深度卷積神經(jīng)網(wǎng)絡(luò)的顯著性檢測[J]. 李岳云,許悅雷,馬時平,史鶴歡.  中國圖象圖形學(xué)報. 2016(01)

博士論文
[1]深度學(xué)習(xí)在計算機(jī)視覺領(lǐng)域的若干關(guān)鍵技術(shù)研究[D]. 逄淑超.吉林大學(xué) 2017
[2]基于深度神經(jīng)網(wǎng)絡(luò)的回歸模型及其應(yīng)用研究[D]. 包姣.電子科技大學(xué) 2017
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的計算機(jī)視覺關(guān)鍵技術(shù)研究[D]. 李彥冬.電子科技大學(xué) 2017
[4]非合作姿態(tài)測量中的點(diǎn)云獲取與配準(zhǔn)方法研究[D]. 劉通.哈爾濱工業(yè)大學(xué) 2016

碩士論文
[1]基于TensorFlow的卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用研究[D]. 姜新猛.華中師范大學(xué) 2017
[2]面向空間非合作目標(biāo)捕獲的位姿測量方法研究[D]. 任宇琪.哈爾濱工業(yè)大學(xué) 2015



本文編號:3617549

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3617549.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶03759***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com