基于深度學(xué)習(xí)的空間非合作目標姿態(tài)估計算法設(shè)計
發(fā)布時間:2022-02-09 19:44
空間非合作目標的信息獲取問題在空間對抗、在軌維護等領(lǐng)域都具有很高的研究價值,探索非合作目標的識別方法也是維護國家空天安全的客觀需要,因此對空間非合作目標姿態(tài)識別方案的研究具有重要意義。本文將通過深度學(xué)習(xí)方法,運用Tensor Flow架構(gòu),實現(xiàn)一種基于視覺圖像的姿態(tài)信息識別算法。本文設(shè)計一套功能比較完備的空間非合作目標識別算法,實現(xiàn)輸入一張帶有衛(wèi)星圖像的灰度圖片數(shù)據(jù),輸出衛(wèi)星姿態(tài)角;或輸入一系列連續(xù)拍攝的圖像數(shù)據(jù),輸出衛(wèi)星角速度矢量的功能。首先,帶有衛(wèi)星圖像信息的照片,自動通過MSER等圖像數(shù)據(jù)預(yù)處理的算法,進行分割、拉伸、灰度標準話,得到299×299像素的標準灰度圖片。再經(jīng)由卷積神經(jīng)網(wǎng)絡(luò),識別生成衛(wèi)星的姿態(tài)角信息。還可以通過輸入一系列連續(xù)的帶有時間戳的圖像數(shù)據(jù),分別經(jīng)卷積神經(jīng)網(wǎng)絡(luò)獲取姿態(tài)角數(shù)據(jù),再通過回歸分析自動求取衛(wèi)星的旋轉(zhuǎn)角速度信息。此外,本文還研究了對比訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)時,不同優(yōu)化器結(jié)構(gòu)對網(wǎng)絡(luò)性能及收斂性的影響,并通過實驗找到了適用于本課題模型的優(yōu)化器和學(xué)習(xí)率,設(shè)計了適用于衛(wèi)星姿態(tài)識別的Loss函數(shù)。通過Tensor Flow架構(gòu)設(shè)計并實現(xiàn)了具有42層深度的Inception...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省211工程院校985工程院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
SUMO/FREND計劃概念圖
圖 1-1 SUMO/FREND 計劃概念圖經(jīng)在上個世紀末提出“實驗服務(wù)衛(wèi)星”(Experim究項目[9]。項目初期,研究論證并實現(xiàn)了對前期發(fā)故障維護方案。該項目衛(wèi)星搭載了一個高精度的有立體成像的多個光學(xué)傳感器,項目衛(wèi)星可以通行成像分析,運用激光測距裝置以及視覺測量工本世紀初,德國宇航局又立項了“德國軌道服務(wù)計作航天起的抵近偵察與干擾捕捉任務(wù)的技術(shù)細節(jié)的范圍內(nèi),DEOS 將會利用光學(xué)成像設(shè)備,基于目標的位置與姿態(tài)信息。
圖 1-3 基于模型的衛(wèi)星追蹤M 帶領(lǐng)其科研團隊,深入地研究了通過單目視覺方法與姿態(tài)信息進行系統(tǒng)辨識的方案[10]。實施方法是基于定了非合作目標的三位模型的前提下,整合分析非合目標航天器的三位模型向二維圖像面投影,隨后把投上的邊緣進行匹配,從而利用復(fù)雜的非線性化優(yōu)化程輸出估算出的目標航天器姿態(tài)角參數(shù)。具有精度高、圖 1-4 基于三維點云的衛(wèi)星追蹤
【參考文獻】:
期刊論文
[1]基于TensorFlow深度學(xué)習(xí)框架的卷積神經(jīng)網(wǎng)絡(luò)研究[J]. 袁文翠,孔雪. 微型電腦應(yīng)用. 2018(02)
[2]Deep Learning and Its Applications in Biomedicine[J]. Chensi Cao,Feng Liu,Hai Tan,Deshou Song,Wenjie Shu,Weizhong Li,Yiming Zhou,Xiaochen Bo,Zhi Xie. Genomics,Proteomics & Bioinformatics. 2018(01)
[3]開源人工智能系統(tǒng)TensorFlow的教育應(yīng)用[J]. 石磊. 現(xiàn)代教育技術(shù). 2018(01)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的深度圖姿態(tài)估計算法研究[J]. 王松,劉復(fù)昌,黃驥,許威威,董洪偉. 系統(tǒng)仿真學(xué)報. 2017(11)
[5]空間翻滾非合作目標消旋技術(shù)發(fā)展綜述[J]. 路勇,劉曉光,周宇,劉崇超. 航空學(xué)報. 2018(01)
[6]谷歌TensorFlow機器學(xué)習(xí)框架及應(yīng)用[J]. 章敏敏,徐和平,王曉潔,周夢昀,洪淑月. 微型機與應(yīng)用. 2017(10)
[7]TensorFlow平臺下的視頻目標跟蹤深度學(xué)習(xí)模型設(shè)計[J]. 劉帆,劉鵬遠,李兵,徐彬彬. 激光與光電子學(xué)進展. 2017(09)
[8]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計算機學(xué)報. 2017(06)
[9]梯度下降法的分析和改進[J]. 郭躍東,宋旭東. 科技展望. 2016(15)
[10]深度卷積神經(jīng)網(wǎng)絡(luò)的顯著性檢測[J]. 李岳云,許悅雷,馬時平,史鶴歡. 中國圖象圖形學(xué)報. 2016(01)
博士論文
[1]深度學(xué)習(xí)在計算機視覺領(lǐng)域的若干關(guān)鍵技術(shù)研究[D]. 逄淑超.吉林大學(xué) 2017
[2]基于深度神經(jīng)網(wǎng)絡(luò)的回歸模型及其應(yīng)用研究[D]. 包姣.電子科技大學(xué) 2017
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的計算機視覺關(guān)鍵技術(shù)研究[D]. 李彥冬.電子科技大學(xué) 2017
[4]非合作姿態(tài)測量中的點云獲取與配準方法研究[D]. 劉通.哈爾濱工業(yè)大學(xué) 2016
碩士論文
[1]基于TensorFlow的卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用研究[D]. 姜新猛.華中師范大學(xué) 2017
[2]面向空間非合作目標捕獲的位姿測量方法研究[D]. 任宇琪.哈爾濱工業(yè)大學(xué) 2015
本文編號:3617549
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省211工程院校985工程院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
SUMO/FREND計劃概念圖
圖 1-1 SUMO/FREND 計劃概念圖經(jīng)在上個世紀末提出“實驗服務(wù)衛(wèi)星”(Experim究項目[9]。項目初期,研究論證并實現(xiàn)了對前期發(fā)故障維護方案。該項目衛(wèi)星搭載了一個高精度的有立體成像的多個光學(xué)傳感器,項目衛(wèi)星可以通行成像分析,運用激光測距裝置以及視覺測量工本世紀初,德國宇航局又立項了“德國軌道服務(wù)計作航天起的抵近偵察與干擾捕捉任務(wù)的技術(shù)細節(jié)的范圍內(nèi),DEOS 將會利用光學(xué)成像設(shè)備,基于目標的位置與姿態(tài)信息。
圖 1-3 基于模型的衛(wèi)星追蹤M 帶領(lǐng)其科研團隊,深入地研究了通過單目視覺方法與姿態(tài)信息進行系統(tǒng)辨識的方案[10]。實施方法是基于定了非合作目標的三位模型的前提下,整合分析非合目標航天器的三位模型向二維圖像面投影,隨后把投上的邊緣進行匹配,從而利用復(fù)雜的非線性化優(yōu)化程輸出估算出的目標航天器姿態(tài)角參數(shù)。具有精度高、圖 1-4 基于三維點云的衛(wèi)星追蹤
【參考文獻】:
期刊論文
[1]基于TensorFlow深度學(xué)習(xí)框架的卷積神經(jīng)網(wǎng)絡(luò)研究[J]. 袁文翠,孔雪. 微型電腦應(yīng)用. 2018(02)
[2]Deep Learning and Its Applications in Biomedicine[J]. Chensi Cao,Feng Liu,Hai Tan,Deshou Song,Wenjie Shu,Weizhong Li,Yiming Zhou,Xiaochen Bo,Zhi Xie. Genomics,Proteomics & Bioinformatics. 2018(01)
[3]開源人工智能系統(tǒng)TensorFlow的教育應(yīng)用[J]. 石磊. 現(xiàn)代教育技術(shù). 2018(01)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的深度圖姿態(tài)估計算法研究[J]. 王松,劉復(fù)昌,黃驥,許威威,董洪偉. 系統(tǒng)仿真學(xué)報. 2017(11)
[5]空間翻滾非合作目標消旋技術(shù)發(fā)展綜述[J]. 路勇,劉曉光,周宇,劉崇超. 航空學(xué)報. 2018(01)
[6]谷歌TensorFlow機器學(xué)習(xí)框架及應(yīng)用[J]. 章敏敏,徐和平,王曉潔,周夢昀,洪淑月. 微型機與應(yīng)用. 2017(10)
[7]TensorFlow平臺下的視頻目標跟蹤深度學(xué)習(xí)模型設(shè)計[J]. 劉帆,劉鵬遠,李兵,徐彬彬. 激光與光電子學(xué)進展. 2017(09)
[8]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計算機學(xué)報. 2017(06)
[9]梯度下降法的分析和改進[J]. 郭躍東,宋旭東. 科技展望. 2016(15)
[10]深度卷積神經(jīng)網(wǎng)絡(luò)的顯著性檢測[J]. 李岳云,許悅雷,馬時平,史鶴歡. 中國圖象圖形學(xué)報. 2016(01)
博士論文
[1]深度學(xué)習(xí)在計算機視覺領(lǐng)域的若干關(guān)鍵技術(shù)研究[D]. 逄淑超.吉林大學(xué) 2017
[2]基于深度神經(jīng)網(wǎng)絡(luò)的回歸模型及其應(yīng)用研究[D]. 包姣.電子科技大學(xué) 2017
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的計算機視覺關(guān)鍵技術(shù)研究[D]. 李彥冬.電子科技大學(xué) 2017
[4]非合作姿態(tài)測量中的點云獲取與配準方法研究[D]. 劉通.哈爾濱工業(yè)大學(xué) 2016
碩士論文
[1]基于TensorFlow的卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用研究[D]. 姜新猛.華中師范大學(xué) 2017
[2]面向空間非合作目標捕獲的位姿測量方法研究[D]. 任宇琪.哈爾濱工業(yè)大學(xué) 2015
本文編號:3617549
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3617549.html
最近更新
教材專著