天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

基于深度學習的視覺地點識別技術研究

發(fā)布時間:2022-05-08 10:05
  當前,視覺地點識別在多種新興科技領域中擁有重要的應用前景和科研價值,并成為模式識別中的熱點話題。對于視覺地點識別而言,提升性能的一個關鍵問題是設計分辨能力更強同時對各種視覺變換更魯棒的圖像特征表示方法,然而囿于地點的復雜性和多樣性以及其面向的繁多的應用背景,現(xiàn)存的方法并不能完全滿足當下的現(xiàn)實需求,還亟待進一步的研究和探索。本文基于深度學習方法對兩種視覺地點識別中的難點問題展開了探討和研究,主要完成的工作如下:在廣泛閱讀了國內(nèi)外視覺地點識別及相關領域文獻的基礎上,對本文關注的兩種視覺地點識別任務——視覺閉環(huán)檢測、跨視角(Cross-View)圖像地點識別系統(tǒng)中的現(xiàn)有方法進行了綜述,并探討和總結(jié)了現(xiàn)有方法取得的重要成果以及有待進一步探究的方向,為提出本文中的創(chuàng)新性方法奠定基礎。針對視覺閉環(huán)檢測任務,本文提出一種基于Squeeze-and-Excitation增強結(jié)構(gòu)與并行多路徑匯聚補償策略的CNN模型(Hybrid-CNN)用于獲取改進的CNN特征圖;同時設計了一種基于沿通道降采樣和非重疊池化的CNN特征圖降維策略以加速特征相似度比對。利用經(jīng)典的殘差網(wǎng)絡作為基模型,對“瓶頸”殘差構(gòu)建塊應用... 

【文章頁數(shù)】:117 頁

【學位級別】:碩士

【文章目錄】:
摘要
ABSTRACT
第一章 緒論
    1.1 研究背景和意義
    1.2 國內(nèi)外研究現(xiàn)狀
        1.2.1 視覺地點識別應用介紹
        1.2.2 視覺地點識別難點分析
        1.2.3 視覺地點識別的常見方法
        1.2.4 視覺地點識別的關鍵問題
    1.3 論文主要工作和結(jié)構(gòu)安排
        1.3.1 本文的主要工作
        1.3.2 本文結(jié)構(gòu)安排
第二章 視覺地點識別相關基礎及概念介紹
    2.1 視覺地點識別中的手工特征與圖像表示
        2.1.1 手工局部特征介紹
        2.1.2 BoW模型與局部特征聚類
        2.1.3 手工全局特征介紹
        2.1.4 手工特征融合
    2.2 基于卷積神經(jīng)網(wǎng)絡特征的圖像表示
        2.2.1 卷積神經(jīng)網(wǎng)絡的基本單元
        2.2.2 損失函數(shù)
        2.2.3 參數(shù)優(yōu)化方法
    2.3 本章小結(jié)
第三章 基于Hybrid-CNN模型的視覺閉環(huán)檢測
    3.1 Hybrid-CNN特征提取器模型
        3.1.1 基模型介紹
        3.1.2 并行多路徑匯聚補償策略
        3.1.3 特征通道關注機制——Squeeze-and-Excitation
    3.2 基于沿通道降采樣與非重疊池化的CNN特征圖降維策略
    3.3 實驗與分析
        3.3.1 視覺閉環(huán)檢測相關數(shù)據(jù)集介紹
        3.3.2 用于模型訓練的場景圖像數(shù)據(jù)集介紹
        3.3.3 實驗設備與平臺
        3.3.4 模型訓練設置
        3.3.5 特征的距離度量
        3.3.6 閉環(huán)檢測的評價度量
        3.3.7 方法步驟
        3.3.8 閉環(huán)檢測實驗結(jié)果與分析
    3.4 本章小結(jié)
第四章 一種融入特征信息上下文關注機制的CNN模型設計
    4.1 多尺度特征上下文關注模塊——Mul-FCAM設計
        4.1.1 特征通道關注子模塊實現(xiàn)
        4.1.2 空間信息關注子模塊實現(xiàn)
    4.2 融合特征上下文關注模塊的CNN模型——Res FCAMNet
    4.3 實驗與分析
        4.3.1 實驗設備與平臺
        4.3.2 實驗結(jié)果
    4.4 本章小結(jié)
第五章 基于Siam-FCAMNet與困難樣本挖掘的跨視角圖像地點識別
    5.1 跨視角圖像地點識別中的孿生網(wǎng)絡模型介紹
    5.2 CNN特征向量獲取
    5.3 一種基于樣本賦權(quán)實現(xiàn)在線困難數(shù)據(jù)挖掘的Triplet損失函數(shù)設計
        5.3.1 Exhaustive Mini Batch策略
        5.3.2 基于距離修正Logistic回歸與香農(nóng)自信息的樣本賦權(quán)
        5.3.3 方向回歸網(wǎng)絡分支與輔助損失
    5.4 實驗與分析
        5.4.1 跨視角圖像地點識別相關數(shù)據(jù)集介紹
        5.4.2 模型與訓練設置細節(jié)
        5.4.3 跨視角圖像地點識別的評價度量
        5.4.4 本文方法與現(xiàn)有方法的比較
        5.4.5 本文損失函數(shù)與Triplet EDBL損失函數(shù)的性能對比
        5.4.6 多樣本平均策略性能實驗
    5.5 本章小結(jié)
第六章 總結(jié)與展望
    6.1 本文的主要工作
    6.2 下一步工作展望
致謝
參考文獻
作者在學期間取得的學術成果


【參考文獻】:
期刊論文
[1]CNN Feature Boosted SeqSLAM for Real-Time Loop Closure Detection[J]. BAI Dongdong,WANG Chaoqun,ZHANG Bo,YI Xiaodong,YANG Xuejun.  Chinese Journal of Electronics. 2018(03)
[2]基于精簡卷積神經(jīng)網(wǎng)絡的快速閉環(huán)檢測方法[J]. 何元烈,陳佳騰,曾碧.  計算機工程. 2018(06)

博士論文
[1]基于關注度機制的圖像理解[D]. 郭聰.中國科學技術大學 2018
[2]深度學習下細粒度級別圖像的視覺分析研究[D]. 魏秀參.南京大學 2018
[3]基于深度卷積神經(jīng)網(wǎng)絡的圖像分類方法研究及應用[D]. 高震宇.中國科學技術大學 2018
[4]基于深度學習表征的圖像檢索技術[D]. 孫韶言.中國科學技術大學 2017
[5]基于局部特征提取的人臉識別方法研究[D]. 李文娟.天津大學 2017
[6]基于圖像學習表征和重排序的遙感影像內(nèi)容檢索[D]. 唐旭.西安電子科技大學 2017
[7]基于卷積神經(jīng)網(wǎng)絡的計算機視覺關鍵技術研究[D]. 李彥冬.電子科技大學 2017
[8]基于深層神經(jīng)網(wǎng)絡的圖像識別算法研究[D]. 連自鋒.北京郵電大學 2017
[9]基于遷移學習與深度卷積特征的圖像標注方法研究[D]. 宋光慧.浙江大學 2017

碩士論文
[1]基于卷積神經(jīng)網(wǎng)絡的圖像識別[D]. 蔣帥.吉林大學 2017
[2]基于深度學習的無人駕駛場景識別[D]. 韓昕輝.中山大學 2017
[3]基于深度學習的目標場景識別[D]. 劉宇軒.北京郵電大學 2017



本文編號:3651452

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3651452.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶c2188***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com