基于目標丟失判別機制的視覺跟蹤算法及應用研究
發(fā)布時間:2021-03-05 13:24
視覺跟蹤算法能準確、穩(wěn)定、快速地判別目標并定位目標位置,對于提高視覺跟蹤系統(tǒng)的整體性能十分重要,但在背景雜亂、相似物體干擾、目標被遮擋、目標出鏡頭等場景下跟蹤算法容易丟失目標。本文針對視覺跟蹤算法丟失目標后無法找回目標的難題,提出了基于目標丟失判別機制的視覺跟蹤算法(YOLORTM),并在移動機器人視覺跟蹤系統(tǒng)上驗證算法的可行性。本文進行研究如下:(1)為了在復雜場景下,特別是目標被嚴重遮擋或出鏡頭時實現(xiàn)準確跟蹤,本文設計了基于目標丟失判別機制的視覺跟蹤算法(YOLO-RTM)。YOLO-RTM算法首先通過實時檢測算法(An incremental improvement of Real-Time Object Detection,YOLOv3)檢測視頻第一幀中的目標,之后利用實時多域卷積神經(jīng)網(wǎng)絡跟蹤算法(Real-time learning multi-domain convolutional neural networks for visual tracking,RT-MDNet)預測目標邊框的變化,最后計算檢測算法和跟蹤算法預測邊框的重疊度,根據(jù)重疊度與預設閾值的比較結(jié)果判斷目標...
【文章來源】:湘潭大學湖南省
【文章頁數(shù)】:63 頁
【學位級別】:碩士
【部分圖文】:
常用激活函數(shù)圖像
湘潭大學碩士學位論文25圖3-3YOLOv1、YOLOv2、YOLOv3第一幀檢測精度對比圖表3-1YOLOv1、YOLOv2、YOLOv3第一幀檢測精度對比表算法視頻YOLOv1YOLOv2YOLOv3Walker128.84%88.82%99.71%Walker259.39%90.99%99.98%Walker343.65%90.66%99.97%YOLOv1、YOLOv2、YOLOv3算法的檢測精度如表3-1所示、精度圖對比如圖3-3所示,可以看出YOLOv3檢測精度相比于YOLOv1和YOLOv2高出較多。YOLOv3模型性能如此優(yōu)秀,這一方面得益于模型的設計,利用Darknet-53更深的網(wǎng)絡、ResNet殘差結(jié)構(gòu)更好地提取卷積特征,另外一方面也得益于利用3個不同尺度下3個不同長寬比的先驗邊框,即共9個先驗邊框檢測,能夠檢測出不同大小的物體,且檢測精度較高。雖然實時檢測算法YOLOv3在檢測目標時,可以分類目標并定位目標位置,但是檢測算法的目地在于找到目標、分類目標,并不能判斷視頻幀圖像與幀圖像之間出現(xiàn)的目標是否為同一個目標,對于同一目標的位置如何變化、目標運動情況等并不能給出有效信息。下一節(jié)中,實時跟蹤算法能對視頻幀圖像與幀圖像之間的同一目標實現(xiàn)定位跟隨。
湘潭大學碩士學位論文263.2基于實時多域卷積神經(jīng)網(wǎng)絡的視覺跟蹤算法3.2.1視頻標注工具箱本章使用vatic視頻標注工具箱,制作視頻數(shù)據(jù)集,Github官網(wǎng)地址為如下:https://github.com/cvondrick/vatic.官網(wǎng)上有詳細安裝與使用過程,其具體安裝、使用過程如表3-2、3-3所示為:表3-2vatic安裝過程步驟安裝過程1安裝cython:sudopipinstallcython==0.202下載文件:wgethttp://mit.edu/vondrick/vatic/vatic-install.sh3授予權(quán)限:chmod+xvatic-install.sh4運行vatic-install.sh文件:./vatic-install.sh5進入vatic文件目錄下:cdvatic6配置HTTPServer7配置SQL數(shù)據(jù)庫8初始化數(shù)據(jù)庫:turkicsetup–database9允許vatic訪問turkic:turkicsetup--public-symlink10驗證是否安裝正確:turkicstatus–verify,如圖3-4所示圖3-4Vatic工具箱安裝成功表3-3Vatic使用過程(其中“/home/xtu”為用戶目錄)步驟使用過程1建立存儲文件夾:mkdir/home/xtu/output2提取視頻幀:turkicextract/home/xtu/video.mp4/home/xtu/output/3導入離線視頻:turkicloadidentifier/path/to/output/directoryLabel1--offline(Label1為視頻標簽)4pulish離線視頻:turkicpublish--offline5打開pulish后網(wǎng)址:顯示如圖3-5,可開始標注
【參考文獻】:
期刊論文
[1]基于深度學習的飛機目標跟蹤應用研究[J]. 趙春梅,陳忠碧,張建林. 光電工程. 2019(09)
[2]一種適用于多彈聯(lián)合攻擊機動目標的協(xié)同制導策略[J]. 田源,宿敬亞,孫月光,王俊波. 航空兵器. 2019(04)
[3]基于視覺的移動機器人目標跟蹤方法[J]. 余鐸,王耀南,毛建旭,鄭海華,周顯恩. 儀器儀表學報. 2019(01)
[4]旋翼飛行機器人的行人視覺跟蹤方法及系統(tǒng)[J]. 王耀南,羅瓊?cè)A,毛建旭,陳彥杰,周顯恩. 電子測量與儀器學報. 2018(11)
[5]視覺目標跟蹤方法研究綜述[J]. 葛寶義,左憲章,胡永江. 中國圖象圖形學報. 2018(08)
[6]室內(nèi)單目機器人視覺目標發(fā)現(xiàn)與跟隨[J]. 駱頗. 計算機系統(tǒng)應用. 2018(01)
[7]移動機器人實時目標跟蹤系統(tǒng)設計與實現(xiàn)[J]. 趙德超,彭力. 傳感器與微系統(tǒng). 2017(12)
[8]深度學習在視頻目標跟蹤中的應用進展與展望[J]. 管皓,薛向陽,安志勇. 自動化學報. 2016(06)
[9]彈道目標實時跟蹤中的濾波方法綜述[J]. 劉也,余安喜,朱炬波,唐歌實. 宇航學報. 2013(11)
博士論文
[1]復雜交通視頻場景中的車輛軌跡提取及行為分析[D]. 盧勝男.長安大學 2016
[2]基于視覺的微小型無人直升機位姿估計與目標跟蹤研究[D]. 徐偉杰.浙江大學 2012
碩士論文
[1]基于圖像分割的細胞序列跟蹤方法研究[D]. 張哲.吉林大學 2017
本文編號:3065274
【文章來源】:湘潭大學湖南省
【文章頁數(shù)】:63 頁
【學位級別】:碩士
【部分圖文】:
常用激活函數(shù)圖像
湘潭大學碩士學位論文25圖3-3YOLOv1、YOLOv2、YOLOv3第一幀檢測精度對比圖表3-1YOLOv1、YOLOv2、YOLOv3第一幀檢測精度對比表算法視頻YOLOv1YOLOv2YOLOv3Walker128.84%88.82%99.71%Walker259.39%90.99%99.98%Walker343.65%90.66%99.97%YOLOv1、YOLOv2、YOLOv3算法的檢測精度如表3-1所示、精度圖對比如圖3-3所示,可以看出YOLOv3檢測精度相比于YOLOv1和YOLOv2高出較多。YOLOv3模型性能如此優(yōu)秀,這一方面得益于模型的設計,利用Darknet-53更深的網(wǎng)絡、ResNet殘差結(jié)構(gòu)更好地提取卷積特征,另外一方面也得益于利用3個不同尺度下3個不同長寬比的先驗邊框,即共9個先驗邊框檢測,能夠檢測出不同大小的物體,且檢測精度較高。雖然實時檢測算法YOLOv3在檢測目標時,可以分類目標并定位目標位置,但是檢測算法的目地在于找到目標、分類目標,并不能判斷視頻幀圖像與幀圖像之間出現(xiàn)的目標是否為同一個目標,對于同一目標的位置如何變化、目標運動情況等并不能給出有效信息。下一節(jié)中,實時跟蹤算法能對視頻幀圖像與幀圖像之間的同一目標實現(xiàn)定位跟隨。
湘潭大學碩士學位論文263.2基于實時多域卷積神經(jīng)網(wǎng)絡的視覺跟蹤算法3.2.1視頻標注工具箱本章使用vatic視頻標注工具箱,制作視頻數(shù)據(jù)集,Github官網(wǎng)地址為如下:https://github.com/cvondrick/vatic.官網(wǎng)上有詳細安裝與使用過程,其具體安裝、使用過程如表3-2、3-3所示為:表3-2vatic安裝過程步驟安裝過程1安裝cython:sudopipinstallcython==0.202下載文件:wgethttp://mit.edu/vondrick/vatic/vatic-install.sh3授予權(quán)限:chmod+xvatic-install.sh4運行vatic-install.sh文件:./vatic-install.sh5進入vatic文件目錄下:cdvatic6配置HTTPServer7配置SQL數(shù)據(jù)庫8初始化數(shù)據(jù)庫:turkicsetup–database9允許vatic訪問turkic:turkicsetup--public-symlink10驗證是否安裝正確:turkicstatus–verify,如圖3-4所示圖3-4Vatic工具箱安裝成功表3-3Vatic使用過程(其中“/home/xtu”為用戶目錄)步驟使用過程1建立存儲文件夾:mkdir/home/xtu/output2提取視頻幀:turkicextract/home/xtu/video.mp4/home/xtu/output/3導入離線視頻:turkicloadidentifier/path/to/output/directoryLabel1--offline(Label1為視頻標簽)4pulish離線視頻:turkicpublish--offline5打開pulish后網(wǎng)址:顯示如圖3-5,可開始標注
【參考文獻】:
期刊論文
[1]基于深度學習的飛機目標跟蹤應用研究[J]. 趙春梅,陳忠碧,張建林. 光電工程. 2019(09)
[2]一種適用于多彈聯(lián)合攻擊機動目標的協(xié)同制導策略[J]. 田源,宿敬亞,孫月光,王俊波. 航空兵器. 2019(04)
[3]基于視覺的移動機器人目標跟蹤方法[J]. 余鐸,王耀南,毛建旭,鄭海華,周顯恩. 儀器儀表學報. 2019(01)
[4]旋翼飛行機器人的行人視覺跟蹤方法及系統(tǒng)[J]. 王耀南,羅瓊?cè)A,毛建旭,陳彥杰,周顯恩. 電子測量與儀器學報. 2018(11)
[5]視覺目標跟蹤方法研究綜述[J]. 葛寶義,左憲章,胡永江. 中國圖象圖形學報. 2018(08)
[6]室內(nèi)單目機器人視覺目標發(fā)現(xiàn)與跟隨[J]. 駱頗. 計算機系統(tǒng)應用. 2018(01)
[7]移動機器人實時目標跟蹤系統(tǒng)設計與實現(xiàn)[J]. 趙德超,彭力. 傳感器與微系統(tǒng). 2017(12)
[8]深度學習在視頻目標跟蹤中的應用進展與展望[J]. 管皓,薛向陽,安志勇. 自動化學報. 2016(06)
[9]彈道目標實時跟蹤中的濾波方法綜述[J]. 劉也,余安喜,朱炬波,唐歌實. 宇航學報. 2013(11)
博士論文
[1]復雜交通視頻場景中的車輛軌跡提取及行為分析[D]. 盧勝男.長安大學 2016
[2]基于視覺的微小型無人直升機位姿估計與目標跟蹤研究[D]. 徐偉杰.浙江大學 2012
碩士論文
[1]基于圖像分割的細胞序列跟蹤方法研究[D]. 張哲.吉林大學 2017
本文編號:3065274
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3065274.html
最近更新
教材專著