基于TLD框架的移動機器人目標(biāo)跟蹤方法研究及實現(xiàn)
發(fā)布時間:2022-04-17 19:02
近年來,隨著科技的發(fā)展以及計算機視覺和機器人等領(lǐng)域的深入研究,智能移動機器人技術(shù)取得了長足的發(fā)展。移動機器人目標(biāo)跟蹤技術(shù)是智能移動機器人領(lǐng)域中的關(guān)鍵技術(shù)之一,在很多領(lǐng)域有著廣泛的應(yīng)用前景。移動機器人的目標(biāo)跟蹤系統(tǒng)主要包含兩個部分:1)適用于使用場景的穩(wěn)定和魯棒的機器視覺目標(biāo)跟蹤算法;2)基于目標(biāo)跟蹤結(jié)果的移動機器人視覺引導(dǎo)運動控制。目標(biāo)跟蹤和視覺引導(dǎo)運動控制是移動機器人目標(biāo)跟蹤系統(tǒng)的核心組成。本文以Turtlebot3移動機器人為硬件載體,重點研究和提出了一種基于TLD(Tracking-learning-Detection)框架的移動機器人目標(biāo)跟蹤算法,使其能夠在Turtlebot3移動機器人平臺是實現(xiàn)對移動目標(biāo)的跟蹤,本文的主要工作如下:(1)調(diào)查和分析課題的研究背景和移動機器人目標(biāo)跟蹤的發(fā)展現(xiàn)狀,在此基礎(chǔ)上重點研究和分析了TLD視頻目標(biāo)跟蹤算法。它創(chuàng)造性的將檢測與跟蹤相融合,將整個系統(tǒng)框架分解為了三個功能:Detect、Track和Learn。檢測模塊對目標(biāo)進行全局檢測,跟蹤模塊在目標(biāo)連續(xù)可見時進行跟蹤,學(xué)習(xí)模塊能夠?qū)崿F(xiàn)對目標(biāo)特征的學(xué)習(xí),各個模塊之間獨立運行,相互配合使得TLD算...
【文章頁數(shù)】:76 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題研究背景和意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 目標(biāo)跟蹤技術(shù)研究現(xiàn)狀
1.2.2 移動機器人目標(biāo)跟蹤研究現(xiàn)狀
1.3 視覺目標(biāo)跟蹤的難點
1.4 論文的研究內(nèi)容
1.5 論文的組織結(jié)構(gòu)
第2章 TLD算法理論
2.1 TLD算法概述
2.2 TLD算法的跟蹤模塊
2.2.1 中值光流跟蹤器誤差自檢原理
2.2.2 跟蹤模塊的算法流程
2.3 TLD算法的檢測模塊
2.3.1 方差分類器
2.3.2 隨機蕨分類器
2.3.3 最近鄰分類器
2.3.4 TLD檢測模塊的算法流程
2.4 TLD算法的學(xué)習(xí)模塊
2.4.1 P-N學(xué)習(xí)原理
2.4.2 P-N學(xué)習(xí)的收斂性
2.5 本章小結(jié)
第3章 TLD算法跟蹤模塊改進
3.1 跟蹤模塊分析
3.2 圖像的特征點
3.3 Harris角點提取算法
3.4 FAST角點提取算法
3.5 Surf角點提取算法
3.5.1 Surf算法原理
3.6 一種基于角點提取改進的跟蹤點選取方法
3.7 改進跟蹤模塊算法步驟
3.8 實驗結(jié)果及分析
3.9 本章小結(jié)
第4章 TLD算法檢測模塊改進
4.1 檢測模塊分析
4.2 卡爾曼濾波器原理介紹
4.3 卡爾曼濾波模塊設(shè)計
4.4 實驗結(jié)果及分析
4.5 本章小結(jié)
第5章 改進TLD算法在移動機器人上的應(yīng)用
5.1 系統(tǒng)硬件平臺的介紹
5.2 系統(tǒng)軟件環(huán)境介紹
5.3 移動機器人的運動控制策略
5.4 視覺跟蹤系統(tǒng)目標(biāo)跟蹤的步驟
5.5 跟蹤系統(tǒng)實驗過程及實驗結(jié)果
5.6 本章小結(jié)
結(jié)論與展望
參考文獻
致謝
附錄 攻讀學(xué)位期間參與的科研項目與學(xué)術(shù)成果說明
【參考文獻】:
期刊論文
[1]基于Kalman算法改進的Camshift運動目標(biāo)跟蹤算法[J]. 楊軍,湯全武,張昊楠. 信息通信. 2018(12)
[2]基于顏色特征的自適應(yīng)尺度目標(biāo)跟蹤研究[J]. 馬松華,徐伯慶. 軟件導(dǎo)刊. 2018(11)
[3]基于條件生成式對抗網(wǎng)絡(luò)的數(shù)據(jù)增強方法[J]. 陳文兵,管正雄,陳允杰. 計算機應(yīng)用. 2018(11)
[4]基于Bresenham的圓弧生成算法及其應(yīng)用[J]. 王榮海,趙麗梅,喬之勇. 兵工自動化. 2018(09)
[5]智能移動機器人的技術(shù)現(xiàn)狀及展望[J]. 孫梅梅. 電子技術(shù)與軟件工程. 2017(10)
[6]SAR圖像最佳歐式空間距離矩陣匹配方法[J]. 曾麗娜,周德云,潘潛,張堃. 系統(tǒng)工程與電子技術(shù). 2017(05)
[7]基于長時間視頻序列的背景建模方法研究[J]. 丁潔,肖江劍,況立群,宋康康,彭成斌. 自動化學(xué)報. 2018(04)
[8]基于運動目標(biāo)檢測的智能視頻監(jiān)控技術(shù)[J]. 石巖,唐如霞. 數(shù)字技術(shù)與應(yīng)用. 2016(03)
[9]基于雙目視覺的移動機器人動態(tài)目標(biāo)識別與定位[J]. 邱雪娜,劉斐,劉士榮,孫凱. 華東理工大學(xué)學(xué)報(自然科學(xué)版). 2010(01)
[10]基于雙目視覺的運動物體實時跟蹤與測距[J]. 祝琨,楊唐文,阮秋琦,王紅波,韓建達. 機器人. 2009(04)
碩士論文
[1]基于RGB-D的運動目標(biāo)魯棒跟蹤算法研究[D]. 楊智婷.山東大學(xué) 2017
[2]基于機器視覺的自主式救援機器人的研究[D]. 周鵬程.東南大學(xué) 2016
[3]基于RGB-D傳感器的移動服務(wù)機器人功能軟件開發(fā)及應(yīng)用[D]. 居青.東南大學(xué) 2016
[4]基于RGB-D的人體運動目標(biāo)檢測及其應(yīng)用[D]. 陸晨皓.電子科技大學(xué) 2015
[5]基于關(guān)鍵特征點的TLD視頻目標(biāo)跟蹤算法[D]. 鄭濤.哈爾濱工程大學(xué) 2015
[6]基于移動式視覺機器人平臺的自主跟蹤系統(tǒng)設(shè)計與實現(xiàn)[D]. 張起.東北大學(xué) 2014
[7]基于CUDA的TLD視覺跟蹤算法研究[D]. 張平.北京交通大學(xué) 2014
[8]基于OPENCV的計算機視覺技術(shù)研究[D]. 黃佳.華東理工大學(xué) 2013
本文編號:3646112
【文章頁數(shù)】:76 頁
【學(xué)位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 課題研究背景和意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 目標(biāo)跟蹤技術(shù)研究現(xiàn)狀
1.2.2 移動機器人目標(biāo)跟蹤研究現(xiàn)狀
1.3 視覺目標(biāo)跟蹤的難點
1.4 論文的研究內(nèi)容
1.5 論文的組織結(jié)構(gòu)
第2章 TLD算法理論
2.1 TLD算法概述
2.2 TLD算法的跟蹤模塊
2.2.1 中值光流跟蹤器誤差自檢原理
2.2.2 跟蹤模塊的算法流程
2.3 TLD算法的檢測模塊
2.3.1 方差分類器
2.3.2 隨機蕨分類器
2.3.3 最近鄰分類器
2.3.4 TLD檢測模塊的算法流程
2.4 TLD算法的學(xué)習(xí)模塊
2.4.1 P-N學(xué)習(xí)原理
2.4.2 P-N學(xué)習(xí)的收斂性
2.5 本章小結(jié)
第3章 TLD算法跟蹤模塊改進
3.1 跟蹤模塊分析
3.2 圖像的特征點
3.3 Harris角點提取算法
3.4 FAST角點提取算法
3.5 Surf角點提取算法
3.5.1 Surf算法原理
3.6 一種基于角點提取改進的跟蹤點選取方法
3.7 改進跟蹤模塊算法步驟
3.8 實驗結(jié)果及分析
3.9 本章小結(jié)
第4章 TLD算法檢測模塊改進
4.1 檢測模塊分析
4.2 卡爾曼濾波器原理介紹
4.3 卡爾曼濾波模塊設(shè)計
4.4 實驗結(jié)果及分析
4.5 本章小結(jié)
第5章 改進TLD算法在移動機器人上的應(yīng)用
5.1 系統(tǒng)硬件平臺的介紹
5.2 系統(tǒng)軟件環(huán)境介紹
5.3 移動機器人的運動控制策略
5.4 視覺跟蹤系統(tǒng)目標(biāo)跟蹤的步驟
5.5 跟蹤系統(tǒng)實驗過程及實驗結(jié)果
5.6 本章小結(jié)
結(jié)論與展望
參考文獻
致謝
附錄 攻讀學(xué)位期間參與的科研項目與學(xué)術(shù)成果說明
【參考文獻】:
期刊論文
[1]基于Kalman算法改進的Camshift運動目標(biāo)跟蹤算法[J]. 楊軍,湯全武,張昊楠. 信息通信. 2018(12)
[2]基于顏色特征的自適應(yīng)尺度目標(biāo)跟蹤研究[J]. 馬松華,徐伯慶. 軟件導(dǎo)刊. 2018(11)
[3]基于條件生成式對抗網(wǎng)絡(luò)的數(shù)據(jù)增強方法[J]. 陳文兵,管正雄,陳允杰. 計算機應(yīng)用. 2018(11)
[4]基于Bresenham的圓弧生成算法及其應(yīng)用[J]. 王榮海,趙麗梅,喬之勇. 兵工自動化. 2018(09)
[5]智能移動機器人的技術(shù)現(xiàn)狀及展望[J]. 孫梅梅. 電子技術(shù)與軟件工程. 2017(10)
[6]SAR圖像最佳歐式空間距離矩陣匹配方法[J]. 曾麗娜,周德云,潘潛,張堃. 系統(tǒng)工程與電子技術(shù). 2017(05)
[7]基于長時間視頻序列的背景建模方法研究[J]. 丁潔,肖江劍,況立群,宋康康,彭成斌. 自動化學(xué)報. 2018(04)
[8]基于運動目標(biāo)檢測的智能視頻監(jiān)控技術(shù)[J]. 石巖,唐如霞. 數(shù)字技術(shù)與應(yīng)用. 2016(03)
[9]基于雙目視覺的移動機器人動態(tài)目標(biāo)識別與定位[J]. 邱雪娜,劉斐,劉士榮,孫凱. 華東理工大學(xué)學(xué)報(自然科學(xué)版). 2010(01)
[10]基于雙目視覺的運動物體實時跟蹤與測距[J]. 祝琨,楊唐文,阮秋琦,王紅波,韓建達. 機器人. 2009(04)
碩士論文
[1]基于RGB-D的運動目標(biāo)魯棒跟蹤算法研究[D]. 楊智婷.山東大學(xué) 2017
[2]基于機器視覺的自主式救援機器人的研究[D]. 周鵬程.東南大學(xué) 2016
[3]基于RGB-D傳感器的移動服務(wù)機器人功能軟件開發(fā)及應(yīng)用[D]. 居青.東南大學(xué) 2016
[4]基于RGB-D的人體運動目標(biāo)檢測及其應(yīng)用[D]. 陸晨皓.電子科技大學(xué) 2015
[5]基于關(guān)鍵特征點的TLD視頻目標(biāo)跟蹤算法[D]. 鄭濤.哈爾濱工程大學(xué) 2015
[6]基于移動式視覺機器人平臺的自主跟蹤系統(tǒng)設(shè)計與實現(xiàn)[D]. 張起.東北大學(xué) 2014
[7]基于CUDA的TLD視覺跟蹤算法研究[D]. 張平.北京交通大學(xué) 2014
[8]基于OPENCV的計算機視覺技術(shù)研究[D]. 黃佳.華東理工大學(xué) 2013
本文編號:3646112
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3646112.html
最近更新
教材專著