面向遠程環(huán)境目標感知的視覺跟蹤與深度估計算法研究
發(fā)布時間:2022-09-17 21:01
在我國多發(fā)自然災(zāi)害和事故災(zāi)難的情況下,為了保證救援人員的人身安全,發(fā)展遠程無人操作平臺是面向應(yīng)急救災(zāi)安全保障的新需求。為了向操作員提供準確的遠程環(huán)境感知能力,基于計算機視覺手段提取遠程環(huán)境中各類目標物的方位、姿態(tài)、深度等信息,可以規(guī)避潛在危險并實現(xiàn)直觀精細地操作輔助。針對遠程場景中的目標深度感知需求,本文從視覺目標跟蹤和雙目立體深度估計兩個方向研究了計算機視覺理論算法,取得了一定的理論研究成果,并設(shè)計了一種算法實施方案。近年來,基于傳統(tǒng)數(shù)學模型的視覺跟蹤方法和基于深度神經(jīng)網(wǎng)絡(luò)的立體匹配方法得到了研究人員的廣泛關(guān)注和持續(xù)跟進。一方面,復(fù)雜環(huán)境中隨時間變化的目標形態(tài)和目標外觀對現(xiàn)有跟蹤算法提出的挑戰(zhàn)仍然存在,如何挖掘目標局部穩(wěn)定外觀特征,實現(xiàn)快速準確的視覺跟蹤仍然需要深入研究。另一方面,最新的立體匹配算法通過設(shè)計復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來降低匹配誤差,但無法實時輸出高分辨率深度圖。如何通過簡化創(chuàng)新網(wǎng)絡(luò)結(jié)構(gòu)來提高立體匹配算法推理效率,并對深度圖中的邊緣等精細結(jié)構(gòu)實現(xiàn)準確預(yù)測,面向?qū)嵱没倪M立體匹配網(wǎng)絡(luò)仍是難點問題。本文首先完整地回顧總結(jié)了基于稀疏表示模型和基于相關(guān)濾波模型的視覺跟蹤方法中的數(shù)學...
【文章頁數(shù)】:156 頁
【學位級別】:博士
【文章目錄】:
摘要
abstract
第一章 緒論
1.1 研究背景與意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 遠程視覺感知的應(yīng)用研究現(xiàn)狀
1.2.2 運動目標深度估計的研究現(xiàn)狀
1.3 研究內(nèi)容和主要貢獻
1.4 本文的組織結(jié)構(gòu)
第二章 經(jīng)典視覺跟蹤與雙目深度估計算法研究現(xiàn)狀
2.1 引言
2.2 經(jīng)典視覺跟蹤算法的研究現(xiàn)狀
2.2.1 基于稀疏表示模型的跟蹤算法
2.2.2 基于相關(guān)濾波模型的跟蹤算法
2.3 雙目深度估計原理與立體匹配研究現(xiàn)狀
2.3.1 雙目視覺系統(tǒng)的標定及深度估計原理
2.3.2 基于深度神經(jīng)網(wǎng)絡(luò)的立體匹配算法
2.4 本章小結(jié)
第三章 基于循環(huán)反向稀疏模型的實時稀疏視覺跟蹤
3.1 引言
3.2 循環(huán)反向稀疏模型的建立與優(yōu)化
3.2.1 問題建模
3.2.2 優(yōu)化求解
3.2.3 模板更新
3.2.4 整體實現(xiàn)
3.3 實驗結(jié)果與分析
3.3.1 實驗設(shè)置
3.3.2 定量分析
3.3.3 屬性分析
3.4 本章小結(jié)
第四章 基于空間樹形結(jié)構(gòu)聯(lián)合約束的稀疏相關(guān)視覺跟蹤
4.1 引言
4.2 相關(guān)濾波原理與結(jié)構(gòu)稀疏約束
4.2.1 相關(guān)濾波原理
4.2.2 結(jié)構(gòu)稀疏約束
4.3 空間結(jié)構(gòu)聯(lián)合約束跟蹤模型的建立與優(yōu)化
4.3.1 問題建模
4.3.2 優(yōu)化求解
4.3.3 模板更新
4.3.4 整體實現(xiàn)
4.4 實驗結(jié)果與分析
4.4.1 實驗設(shè)置
4.4.2 定量分析
4.4.3 定性分析
4.5 本章小結(jié)
第五章 基于自適應(yīng)深度不連續(xù)感知的深度立體匹配網(wǎng)絡(luò)
5.1 引言
5.2 基于局部自適應(yīng)感知的立體匹配網(wǎng)絡(luò)
5.2.1 網(wǎng)絡(luò)整體結(jié)構(gòu)與參數(shù)
5.2.2 局部自適應(yīng)正則化損失
5.3 實驗結(jié)果與分析
5.3.1 實驗設(shè)置及評價指標
5.3.2 定量分析和定性分析
5.4 本章小結(jié)
第六章 基于深度超分辨率子網(wǎng)的高效立體匹配網(wǎng)絡(luò)
6.1 引言
6.2 基于深度超分辨率的高效立體匹配網(wǎng)絡(luò)
6.2.1 網(wǎng)絡(luò)整體結(jié)構(gòu)與參數(shù)
6.2.2 深度不連續(xù)感知超分辨率子網(wǎng)
6.2.3 深度不連續(xù)感知損失
6.3 實驗結(jié)果與分析
6.3.1 實驗設(shè)置及評價指標
6.3.2 定量分析和定性分析
6.4 本章小結(jié)
第七章 基于視覺跟蹤和深度估計的目標感知系統(tǒng)
7.1 引言
7.2 遠程目標感知系統(tǒng)的總體結(jié)構(gòu)
7.3 遠程目標感知系統(tǒng)的關(guān)鍵實現(xiàn)
7.3.1 基于循環(huán)反向稀疏模型的多線程跟蹤
7.3.2 基于高效立體匹配網(wǎng)絡(luò)的域自適應(yīng)微調(diào)
7.4 系統(tǒng)仿真實驗
7.4.1 室內(nèi)環(huán)境深度估計實驗
7.4.2 室外環(huán)境系統(tǒng)運行實驗
7.5 本章小結(jié)
第八章 總結(jié)與展望
8.1 全文總結(jié)
8.2 后續(xù)工作展望
致謝
參考文獻
攻讀博士學位期間取得的成果
【參考文獻】:
期刊論文
[1]立體視覺臨場感系統(tǒng)的設(shè)計和實現(xiàn)[J]. 胡海鷹,李家煒,王捷,劉宏. 光學技術(shù). 2006(S1)
博士論文
[1]基于立體視覺的空間動態(tài)目標測量與跟蹤算法設(shè)計[D]. 高瞻宇.中國科學院大學(中國科學院長春光學精密機械與物理研究所) 2018
[2]微創(chuàng)手術(shù)機器人立體視覺系統(tǒng)設(shè)計方法與引導(dǎo)機理研究[D]. 高元倩.天津大學 2017
[3]面向空間艙內(nèi)機器人遙操作的增強現(xiàn)實仿真場景構(gòu)建技術(shù)研究[D]. 張金玲.北京郵電大學 2009
[4]基于增強現(xiàn)實的遙操作關(guān)鍵技術(shù)研究[D]. 熊友軍.華中科技大學 2005
碩士論文
[1]基于VR的遙操作工程機器人系統(tǒng)研究[D]. 陶浩.廣東工業(yè)大學 2019
[2]基于雙目視覺的特定運動目標跟蹤和實時測距方法研究[D]. 李薇.西安理工大學 2018
[3]遙操作機器人虛擬環(huán)境建模及實驗研究[D]. 袁祖龍.東南大學 2018
[4]遠程視覺感知與呈現(xiàn)方法的研究[D]. 李聞捷.電子科技大學 2018
[5]基于全方位視覺系統(tǒng)的運動目標檢測、跟蹤及三維定位算法研究[D]. 龔鼎.深圳大學 2017
[6]基于雙目視覺的運動目標深度信息提取方法研究[D]. 靳太明.電子科技大學 2017
[7]基于增強現(xiàn)實技術(shù)的遙操作方式設(shè)計與實現(xiàn)[D]. 林淵.哈爾濱工業(yè)大學 2016
[8]基于雙目視覺的運動目標檢測與三維測量[D]. 孫亞芹.西南大學 2015
[9]雙目測距系統(tǒng)及標定方法研究[D]. 姜雨彤.長春理工大學 2013
[10]基于雙目視覺信息的運動物體實時跟蹤與測距[D]. 祝琨.北京交通大學 2008
本文編號:3679932
【文章頁數(shù)】:156 頁
【學位級別】:博士
【文章目錄】:
摘要
abstract
第一章 緒論
1.1 研究背景與意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 遠程視覺感知的應(yīng)用研究現(xiàn)狀
1.2.2 運動目標深度估計的研究現(xiàn)狀
1.3 研究內(nèi)容和主要貢獻
1.4 本文的組織結(jié)構(gòu)
第二章 經(jīng)典視覺跟蹤與雙目深度估計算法研究現(xiàn)狀
2.1 引言
2.2 經(jīng)典視覺跟蹤算法的研究現(xiàn)狀
2.2.1 基于稀疏表示模型的跟蹤算法
2.2.2 基于相關(guān)濾波模型的跟蹤算法
2.3 雙目深度估計原理與立體匹配研究現(xiàn)狀
2.3.1 雙目視覺系統(tǒng)的標定及深度估計原理
2.3.2 基于深度神經(jīng)網(wǎng)絡(luò)的立體匹配算法
2.4 本章小結(jié)
第三章 基于循環(huán)反向稀疏模型的實時稀疏視覺跟蹤
3.1 引言
3.2 循環(huán)反向稀疏模型的建立與優(yōu)化
3.2.1 問題建模
3.2.2 優(yōu)化求解
3.2.3 模板更新
3.2.4 整體實現(xiàn)
3.3 實驗結(jié)果與分析
3.3.1 實驗設(shè)置
3.3.2 定量分析
3.3.3 屬性分析
3.4 本章小結(jié)
第四章 基于空間樹形結(jié)構(gòu)聯(lián)合約束的稀疏相關(guān)視覺跟蹤
4.1 引言
4.2 相關(guān)濾波原理與結(jié)構(gòu)稀疏約束
4.2.1 相關(guān)濾波原理
4.2.2 結(jié)構(gòu)稀疏約束
4.3 空間結(jié)構(gòu)聯(lián)合約束跟蹤模型的建立與優(yōu)化
4.3.1 問題建模
4.3.2 優(yōu)化求解
4.3.3 模板更新
4.3.4 整體實現(xiàn)
4.4 實驗結(jié)果與分析
4.4.1 實驗設(shè)置
4.4.2 定量分析
4.4.3 定性分析
4.5 本章小結(jié)
第五章 基于自適應(yīng)深度不連續(xù)感知的深度立體匹配網(wǎng)絡(luò)
5.1 引言
5.2 基于局部自適應(yīng)感知的立體匹配網(wǎng)絡(luò)
5.2.1 網(wǎng)絡(luò)整體結(jié)構(gòu)與參數(shù)
5.2.2 局部自適應(yīng)正則化損失
5.3 實驗結(jié)果與分析
5.3.1 實驗設(shè)置及評價指標
5.3.2 定量分析和定性分析
5.4 本章小結(jié)
第六章 基于深度超分辨率子網(wǎng)的高效立體匹配網(wǎng)絡(luò)
6.1 引言
6.2 基于深度超分辨率的高效立體匹配網(wǎng)絡(luò)
6.2.1 網(wǎng)絡(luò)整體結(jié)構(gòu)與參數(shù)
6.2.2 深度不連續(xù)感知超分辨率子網(wǎng)
6.2.3 深度不連續(xù)感知損失
6.3 實驗結(jié)果與分析
6.3.1 實驗設(shè)置及評價指標
6.3.2 定量分析和定性分析
6.4 本章小結(jié)
第七章 基于視覺跟蹤和深度估計的目標感知系統(tǒng)
7.1 引言
7.2 遠程目標感知系統(tǒng)的總體結(jié)構(gòu)
7.3 遠程目標感知系統(tǒng)的關(guān)鍵實現(xiàn)
7.3.1 基于循環(huán)反向稀疏模型的多線程跟蹤
7.3.2 基于高效立體匹配網(wǎng)絡(luò)的域自適應(yīng)微調(diào)
7.4 系統(tǒng)仿真實驗
7.4.1 室內(nèi)環(huán)境深度估計實驗
7.4.2 室外環(huán)境系統(tǒng)運行實驗
7.5 本章小結(jié)
第八章 總結(jié)與展望
8.1 全文總結(jié)
8.2 后續(xù)工作展望
致謝
參考文獻
攻讀博士學位期間取得的成果
【參考文獻】:
期刊論文
[1]立體視覺臨場感系統(tǒng)的設(shè)計和實現(xiàn)[J]. 胡海鷹,李家煒,王捷,劉宏. 光學技術(shù). 2006(S1)
博士論文
[1]基于立體視覺的空間動態(tài)目標測量與跟蹤算法設(shè)計[D]. 高瞻宇.中國科學院大學(中國科學院長春光學精密機械與物理研究所) 2018
[2]微創(chuàng)手術(shù)機器人立體視覺系統(tǒng)設(shè)計方法與引導(dǎo)機理研究[D]. 高元倩.天津大學 2017
[3]面向空間艙內(nèi)機器人遙操作的增強現(xiàn)實仿真場景構(gòu)建技術(shù)研究[D]. 張金玲.北京郵電大學 2009
[4]基于增強現(xiàn)實的遙操作關(guān)鍵技術(shù)研究[D]. 熊友軍.華中科技大學 2005
碩士論文
[1]基于VR的遙操作工程機器人系統(tǒng)研究[D]. 陶浩.廣東工業(yè)大學 2019
[2]基于雙目視覺的特定運動目標跟蹤和實時測距方法研究[D]. 李薇.西安理工大學 2018
[3]遙操作機器人虛擬環(huán)境建模及實驗研究[D]. 袁祖龍.東南大學 2018
[4]遠程視覺感知與呈現(xiàn)方法的研究[D]. 李聞捷.電子科技大學 2018
[5]基于全方位視覺系統(tǒng)的運動目標檢測、跟蹤及三維定位算法研究[D]. 龔鼎.深圳大學 2017
[6]基于雙目視覺的運動目標深度信息提取方法研究[D]. 靳太明.電子科技大學 2017
[7]基于增強現(xiàn)實技術(shù)的遙操作方式設(shè)計與實現(xiàn)[D]. 林淵.哈爾濱工業(yè)大學 2016
[8]基于雙目視覺的運動目標檢測與三維測量[D]. 孫亞芹.西南大學 2015
[9]雙目測距系統(tǒng)及標定方法研究[D]. 姜雨彤.長春理工大學 2013
[10]基于雙目視覺信息的運動物體實時跟蹤與測距[D]. 祝琨.北京交通大學 2008
本文編號:3679932
本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/3679932.html
最近更新
教材專著