機器人視野下圖像拼接技術(shù)的研究
【學(xué)位授予單位】:西安科技大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:TP391.41;TP242
【圖文】:
頻拼接的基礎(chǔ)圖像拼接與視頻拼接的關(guān)系信息爆炸的時代,人們經(jīng)常通過圖像和視頻來索取想要的信息,視頻的本視頻是連續(xù)的圖像,包含多幅圖像,并且包含圖像的運動信息,由于人眼限,故而當(dāng)在單位時間內(nèi)看到的圖像數(shù)目超過一定的數(shù)目,根據(jù)人體的各人們看到這些畫面將是連續(xù)的即運動的畫面,這就是所謂的視頻。這個頻圖片每秒,即 25 幀每秒,這便是經(jīng)常理解的幀率的概念。而視頻拼接是基礎(chǔ),要想研究視頻拼接,必須先研究圖像拼接,本文就是先研究圖像拼接的原理、過程應(yīng)用在視頻拼接上,再對視頻拼接稍作處理,便能得到完過程。此在研究視頻拼接之前,將先介紹圖像拼接,視頻可以分為一幀一幀的圖良好的圖像拼接算法重要性不言而喻,視頻拼接的質(zhì)量直接由前期圖像拼定,如圖 2.1 所示為圖像拼接的基本流程圖。
利用 DSP 運行程序。圖 2.2 圖像采集示意圖2.2 相機的投影模型要想進(jìn)行圖像或者視頻的拼接,就先要清楚待拼接的兩幅圖像的對應(yīng)關(guān)系,然后將對應(yīng)的關(guān)系表示出來,因此先了解相機的投影模型。攝像機在成像過程中第一步就是攝像機的標(biāo)定,現(xiàn)實世界是三維的場景,而相機拍攝出來的物體是二維的,兩者之間的轉(zhuǎn)換就是靠攝像機內(nèi)部的成像透鏡來投影得到的,所謂的成像變換就是上面所敘述的過程,也就是我們所說的攝像機成像模型。從現(xiàn)實世界上的某個物體上任意點,經(jīng)過光的直線傳播以及折射作用,最終變換到相機內(nèi)部上的像的點。一般來說,攝像機按成像原理的不同可以分為線性與非線性模型,小孔成像的原理眾所周知,其成像模型就是線性模型,本文就是使用同小孔成像原理相同的線性模型的攝像機。在成像過程中,現(xiàn)實世界的看到的物體,經(jīng)過種種坐標(biāo)系的變換,最后才在攝像機內(nèi)部的圖像坐標(biāo)系上顯示出來,而攝像機的標(biāo)定就是來描述這一過程,這一過程最終可用投影矩陣來表示[38,39]。
2 視頻拼接預(yù)處理 y 軸歸一化焦距。之間的關(guān)系成像模型型是本文所使用的相機的投影模型,如圖 2.3 所示,A 為現(xiàn)孔,黃色的部分 P 為像平面,B 為物體 A 經(jīng)過小孔投影在像型的原理為光的直線傳播,如1l 、2l 分別為物體 A 上邊界點直線傳播,到達(dá)小孔 C,然后穿過小孔,傳播到像平面的屏射光同樣的原理,都會經(jīng)過直線傳播到達(dá)像平面的屏幕 P 上像 B 的大小與像平面的屏幕 P、小孔 C 以及物體 A 之間的過程中,成像設(shè)備的鏡頭是各種透鏡,其原理與小孔成像相與相機的焦距以及距離物體的遠(yuǎn)近有關(guān)。
【參考文獻(xiàn)】
相關(guān)期刊論文 前8條
1 史建東;耿利川;秦永志;;基于BSIFT的無人機影像快速拼接算法[J];測繪與空間地理信息;2015年05期
2 耿利川;蘇松志;李紹滋;;基于透視不變二值特征描述子的圖像匹配算法[J];通信學(xué)報;2015年04期
3 瞿中;喬高元;林嗣鵬;;一種消除圖像拼接縫和鬼影的快速拼接算法[J];計算機科學(xué);2015年03期
4 劉鵬;王敏;;基于改進(jìn)加權(quán)融合算法的運動場景圖像拼接[J];信息技術(shù);2014年12期
5 宋衛(wèi)華;張青;;PCA算法在圖像特征降維中的應(yīng)用研究[J];黃山學(xué)院學(xué)報;2014年05期
6 鐘彩;;PCA算法在圖像特征處理中的研究[J];電子技術(shù)與軟件工程;2014年09期
7 阮越;陳漢武;劉志昊;張俊;朱皖寧;;量子主成分分析算法[J];計算機學(xué)報;2014年03期
8 王相海;周志光;;基于小波系數(shù)方向特性的圖像融合新算法[J];吉林師范大學(xué)學(xué)報(自然科學(xué)版);2008年03期
相關(guān)博士學(xué)位論文 前2條
1 劉大學(xué);用于越野自主導(dǎo)航車的激光雷達(dá)與視覺融合方法研究[D];國防科學(xué)技術(shù)大學(xué);2009年
2 孫振平;自主駕駛汽車智能控制系統(tǒng)[D];國防科學(xué)技術(shù)大學(xué);2004年
相關(guān)碩士學(xué)位論文 前7條
1 梁暢;基于ORB-GMS的魯棒實時全景視頻拼接技術(shù)的研究與實現(xiàn)[D];鄭州大學(xué);2018年
2 趙建超;基于多傳感器信息融合的智能機器人研究與設(shè)計[D];西安電子科技大學(xué);2017年
3 茹一偉;基于雙目視覺相機的深度圖像恢復(fù)技術(shù)研究與應(yīng)用[D];哈爾濱理工大學(xué);2017年
4 周逸徉;基于深度相機的場景物體定位與抓取研究[D];南京大學(xué);2017年
5 崔利洋;基于嵌入式視覺的自主機器人導(dǎo)航系統(tǒng)[D];燕山大學(xué);2017年
6 柯杰;基于FPGA+DSP的視頻目標(biāo)跟蹤系統(tǒng)設(shè)計與實現(xiàn)[D];哈爾濱工程大學(xué);2017年
7 查望華;雙足機器人運動控制系統(tǒng)的研究[D];浙江大學(xué);2016年
本文編號:2793024
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2793024.html