天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 軟件論文 >

基于正交雙目視覺的菜粉蝶3D運動信息獲取技術研究

發(fā)布時間:2018-03-09 10:16

  本文選題:菜粉蝶 切入點:運動軌跡 出處:《西北農林科技大學》2017年碩士論文 論文類型:學位論文


【摘要】:隨著農業(yè)的快速發(fā)展,昆蟲行為分析的重要性愈發(fā)凸顯。隨著對昆蟲行為分析方法研究的逐漸深入,計算機視覺技術已經成為此方面研究的重要方法。本研究針對昆蟲行為學研究定量、精確地獲取昆蟲三維運動軌跡及運動參數(shù)的需要,根據(jù)風洞實驗環(huán)境和菜粉蝶運動特征,以農業(yè)常見害蟲菜粉蝶為研究對象,設計了頂視和側視攝像機正交配置的雙目視覺測量系統(tǒng),利用KCF(Kernelized Correlation Filters)算法,提出了一種昆蟲三維軌跡及飛行參數(shù)獲取方法。本研究可以較為準確地獲取昆蟲飛行軌跡及運動參數(shù),可以滿足對昆蟲行為分析的應用要求。論文的研究內容和取得的成果如下:(1)設計了一種正交雙目視覺昆蟲視頻采集系統(tǒng)。通過分析風洞的安裝位置、尺寸規(guī)格和昆蟲行為實驗室的實際空間環(huán)境,以及獲取高質量菜粉蝶活動視頻數(shù)據(jù)的應用需求,選擇了適于本研究的攝像機型號,設計了正交雙目視覺支架和攝像機安裝托板,通過分析及試驗確定并設計了同步觸發(fā)方式,對計算機硬件升級。測試結果表明,實際幀數(shù)可以達到理論幀數(shù)的99.93%~100%,該系統(tǒng)能夠滿足對菜粉蝶飛行視頻的流暢、無丟幀的采集需求。(2)對比分析了正交雙目視覺與傳統(tǒng)平行雙目視覺的攝像機標定方法。平行雙目視覺需要利用2個攝像機的內外參數(shù)進行雙目校正與視差圖的獲取,正交雙目視覺沒有復雜的雙目校正過程,只需要通過攝像機標定得到2個攝像機各自的內部參數(shù)即可。根據(jù)研究需求以及試驗的場地等外界因素,選擇張正友的棋盤格標定法,對2個攝像機進行標定得到內部參數(shù),結果表明,俯視攝像機和頂視攝像機的標定像素誤差均小于0.52,可以滿足標定需求。(3)研究了菜粉蝶目標的跟蹤方法,得出KCF算法的最佳參數(shù)選擇為線性核函數(shù)和灰度特征。根據(jù)菜粉蝶圖像序列的特點和菜粉蝶本身的飛行特性,選取3種非常具有代表性的視覺目標跟蹤方法進行分析,并對3種算法進行跟蹤試驗,對比分析表明,STC(Spatio Temporal Context Learning)算法和KCF算法跟蹤丟幀率均為0,平均像素誤差分別為12.47和7.12,后者更適用于菜粉蝶目標識別與跟蹤。設計KCF跟蹤算法不同核函數(shù)和特征試驗,結果表明,采用線性核函數(shù)和灰度特征,KCF跟蹤算法的平均像素誤差為5.58,能有效地跟蹤菜粉蝶目標。(4)研究分析了正交雙目視覺的立體匹配方法。通過與傳統(tǒng)的平行雙目視覺進行對比,在保證正交性的基礎上,正交匹配利用2個攝像機拍攝平面的正交關系可直接得到菜粉蝶目標的三維空間坐標,有效地降低了立體匹配算法復雜度,大大提高了獲取運動目標的空間三維軌跡的效率,且跟蹤丟幀率為0,能夠滿足本研究的系統(tǒng)要求。測試結果表明,本文方法可對菜粉蝶目標進行跟蹤、獲取其飛行3維運動軌跡,并可方便地測定菜粉蝶飛行的速度、加速度等參數(shù),檢測的三維空間對象距離相對誤差小于3.44%。
[Abstract]:With the rapid development of agriculture, the importance of insect behavior analysis becomes more and more important. Computer vision technology has become an important research method in this field. In this study, according to the experimental environment of wind tunnel and the movement characteristics of rapeseed butterflies, according to the needs of quantitative analysis of insect behavior research and accurate acquisition of three-dimensional motion trajectories and parameters of insects, In this paper, the binocular vision measurement system with the orthogonal configuration of top and side view cameras is designed, and the algorithm of KCF(Kernelized Correlation filters is used to design a binocular vision measurement system, which is a common agricultural pest, rapeseed butterfly. In this paper, a method for obtaining flight parameters and flight trajectory of insects is proposed, and the flight trajectory and motion parameters of insects can be obtained more accurately in this study. The research contents and results of this paper are as follows: 1) an orthogonal binocular visual insect video acquisition system is designed. By analyzing the installation position of wind tunnel, The dimension specification and the actual space environment of insect behavior laboratory, as well as the application requirement of obtaining high-quality video data of rapeseed butterfly activity, selected the camera model suitable for this study, designed the orthogonal binocular visual support and camera mounting plate. Through analysis and experiment, the synchronous trigger mode is determined and designed, and the computer hardware is upgraded. The test results show that the actual frame number can reach 99.933% of the theoretical frame count, and the system can satisfy the fluency of flying video of rapeseed butterfly. The camera calibration method of orthogonal binocular vision and traditional parallel binocular vision is compared and analyzed. Parallel binocular vision needs to use the internal and external parameters of two cameras for binocular correction and parallax image acquisition. Orthogonal binocular vision has no complicated binocular correction process. It only needs to get the internal parameters of two cameras by camera calibration. According to the external factors such as research demand and experimental site, Zhang Zhengyou's checkerboard calibration method is selected. The internal parameters are obtained by calibrating the two cameras. The results show that the calibration pixel errors of both overhead and overhead cameras are less than 0.52, which can meet the calibration requirements. (3) the tracking method of rapeseed butterfly target is studied. The optimal parameters of KCF algorithm are linear kernel function and gray feature. According to the characteristics of image sequence and flight characteristics of rapeseed butterfly, three very representative visual target tracking methods are selected to analyze. And the tracking experiments of three algorithms are carried out. The comparative analysis shows that the tracking frame loss rate of Spatio Temporal Context learning) algorithm and KCF algorithm are both 0, and the average pixel error is 12.47 and 7.12 respectively. The latter is more suitable for target recognition and tracking of rapeseed butterfly. Different kernel functions and feature tests of KCF tracking algorithm are designed, and the results show that, Using linear kernel function and gray feature KCF tracking algorithm, the average pixel error is 5.58, which can effectively track the target of rapeseed butterfly. The stereo matching method of orthogonal binocular vision is studied and analyzed. The method is compared with the traditional parallel binocular vision. Based on the guarantee of orthogonality, orthogonal matching can directly obtain the three-dimensional coordinates of the target of rapeseed butterfly by using the orthogonal relation of two cameras, which effectively reduces the complexity of stereo matching algorithm. The efficiency of acquiring 3D trajectory of moving target is greatly improved, and the tracking frame loss rate is 0, which can meet the system requirements of this study. The test results show that the method can track the target of rapeseed butterfly. The 3D motion trajectory is obtained, and the parameters such as velocity and acceleration of rapeseed butterfly flying can be measured conveniently. The relative error of the measured 3D object distance is less than 3.44.
【學位授予單位】:西北農林科技大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:S433;TP391.41

【相似文獻】

相關期刊論文 前5條

1 胡天翔;鄭加強;周宏平;;基于雙目視覺的樹木圖像測距方法[J];農業(yè)機械學報;2010年11期

2 王輝;毛文華;劉剛;胡小安;李樹君;;基于視覺組合的蘋果作業(yè)機器人識別與定位[J];農業(yè)機械學報;2012年12期

3 侯鑫新;譚月勝;;基于雙目視覺的測樹方法研究[J];中國農業(yè)信息;2013年09期

4 付為森;滕光輝;;基于雙目視覺技術的豬生長監(jiān)測系統(tǒng)標定模式[J];農業(yè)機械學報;2009年S1期

5 李斌;王海峰;黃文倩;張弛;;菠蘿采收機械低成本雙目視覺平臺搭建與田間試驗(英文)[J];農業(yè)工程學報;2012年S2期

相關會議論文 前7條

1 孟環(huán)標;楊興強;李雪梅;;基于雙目視覺的測量系統(tǒng)誤差分析[A];第五屆全國幾何設計與計算學術會議論文集[C];2011年

2 朱宗磊;殷福亮;;基于雙目視覺的目標檢測與跟蹤系統(tǒng)[A];2010年通信理論與信號處理學術年會論文集[C];2010年

3 王榮本;張明恒;毛曉燕;;雙目視覺技術在環(huán)境探測中的應用[A];中國宇航學會深空探測技術專業(yè)委員會第二屆學術會議論文集[C];2005年

4 張靜;李琳;劉曉平;;基于雙目視覺的虛擬手的實現(xiàn)[A];計算機技術與應用進展——全國第17屆計算機科學與技術應用(CACIS)學術會議論文集(上冊)[C];2006年

5 吳濤;劉欣;;基于單雙目視覺信息融合的障礙檢測方法[A];中國宇航學會深空探測技術專業(yè)委員會第二屆學術會議論文集[C];2005年

6 孫明;;基于雙目視覺的移動機器人避障研究[A];中國農業(yè)工程學會2011年學術年會論文集[C];2011年

7 杜英魁;韓建達;唐延東;;基于雙目重建不確定性的動態(tài)特征濾除[A];第七屆全國信息獲取與處理學術會議論文集[C];2009年

相關博士學位論文 前4條

1 許杰;基于雙目視覺和二維熵樹木信息點提取及生長量反演研究[D];東北林業(yè)大學;2015年

2 陳學惠;基于移動機器人雙目視覺的井下三維場景重建方法研究[D];中國礦業(yè)大學(北京);2012年

3 馬子昂;基于稀疏學習的視覺目標跟蹤[D];浙江大學;2017年

4 陳希章;基于雙目視覺的弧焊機器人焊縫三維信息獲取研究[D];上海交通大學;2007年

相關碩士學位論文 前10條

1 麥樹彬;基于雙目視覺的色盲輔助技術的研究[D];華南理工大學;2015年

2 徐宏;基于雙目視覺和稀疏表示的智能倒車控制研究[D];西南交通大學;2015年

3 李輝;田間機器人的雙目視覺系統(tǒng)誤差分析研究[D];內蒙古大學;2015年

4 逯沛龍;基于FPGA的雙目視覺圖像預處理系統(tǒng)設計與實現(xiàn)[D];南京理工大學;2015年

5 王婷婷;基于GPU的雙目視覺運動目標檢測跟蹤算法研究[D];哈爾濱工業(yè)大學;2015年

6 王昌盛;基于ORB算法的雙目視覺測量研究[D];哈爾濱工業(yè)大學;2015年

7 趙程;具有圓面特征的非合作目標雙目視覺位姿測量[D];哈爾濱工業(yè)大學;2015年

8 路研研;在軌航天器雙目視覺圖像采集與處理系統(tǒng)研制[D];哈爾濱工業(yè)大學;2015年

9 曹之樂;基于雙目視覺的焦點定位方法研究與應用[D];重慶理工大學;2015年

10 王洪偉;基于雙目視覺的紅綠燈路口安全距離預警研究[D];安徽工程大學;2015年

,

本文編號:1588099

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1588099.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權申明:資料由用戶31f7a***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com