天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

面向機(jī)動(dòng)目標(biāo)識(shí)別的多視角光場(chǎng)重構(gòu)方法研究

發(fā)布時(shí)間:2021-12-19 19:12
  近年來(lái),隨著深度學(xué)習(xí)的迅速發(fā)展,圖像處理這一研究方向備受關(guān)注。目標(biāo)識(shí)別技術(shù)是指利用計(jì)算機(jī)對(duì)圖像進(jìn)行處理、分析,將一特殊目標(biāo)從其他目標(biāo)中被區(qū)分出來(lái)的過(guò)程。由于遮擋、扭曲、模糊等因素的干擾,使得目標(biāo)識(shí)別的準(zhǔn)確率和魯棒性較差。與傳統(tǒng)成像相比,光場(chǎng)包含了在不同位置和不同角度對(duì)同一物體進(jìn)行拍攝的所有圖像,即光場(chǎng)所包含的圖像信息更廣泛,圖像質(zhì)量更高。由此可見(jiàn),光場(chǎng)可以作為目標(biāo)的天然特征庫(kù)。由于光場(chǎng)自身的稀疏性,光場(chǎng)重構(gòu)大大的提高了光場(chǎng)在實(shí)際中的應(yīng)用。然而,光場(chǎng)有限的可視范圍和光場(chǎng)重構(gòu)時(shí)數(shù)據(jù)量巨大、計(jì)算過(guò)程復(fù)雜等問(wèn)題極大地影響了光場(chǎng)在目標(biāo)識(shí)別中的準(zhǔn)確性和實(shí)時(shí)性。農(nóng)業(yè)是我國(guó)的第一產(chǎn)業(yè),其發(fā)展與大眾的衣食密不可分。實(shí)際的農(nóng)業(yè)場(chǎng)景通常也很復(fù)雜,不同的天氣、地域、土壤、光照及作物品種都給相關(guān)研究帶來(lái)了巨大挑戰(zhàn)。本研究針對(duì)光場(chǎng)可視范圍有限、光場(chǎng)重構(gòu)數(shù)據(jù)量大且可用數(shù)據(jù)難以獲取等問(wèn)題,利用多智能協(xié)作機(jī)制對(duì)機(jī)動(dòng)目標(biāo)狀態(tài)進(jìn)行有效估計(jì),解決了機(jī)動(dòng)目標(biāo)丟失的問(wèn)題。在有遮擋、分辨率低的環(huán)境下,圖像重構(gòu)所需要的基礎(chǔ)數(shù)據(jù)并不能完全得到。針對(duì)多視角光場(chǎng)重建過(guò)程中,捕獲數(shù)據(jù)樣本總量大,但可用數(shù)據(jù)較少的問(wèn)題,利用生成式對(duì)抗網(wǎng)絡(luò)對(duì)目標(biāo)... 

【文章來(lái)源】:河南科技學(xué)院河南省

【文章頁(yè)數(shù)】:61 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

面向機(jī)動(dòng)目標(biāo)識(shí)別的多視角光場(chǎng)重構(gòu)方法研究


多視角光場(chǎng)重構(gòu)下的機(jī)動(dòng)目標(biāo)識(shí)別方法流程圖

流程圖,重構(gòu)方法,視角,流程圖


基于多視角的光場(chǎng)重構(gòu)算法72基于多視角的光場(chǎng)重構(gòu)算法實(shí)際應(yīng)用場(chǎng)景中,獲得一個(gè)完整光場(chǎng)是難以實(shí)現(xiàn)的。在重構(gòu)過(guò)程中大量的數(shù)據(jù)會(huì)導(dǎo)致誤差增加等問(wèn)題,以至于造成光場(chǎng)重構(gòu)的實(shí)時(shí)性和識(shí)別準(zhǔn)確率不理想。因此,本章節(jié)提出光場(chǎng)的多視角表示模型,運(yùn)用該模型將全光場(chǎng)有效地分為多視角光場(chǎng),并對(duì)多視角下的光場(chǎng)依次進(jìn)行重構(gòu)。根據(jù)多視角協(xié)作機(jī)制對(duì)各視角捕獲的圖像信息進(jìn)行融合,并對(duì)機(jī)動(dòng)目標(biāo)做出有效的狀態(tài)估計(jì)[38],該方法具體流程如圖2-1所示。本章節(jié)部分內(nèi)容已在InternationalJournalofDistributedSensorNetworks雜志上發(fā)表[38]。圖2-1基于多視角的光場(chǎng)重構(gòu)方法總體流程圖2.1光場(chǎng)的多視角表示模型本章節(jié)使用斯坦福大學(xué)光場(chǎng)庫(kù)中的樂(lè)高推土機(jī)作為給定圖像表示為權(quán)重圖=(,),節(jié)點(diǎn)表示圖像中的像素點(diǎn),光場(chǎng)域表示鄰域結(jié)構(gòu)的選擇,域的權(quán)重為∈。定義每個(gè)節(jié)點(diǎn)∈的二元標(biāo)記為=∈{0,1},=1表示屬于目標(biāo),=0表示屬于背景。將每個(gè)視角光場(chǎng)閾值定義在:→2,那么最小適合的泛化函數(shù)()為()=∫|(())|2+|()|2+|()|2(2-1)式中,為閾值位于灰度梯度區(qū)域內(nèi)的標(biāo)準(zhǔn),為隨機(jī)參數(shù),為加權(quán)函數(shù)。在閾值中加入特定的參數(shù),即最小化如下泛化函數(shù)計(jì)算灰度函數(shù)()=∫()2+∫||2|+||(2-2)在公式(2-2)中,在輸入的光場(chǎng)圖像中加入與閾值近似值,并對(duì)閾值邊緣加權(quán)進(jìn)行評(píng)判,令:→在域上是灰度值輸入圖

模型圖,模型,視角


基于多視角的光場(chǎng)重構(gòu)算法9圖2-3光場(chǎng)重構(gòu)模型(,,,)是距離目標(biāo)平面的光場(chǎng)參數(shù),是由于光學(xué)漸暈效應(yīng)的衰減因子。把(,,,)→(′,′,,),那么就可以得到任意平面上的點(diǎn)成像函數(shù)(′,′,,)=(+′,+′,,)={(11)+′,(11)+′,,}(2-7)(,)(′,′)=122((11)+′,(11)+′,,)(2-8)基于上述方法可將各個(gè)視角光場(chǎng)通過(guò)四維傅里葉變換得到圖像的頻域信息,然后對(duì)其進(jìn)行中心切片及小波反變換依次重構(gòu)并得出各視角重構(gòu)后的光場(chǎng),如圖2-4所示。圖2-4多視角光場(chǎng)重構(gòu)流程圖2.3多視角光場(chǎng)的協(xié)作機(jī)制在執(zhí)行任務(wù)過(guò)程中,單視角的可視范圍是有限的,而且機(jī)動(dòng)目標(biāo)及視角周?chē)男畔⒁捕际茄杆侔l(fā)生變化的。由此可見(jiàn),單視角適應(yīng)性不強(qiáng),執(zhí)行效率較低。本文提出多視角光場(chǎng)間的協(xié)作機(jī)制,使得多視角光場(chǎng)在執(zhí)行任務(wù)的過(guò)程中,每個(gè)視角下的子光場(chǎng)可根據(jù)自身光場(chǎng)的信息與目標(biāo)信息完成角色互換,實(shí)現(xiàn)多視角光場(chǎng)協(xié)作[40-43]。多視角光場(chǎng)有

【參考文獻(xiàn)】:
期刊論文
[1]復(fù)雜動(dòng)背景下的“低小慢”目標(biāo)檢測(cè)技術(shù)[J]. 吳言楓,王延杰,孫海江,劉培勛.  中國(guó)光學(xué). 2019(04)
[2]基于深度學(xué)習(xí)的多視窗SSD目標(biāo)檢測(cè)方法[J]. 唐聰,凌永順,鄭科棟,楊星,鄭超,楊華,金偉.  紅外與激光工程. 2018(01)
[3]基于OpenCV的組合優(yōu)化多目標(biāo)檢測(cè)追蹤算法[J]. 鄭璽,李新國(guó).  計(jì)算機(jī)應(yīng)用. 2017(S2)
[4]復(fù)雜背景下紅外人體目標(biāo)檢測(cè)算法研究[J]. 馬也,常青,胡謀法.  紅外技術(shù). 2017(11)
[5]基于小波變換與稀疏傅里葉變換相結(jié)合的光場(chǎng)重構(gòu)方法[J]. 周廣福,文成林,高敬禮.  電子學(xué)報(bào). 2017(04)
[6]汽車(chē)輔助駕駛系統(tǒng)動(dòng)態(tài)目標(biāo)檢測(cè)方法[J]. 羅栩豪,王培,李紹華,梁巍,馬心坦.  計(jì)算機(jī)工程. 2018(01)
[7]光場(chǎng)圖像重構(gòu)算法仿真[J]. 速晉輝,金易弢,陸藝丹,張薇.  光學(xué)儀器. 2017(01)
[8]基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識(shí)別研究.[J]. 田壯壯,占榮輝,胡杰民,張軍.  雷達(dá)學(xué)報(bào). 2016(03)



本文編號(hào):3544914

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/zaizhiyanjiusheng/3544914.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)751c2***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com