天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 電子信息論文 >

基于深度CRF網(wǎng)絡(luò)的單目紅外場景深度估計

發(fā)布時間:2021-07-14 02:26
  對單目紅外圖像進(jìn)行深度估計,不僅有利于3D場景理解,而且有助于進(jìn)一步推廣和開發(fā)夜間視覺應(yīng)用。針對紅外圖像無顏色、紋理不豐富、輪廓不清晰等缺點,本文提出一種新穎的深度條件隨機(jī)場網(wǎng)絡(luò)學(xué)習(xí)模型(deep conditional random field network, DCRFN)來估計紅外圖像的深度。首先,與傳統(tǒng)條件隨機(jī)場(conditional random field, CRF)模型不同,DCRFN不需預(yù)設(shè)成對特征,可通過一個淺層網(wǎng)絡(luò)架構(gòu)提取和優(yōu)化模型的成對特征。其次,將傳統(tǒng)單目圖像深度回歸問題轉(zhuǎn)換為分類問題,在損失函數(shù)中考慮不同標(biāo)簽的有序信息,不僅加快了網(wǎng)絡(luò)的收斂速度,而且有助于獲得更優(yōu)的解。最后,本文在DCRFN損失函數(shù)層計算不同空間尺度的成對項,使得預(yù)測深度圖的景物輪廓信息相比于無尺度約束模型更加豐富。實驗結(jié)果表明,本文提出的方法在紅外數(shù)據(jù)集上優(yōu)于現(xiàn)有的深度估計方法,在局部場景變化的預(yù)測中更加平滑。 

【文章來源】:紅外技術(shù). 2020,42(06)北大核心CSCD

【文章頁數(shù)】:9 頁

【部分圖文】:

基于深度CRF網(wǎng)絡(luò)的單目紅外場景深度估計


DCCRFN學(xué)習(xí)模型型Fig.2DCRFNlearnningmodel

實例圖,深度圖,數(shù)據(jù)集,實例


第20584.本果42卷第6期020年6月86Fig.5Search.2實驗結(jié)果在給定模本文提出的D果?梢钥闯鰣D5DCRFhfortheoptima果分析模型最優(yōu)超參DCRFN與一出,在NUSTTable2ComMethMake3D[6]Eigenetal.[11]DeepLabV1[16Liu-DCNF[19]Caoetal.[27]PRN[1]DCRFN(Ours)N超參數(shù)尋優(yōu)alhyper-param參數(shù)的情況下一些經(jīng)典方法TMS數(shù)據(jù)集表2Dmparisonofdepod]])Fig.6Ex優(yōu)meterofDCRFN下,表2列出法定量比較的集上,本文方DCRFN模型與pthestimationrError(Lowrell0.3120.0.2300.0.2310.0.2290.0.2250.0.2100.0.1840.圖6NUSTMxamplesofpre紅外技InfraredTechN出了的結(jié)方法優(yōu)于法在通過獻(xiàn)[域關(guān)合的于方法計了征來任意出,場景樹木行人特征與其他經(jīng)典方法resultsbetweenwerisbetter)lg10rms0974.1240873.310933.3940813.2970833.2990873.2520752.984MS數(shù)據(jù)集下預(yù)dicteddepthm術(shù)nology于有監(jiān)督學(xué)習(xí)在誤差和正確過深度卷積網(wǎng)6]中通過手工關(guān)系,這使得的方法(文獻(xiàn)PGM的方法法,這主要由了兩個深度特來自簡單的預(yù)意4個不同場針對可見光景的總體深度木的輪廓、第人等;而本文征網(wǎng)絡(luò),因此法的深度估計結(jié)nDCRFNmodeAcc1.2548479240.6440.7160.7160.7310.7320.7410.789預(yù)測深度圖實例mapsonNUSTM習(xí)的方法。相確率兩個評估網(wǎng)絡(luò)獲得的一工提取的特征得它們表現(xiàn)弱獻(xiàn)[16,19,27]和法中,本文提由于本文針對特征模型,而預(yù)設(shè)先驗。圖場景下的定性光設(shè)?

紅外,模型,深度圖,圖像


第20的型一僅5紅的C模件的D自夠物紅不標(biāo)低域42卷第6期020年6月最后,本的重要性。如型,僅成對模一元項和成對僅由一元模型圖8Fig.8Thedetrainin結(jié)論本文提出紅外圖像的深的應(yīng)用,F(xiàn)有NNs,由于忽模糊甚至錯誤件下,將CNN的聯(lián)合優(yōu)化提DCRFN模型自主學(xué)習(xí)。同夠融合到DC物邊緣預(yù)測。紅外圖像和深不同尺度深度標(biāo)證明了本文在未來的低網(wǎng)絡(luò)的參數(shù)域?qū)嶋H應(yīng)用。本文分析證明如圖7所示,模型和總體輸對項來模擬標(biāo)型雖可以估計訓(xùn)練過程中Decompositionpg出一種新穎的深度信息,這有的紅外圖忽略了優(yōu)化結(jié)誤。本文在充Ns與CRF的提升了模型的型無需預(yù)先定同時深度的離RFN損失函除此之外,深度圖之間的度序列之間的文方法的可行的研究工作中數(shù)規(guī)模,以便除此之外,王倩倩明了成對項模本文分別輸輸出結(jié)果的對標(biāo)簽的聯(lián)合分計出的整體的FDCRFN分解表performanceof的DCRFN模這有助于推進(jìn)圖像深度估計結(jié)構(gòu)損失,造充分考慮紅外的優(yōu)勢結(jié)合在的泛化能力。值定義成對特征離散策略,使函數(shù)中,從而DCRFN不的關(guān)系,而且的關(guān)系。最后行性與準(zhǔn)確性中,將考慮采便模型能在夜考慮將紅外倩等:基于深度模型于整個模輸出了僅一元對比。通過定分布,可以看出的深度圖,添圖7DFig.7Thedec表現(xiàn)對比DCRFNduring模型來估計單進(jìn)夜間視覺產(chǎn)計方法雖基造成預(yù)測深度外圖像特點的在模型中,二值得注意的是征,可以實現(xiàn)使得有序約束而獲得更好的不僅建立了原且還構(gòu)造了場后,實驗評估性。采

【參考文獻(xiàn)】:
期刊論文
[1]基于金字塔型殘差神經(jīng)網(wǎng)絡(luò)的紅外圖像深度估計[J]. 顧婷婷,趙海濤,孫韶媛.  紅外技術(shù). 2018(05)



本文編號:3283218

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/dianzigongchenglunwen/3283218.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶2ceb9***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com