基于高光輔助和域適應(yīng)的夜間車輛檢測
發(fā)布時間:2020-05-05 06:50
【摘要】:夜間車輛檢測需要我們根據(jù)夜間場景圖像預測車輛的類別以及位置。該任務(wù)在自動駕駛系統(tǒng)(ADS)和輔助駕駛系統(tǒng)(DAS)中扮演不可或缺的角色。然而,夜間車輛檢測有以下幾個難點:(1)由于夜間光照較低,車輛的視覺特征難以識別,這給基于視覺的方法帶來了很大的挑戰(zhàn)。(2)夜間場景中車輛具有較大的類內(nèi)差異,譬如對向行駛的車的頭燈為白色,而同方向行駛的車的尾燈為紅色,這會加大特征表達的難度。(3)相比于白天車輛數(shù)據(jù),夜間車輛的數(shù)據(jù)比較匱乏;但是白天場景和夜間場景的視覺特征差異很大,利用白天場景訓練的模型無法直接應(yīng)用于夜間場景。車燈和其相應(yīng)的車身反光,本文統(tǒng)稱為車輛高光,是夜間場景中值得信賴的視覺特征。因此,有效地利用車輛高光信息可以在性能上得到較大的改進。針對有充分標記訓練數(shù)據(jù)的夜間車輛檢測任務(wù),本文提出了一種基于車輛高光信息的夜間車輛檢測框架。首先,本文生成了一個高細粒度的車輛高光檢測器,并創(chuàng)建了車輛標簽層級結(jié)構(gòu),以擴大類間差異和減少類內(nèi)差異。然后,本文提出了一種多尺度高光特征和車輛視覺特征的融合機制,以及一種端到端的高光融合網(wǎng)絡(luò)。由于采用了獨特的車輛高光融合機制,本文所提出的方法的性能優(yōu)于目前最先進的方法。同時,本文的方法遷移到不同的主流檢測網(wǎng)絡(luò)后都有較大幫助,說明本文的方法的泛化性很強。另外,在無監(jiān)督域適應(yīng)的夜間場景任務(wù)中,本文引進循環(huán)生成對抗的思想來拉近源域和目標域的距離。本文提出的方法超越現(xiàn)有最先進的目標檢測的域適應(yīng)方法。本文的主要貢獻有以下幾點:1、本文提出了兩種新的融合網(wǎng)絡(luò),這兩種網(wǎng)絡(luò)通過學習來自動平衡車輛高光和車輛自身不同層次的視覺特征的重要性,從而適應(yīng)大多數(shù)情況,甚至可以容忍車輛高光檢測的誤差。另外,本文發(fā)現(xiàn)除了車燈,車身反光也可以提供豐富的車輛位置提示信息,因此額外考慮車身反光可以大幅提升夜間車輛檢測的精確度。2、本文提出一個基于偽標簽迭代訓練的神經(jīng)網(wǎng)絡(luò),為車輛以及車輛高光劃分子類。子類標簽和原類別標簽共同構(gòu)成標簽層級。本文基于標簽層級的訓練機制可以解決類內(nèi)差異大的問題。3、本文提出一個針對夜間車輛檢測的域適應(yīng)框架。本文把生成對抗思想引入到域適應(yīng)中,從圖像層次和目標層次拉近源域和目標域的距離。提出的方法超越現(xiàn)有最先進的目標檢測的域適應(yīng)方法。
【圖文】:
可能緩解域差異帶來的影響,但是這么做非常的不明智,因為標記邊界框的工作既昂貴又費時。相比于夜間車輛數(shù)據(jù)集,白天場景車輛數(shù)據(jù)集(例如 KITTI[44],VOC[45],LSVH[71]等)非常豐富。如果能合理利用海量的白天場景的數(shù)據(jù)集,模型的泛化性會大幅提升。但是白天場景和夜間場景的視覺特征差異很大,利用白天場景訓練的模型無法直接應(yīng)用于夜間場景。因此,使目標檢測模型適應(yīng)于一個與初始訓練集視覺特征分布不同的新場景是非常必要的。調(diào)研結(jié)果顯示,目前比較少人關(guān)注目標檢測領(lǐng)域的域適應(yīng)研究。Chen 等人[63]首次提出一個能在圖像級別和實例級別拉近源域和目標域差異的端到端的目標檢測框架DA-Faster,以學習域間共同的特征。但是這個方法存在以下局限性:DA-Faster 試圖在不可控的特征空間中拉近域間距離,極有可能拉近源域前景和目標域背景特征分布的距離,,或者拉近源域背景和目標域前景特征分布的距離。1.2 本文工作
網(wǎng)絡(luò)結(jié)構(gòu)用VGG16[69]作為特征提取網(wǎng)絡(luò)。VGG模型是2014年IL人們在提取深度特征時常常會用到 VGG。圖 3-1 展示了nv3-64”表示卷積層的卷積核大小為 3,輸出的通道數(shù)且可以較好的提取深度特征,因此本文以 VGG16 作為圖 3-1 VGG[69]網(wǎng)絡(luò)結(jié)構(gòu)網(wǎng)絡(luò)結(jié)構(gòu)r RCNN
【學位授予單位】:華南理工大學
【學位級別】:碩士
【學位授予年份】:2019
【分類號】:U495;TP391.41
本文編號:2649711
【圖文】:
可能緩解域差異帶來的影響,但是這么做非常的不明智,因為標記邊界框的工作既昂貴又費時。相比于夜間車輛數(shù)據(jù)集,白天場景車輛數(shù)據(jù)集(例如 KITTI[44],VOC[45],LSVH[71]等)非常豐富。如果能合理利用海量的白天場景的數(shù)據(jù)集,模型的泛化性會大幅提升。但是白天場景和夜間場景的視覺特征差異很大,利用白天場景訓練的模型無法直接應(yīng)用于夜間場景。因此,使目標檢測模型適應(yīng)于一個與初始訓練集視覺特征分布不同的新場景是非常必要的。調(diào)研結(jié)果顯示,目前比較少人關(guān)注目標檢測領(lǐng)域的域適應(yīng)研究。Chen 等人[63]首次提出一個能在圖像級別和實例級別拉近源域和目標域差異的端到端的目標檢測框架DA-Faster,以學習域間共同的特征。但是這個方法存在以下局限性:DA-Faster 試圖在不可控的特征空間中拉近域間距離,極有可能拉近源域前景和目標域背景特征分布的距離,,或者拉近源域背景和目標域前景特征分布的距離。1.2 本文工作
網(wǎng)絡(luò)結(jié)構(gòu)用VGG16[69]作為特征提取網(wǎng)絡(luò)。VGG模型是2014年IL人們在提取深度特征時常常會用到 VGG。圖 3-1 展示了nv3-64”表示卷積層的卷積核大小為 3,輸出的通道數(shù)且可以較好的提取深度特征,因此本文以 VGG16 作為圖 3-1 VGG[69]網(wǎng)絡(luò)結(jié)構(gòu)網(wǎng)絡(luò)結(jié)構(gòu)r RCNN
【學位授予單位】:華南理工大學
【學位級別】:碩士
【學位授予年份】:2019
【分類號】:U495;TP391.41
【參考文獻】
中國碩士學位論文全文數(shù)據(jù)庫 前2條
1 謝敏珊;基于感知損失的深度卷積網(wǎng)絡(luò)的草圖簡化研究[D];華南理工大學;2018年
2 肖永杰;基于卷積神經(jīng)網(wǎng)絡(luò)的多尺度車輛檢測及其域自適應(yīng)研究[D];華南理工大學;2018年
本文編號:2649711
本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/2649711.html