基于時空信息CNN物體檢測方法的研究
發(fā)布時間:2020-08-14 18:22
【摘要】:近幾年,對深度學習的研究取得了突破的進展,基于深度學習的物體檢測任務(wù)在計算機視覺方面有著廣泛的應(yīng)用,如車載影像、機器人導航、無人駕駛等,因此物體檢測成為了理論研究和應(yīng)用的熱點。目前,基于單幀的物體檢測方法已經(jīng)取得了很好的效果,但是在基于視頻的物體檢測中直接使用此方法還存在一些問題,如視頻幀中出現(xiàn)模糊、失焦等情況,基于單幀的物體檢測方法無法檢測出此類物體。因此,本文對物體檢測方法進行了研究,利用視頻中相鄰幀之間存在的相關(guān)性,融合了時間信息與空間信息,并對卷積神經(jīng)網(wǎng)絡(luò)模型進行改進,使物體檢測的準確率得到提高。在基于卷積神經(jīng)網(wǎng)絡(luò)的物體檢測方面,主要對卷積神經(jīng)網(wǎng)絡(luò)YOLOv3方法進行改進。本文通過對YOLOv3方法進行研究和分析,為解決YOLOv3方法對尺度中等或者較大的物體的檢測效果不理想,容易出現(xiàn)漏檢、誤檢、重復檢測等問題,本文提出了改進的YOLOv3方法,在主網(wǎng)絡(luò)之后添加兩個殘差塊,與YOLOv3原有的3個不同尺度共同組成包括5個不同尺度的特征金字塔,在這5個不同尺度的特征圖上進行預測。通過改進的方法,在檢測出小物體的同時提高對中等尺度或大尺度物體檢測的準確率。在視頻中的物體檢測方面,視頻中含有豐富的時間信息和空間信息,基于單幀圖像的物體檢測中未考慮這些信息,無法檢測出視頻幀圖像中模糊、失焦的物體。因此,為了提高物體檢測的準確率,本文提出了時空信息融合方法,在本文中首先通過時間、空間信息分別對視頻幀圖像進行預處理,在時間上使用了光流法,在空間上使用了基于區(qū)域顏色對比度的方法,然后使用時空信息融合的方法將時空信息進行融合,最后使用改進的卷積神經(jīng)網(wǎng)絡(luò)模型進行物體檢測得到檢測結(jié)果。
【學位授予單位】:遼寧大學
【學位級別】:碩士
【學位授予年份】:2019
【分類號】:TP183;TP391.41
【圖文】:
位置的準確性。其中置信度計算公式為:Pr( )*truthpredconfidence Object IOU(3其中若邊界框內(nèi)存在物體,Pr(Object)=1;否則 Pr(Object)=0。truthpredIOU 表示預測的物體邊框和真實的物體邊框的交集 Overlap(truth,pred)與它們并Union(truth,pred)的比值,其計算公式為:( , )( , )Area of Overlap truth predIOUArea of Union truth pred (3在 YOLOv3 方法中使用 Darknet 網(wǎng)絡(luò)模型來實現(xiàn)特征提取,使用特征金塔(FPN)進行多尺度預測。Darknet 網(wǎng)絡(luò)模型中包含了大量的卷積層,降低了網(wǎng)的訓練難度。FPN 結(jié)構(gòu)在原來單一的結(jié)構(gòu)上修改的,將低尺度、高語義信息高層特征和高尺度、第語義信息的底層特征進行自上而下的側(cè)邊連接,使所的特征都包含豐富的語義信息。YOLOv3 方法在不同尺度的特征圖上做預測每一幅特征圖都融合了不同的語義特征,不同的分辨率,YOLOv3 方法多尺預測結(jié)構(gòu)如圖 3-1 所示:
在 YOLOv3 方法中最小的特征圖是 13*13,并在此特征圖上進行預測,使YOLOv3 方法對尺寸中等或者較大的物體的檢測效果不理想,容易造成漏檢、誤檢、重復檢測等問題,如圖3-2 所示。
第 4 章 基于時空信息融合的 TS-CNN 的物體檢測方法頻中的物體檢測的準確率。于視頻的物體檢測計算機圖像處理領(lǐng)域,物體檢測任務(wù)占有非常重要的地位,卷積神現(xiàn)使單幀圖像的物體檢測的速度與準確率都得到了明顯的提升,部進行實時檢測,但是在視頻的物體檢測任務(wù)中直接使用單幀圖像的法還存在一些問題,視頻中的物體會存在運動情況,使視頻幀圖像現(xiàn)被遮擋、模糊等問題,如圖 4-2 所示,導致檢測網(wǎng)絡(luò)不能有效的檢使基于視頻的物體檢測任務(wù)變得困難。
本文編號:2793379
【學位授予單位】:遼寧大學
【學位級別】:碩士
【學位授予年份】:2019
【分類號】:TP183;TP391.41
【圖文】:
位置的準確性。其中置信度計算公式為:Pr( )*truthpredconfidence Object IOU(3其中若邊界框內(nèi)存在物體,Pr(Object)=1;否則 Pr(Object)=0。truthpredIOU 表示預測的物體邊框和真實的物體邊框的交集 Overlap(truth,pred)與它們并Union(truth,pred)的比值,其計算公式為:( , )( , )Area of Overlap truth predIOUArea of Union truth pred (3在 YOLOv3 方法中使用 Darknet 網(wǎng)絡(luò)模型來實現(xiàn)特征提取,使用特征金塔(FPN)進行多尺度預測。Darknet 網(wǎng)絡(luò)模型中包含了大量的卷積層,降低了網(wǎng)的訓練難度。FPN 結(jié)構(gòu)在原來單一的結(jié)構(gòu)上修改的,將低尺度、高語義信息高層特征和高尺度、第語義信息的底層特征進行自上而下的側(cè)邊連接,使所的特征都包含豐富的語義信息。YOLOv3 方法在不同尺度的特征圖上做預測每一幅特征圖都融合了不同的語義特征,不同的分辨率,YOLOv3 方法多尺預測結(jié)構(gòu)如圖 3-1 所示:
在 YOLOv3 方法中最小的特征圖是 13*13,并在此特征圖上進行預測,使YOLOv3 方法對尺寸中等或者較大的物體的檢測效果不理想,容易造成漏檢、誤檢、重復檢測等問題,如圖3-2 所示。
第 4 章 基于時空信息融合的 TS-CNN 的物體檢測方法頻中的物體檢測的準確率。于視頻的物體檢測計算機圖像處理領(lǐng)域,物體檢測任務(wù)占有非常重要的地位,卷積神現(xiàn)使單幀圖像的物體檢測的速度與準確率都得到了明顯的提升,部進行實時檢測,但是在視頻的物體檢測任務(wù)中直接使用單幀圖像的法還存在一些問題,視頻中的物體會存在運動情況,使視頻幀圖像現(xiàn)被遮擋、模糊等問題,如圖 4-2 所示,導致檢測網(wǎng)絡(luò)不能有效的檢使基于視頻的物體檢測任務(wù)變得困難。
【參考文獻】
相關(guān)碩士學位論文 前5條
1 蔣帥;基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識別[D];吉林大學;2017年
2 高亮;基于ADABOOST和BP的車標識別方法研究[D];安徽大學;2016年
3 王海地;基于顯著性檢測和分類器訓練的航拍圖像車輛檢測[D];北京交通大學;2015年
4 程剛;基于匹配鏈與數(shù)據(jù)融合的行人檢測算法研究[D];華中科技大學;2015年
5 潘永麗;決策樹分類算法的改進及其應(yīng)用研究[D];云南財經(jīng)大學;2011年
本文編號:2793379
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2793379.html
最近更新
教材專著