基于Fast R-CNN的車輛目標(biāo)檢測
發(fā)布時(shí)間:2020-12-16 21:18
目的在傳統(tǒng)車輛目標(biāo)檢測問題中,需要針對不同圖像場景選擇適合的特征。為此提出一種基于快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Fast R-CNN)的場景圖像車輛目標(biāo)發(fā)現(xiàn)方法,避免傳統(tǒng)車輛目標(biāo)檢測問題中需要設(shè)計(jì)手工特征的問題。方法該方法基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)思想。首先使用待檢測車輛圖像定義視覺任務(wù)。利用選擇性搜索算法獲得樣本圖像的候選區(qū)域,將候選區(qū)域坐標(biāo)與視覺任務(wù)示例圖像一起輸入網(wǎng)絡(luò)學(xué)習(xí)。示例圖像經(jīng)過深度卷積神經(jīng)網(wǎng)絡(luò)中的卷積層,池化層計(jì)算,最終得到深度卷積特征。在輸入時(shí)沒有規(guī)定示例圖像的規(guī)格,此時(shí)得到的卷積特征規(guī)格不定。然后,基于Fast R-CNN網(wǎng)絡(luò)結(jié)構(gòu),通過感興趣區(qū)域池化層規(guī)格化特征,最后將特征輸入不同的全連接分支,并行回歸計(jì)算特征分類,以及檢測框坐標(biāo)值。經(jīng)過多次迭代訓(xùn)練,最后得到與指定視覺任務(wù)強(qiáng)相關(guān)的目標(biāo)檢測模型,具有訓(xùn)練好的權(quán)重參數(shù)。在新的場景圖像中,可以通過該目標(biāo)檢測模型檢測給定類型的車輛目標(biāo)。結(jié)果首先確定視覺任務(wù)包含公交車,小汽車兩類,背景場景是城市道路。利用與視覺任務(wù)強(qiáng)相關(guān)的測試樣本集對目標(biāo)檢測模型進(jìn)行測試,實(shí)驗(yàn)表明,當(dāng)測試樣本場景與視覺任務(wù)相關(guān)度越高,且樣本中車輛目標(biāo)的形變越小,得到的車...
【文章來源】:中國圖象圖形學(xué)報(bào). 2017年05期 北大核心
【文章頁數(shù)】:7 頁
【部分圖文】:
基于視覺任務(wù)學(xué)習(xí)的目標(biāo)發(fā)現(xiàn)方法思想Fig.1Thethoughtofobjectdetectionmethodbasedonvisiontasklearning
Vol.22,No.5,May2017674圖2基于FastR-CNN的車輛目標(biāo)檢測流程Fig.2TheprocessofvehicleobjectdetectionbasedonFastR-CNN車輛目標(biāo)。車輛目標(biāo)的類型包括小汽車(car)和公交車(bus)。車輛視覺任務(wù)確定之后需要采集示例圖像構(gòu)建訓(xùn)練集,采集被測圖像構(gòu)建測試集。被檢測的場景圖像和目標(biāo)是與視覺任務(wù)強(qiáng)相關(guān)的,所以在采集示例圖像和被測圖像應(yīng)在相同環(huán)境下以相同的方式進(jìn)行采集。將樣本采集地點(diǎn)設(shè)定在天橋上,方便采集正面車輛。利用普通相機(jī)進(jìn)行拍攝,相機(jī)的變焦保持一致。為了充分訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)上的參數(shù),應(yīng)采集足夠多的圖像樣本。采集后的圖像場景如圖3所示。圖3數(shù)據(jù)樣本Fig.3Sampledata((a)bus;(b)car)最后對數(shù)據(jù)集樣本進(jìn)行標(biāo)定,標(biāo)定時(shí)記錄車輛目標(biāo)左上和右下的坐標(biāo)值構(gòu)成矩形框的坐標(biāo)值v=(vx1,vy1,vx2,vy2)。2.2FastR-CNN的核心過程FastR-CNN的輸入,包含3個(gè)部分:樣本圖像、其標(biāo)定值(groundtruth)、objectproposals。通過計(jì)算每個(gè)樣本圖像的標(biāo)定框與objectproposals的覆蓋率,可以得到每個(gè)樣本圖像對應(yīng)的一組感興趣區(qū)域(RoIs)。每個(gè)圖像的R個(gè)RoIs由表1構(gòu)成。如圖4所示卷積神經(jīng)網(wǎng)絡(luò)通過一些卷積層和最大池化層獲得樣本的卷積特征。然后,RoI池化層對每一個(gè)感興趣區(qū)域,從卷積特征中提取出對應(yīng)的一個(gè)規(guī)格化的特征向量。所有特征向量將輸入全連接層最終將結(jié)果共享,產(chǎn)生兩個(gè)支路,進(jìn)入兩個(gè)不同的層中。一個(gè)層負(fù)責(zé)利用softmax回歸計(jì)算K類目標(biāo)加一個(gè)“背景”類的概率估算值;另一個(gè)層負(fù)責(zé)輸出,用來表征每個(gè)圖像上K類目標(biāo)的檢測框坐標(biāo)的4個(gè)值。表1RoIs的來源Table1RoIssources類別比例方式125%IoU在[0.5,1]的區(qū)域,作為背景275%I
eprocessofvehicleobjectdetectionbasedonFastR-CNN車輛目標(biāo)。車輛目標(biāo)的類型包括小汽車(car)和公交車(bus)。車輛視覺任務(wù)確定之后需要采集示例圖像構(gòu)建訓(xùn)練集,采集被測圖像構(gòu)建測試集。被檢測的場景圖像和目標(biāo)是與視覺任務(wù)強(qiáng)相關(guān)的,所以在采集示例圖像和被測圖像應(yīng)在相同環(huán)境下以相同的方式進(jìn)行采集。將樣本采集地點(diǎn)設(shè)定在天橋上,方便采集正面車輛。利用普通相機(jī)進(jìn)行拍攝,相機(jī)的變焦保持一致。為了充分訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)上的參數(shù),應(yīng)采集足夠多的圖像樣本。采集后的圖像場景如圖3所示。圖3數(shù)據(jù)樣本Fig.3Sampledata((a)bus;(b)car)最后對數(shù)據(jù)集樣本進(jìn)行標(biāo)定,標(biāo)定時(shí)記錄車輛目標(biāo)左上和右下的坐標(biāo)值構(gòu)成矩形框的坐標(biāo)值v=(vx1,vy1,vx2,vy2)。2.2FastR-CNN的核心過程FastR-CNN的輸入,包含3個(gè)部分:樣本圖像、其標(biāo)定值(groundtruth)、objectproposals。通過計(jì)算每個(gè)樣本圖像的標(biāo)定框與objectproposals的覆蓋率,可以得到每個(gè)樣本圖像對應(yīng)的一組感興趣區(qū)域(RoIs)。每個(gè)圖像的R個(gè)RoIs由表1構(gòu)成。如圖4所示卷積神經(jīng)網(wǎng)絡(luò)通過一些卷積層和最大池化層獲得樣本的卷積特征。然后,RoI池化層對每一個(gè)感興趣區(qū)域,從卷積特征中提取出對應(yīng)的一個(gè)規(guī)格化的特征向量。所有特征向量將輸入全連接層最終將結(jié)果共享,產(chǎn)生兩個(gè)支路,進(jìn)入兩個(gè)不同的層中。一個(gè)層負(fù)責(zé)利用softmax回歸計(jì)算K類目標(biāo)加一個(gè)“背景”類的概率估算值;另一個(gè)層負(fù)責(zé)輸出,用來表征每個(gè)圖像上K類目標(biāo)的檢測框坐標(biāo)的4個(gè)值。表1RoIs的來源Table1RoIssources類別比例方式125%IoU在[0.5,1]的區(qū)域,作為背景275%IoU在[0.1,0.5)中值較大的區(qū)域,作為前景2.3RoI池化層計(jì)算RoI池化層在固定的
本文編號:2920789
【文章來源】:中國圖象圖形學(xué)報(bào). 2017年05期 北大核心
【文章頁數(shù)】:7 頁
【部分圖文】:
基于視覺任務(wù)學(xué)習(xí)的目標(biāo)發(fā)現(xiàn)方法思想Fig.1Thethoughtofobjectdetectionmethodbasedonvisiontasklearning
Vol.22,No.5,May2017674圖2基于FastR-CNN的車輛目標(biāo)檢測流程Fig.2TheprocessofvehicleobjectdetectionbasedonFastR-CNN車輛目標(biāo)。車輛目標(biāo)的類型包括小汽車(car)和公交車(bus)。車輛視覺任務(wù)確定之后需要采集示例圖像構(gòu)建訓(xùn)練集,采集被測圖像構(gòu)建測試集。被檢測的場景圖像和目標(biāo)是與視覺任務(wù)強(qiáng)相關(guān)的,所以在采集示例圖像和被測圖像應(yīng)在相同環(huán)境下以相同的方式進(jìn)行采集。將樣本采集地點(diǎn)設(shè)定在天橋上,方便采集正面車輛。利用普通相機(jī)進(jìn)行拍攝,相機(jī)的變焦保持一致。為了充分訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)上的參數(shù),應(yīng)采集足夠多的圖像樣本。采集后的圖像場景如圖3所示。圖3數(shù)據(jù)樣本Fig.3Sampledata((a)bus;(b)car)最后對數(shù)據(jù)集樣本進(jìn)行標(biāo)定,標(biāo)定時(shí)記錄車輛目標(biāo)左上和右下的坐標(biāo)值構(gòu)成矩形框的坐標(biāo)值v=(vx1,vy1,vx2,vy2)。2.2FastR-CNN的核心過程FastR-CNN的輸入,包含3個(gè)部分:樣本圖像、其標(biāo)定值(groundtruth)、objectproposals。通過計(jì)算每個(gè)樣本圖像的標(biāo)定框與objectproposals的覆蓋率,可以得到每個(gè)樣本圖像對應(yīng)的一組感興趣區(qū)域(RoIs)。每個(gè)圖像的R個(gè)RoIs由表1構(gòu)成。如圖4所示卷積神經(jīng)網(wǎng)絡(luò)通過一些卷積層和最大池化層獲得樣本的卷積特征。然后,RoI池化層對每一個(gè)感興趣區(qū)域,從卷積特征中提取出對應(yīng)的一個(gè)規(guī)格化的特征向量。所有特征向量將輸入全連接層最終將結(jié)果共享,產(chǎn)生兩個(gè)支路,進(jìn)入兩個(gè)不同的層中。一個(gè)層負(fù)責(zé)利用softmax回歸計(jì)算K類目標(biāo)加一個(gè)“背景”類的概率估算值;另一個(gè)層負(fù)責(zé)輸出,用來表征每個(gè)圖像上K類目標(biāo)的檢測框坐標(biāo)的4個(gè)值。表1RoIs的來源Table1RoIssources類別比例方式125%IoU在[0.5,1]的區(qū)域,作為背景275%I
eprocessofvehicleobjectdetectionbasedonFastR-CNN車輛目標(biāo)。車輛目標(biāo)的類型包括小汽車(car)和公交車(bus)。車輛視覺任務(wù)確定之后需要采集示例圖像構(gòu)建訓(xùn)練集,采集被測圖像構(gòu)建測試集。被檢測的場景圖像和目標(biāo)是與視覺任務(wù)強(qiáng)相關(guān)的,所以在采集示例圖像和被測圖像應(yīng)在相同環(huán)境下以相同的方式進(jìn)行采集。將樣本采集地點(diǎn)設(shè)定在天橋上,方便采集正面車輛。利用普通相機(jī)進(jìn)行拍攝,相機(jī)的變焦保持一致。為了充分訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)上的參數(shù),應(yīng)采集足夠多的圖像樣本。采集后的圖像場景如圖3所示。圖3數(shù)據(jù)樣本Fig.3Sampledata((a)bus;(b)car)最后對數(shù)據(jù)集樣本進(jìn)行標(biāo)定,標(biāo)定時(shí)記錄車輛目標(biāo)左上和右下的坐標(biāo)值構(gòu)成矩形框的坐標(biāo)值v=(vx1,vy1,vx2,vy2)。2.2FastR-CNN的核心過程FastR-CNN的輸入,包含3個(gè)部分:樣本圖像、其標(biāo)定值(groundtruth)、objectproposals。通過計(jì)算每個(gè)樣本圖像的標(biāo)定框與objectproposals的覆蓋率,可以得到每個(gè)樣本圖像對應(yīng)的一組感興趣區(qū)域(RoIs)。每個(gè)圖像的R個(gè)RoIs由表1構(gòu)成。如圖4所示卷積神經(jīng)網(wǎng)絡(luò)通過一些卷積層和最大池化層獲得樣本的卷積特征。然后,RoI池化層對每一個(gè)感興趣區(qū)域,從卷積特征中提取出對應(yīng)的一個(gè)規(guī)格化的特征向量。所有特征向量將輸入全連接層最終將結(jié)果共享,產(chǎn)生兩個(gè)支路,進(jìn)入兩個(gè)不同的層中。一個(gè)層負(fù)責(zé)利用softmax回歸計(jì)算K類目標(biāo)加一個(gè)“背景”類的概率估算值;另一個(gè)層負(fù)責(zé)輸出,用來表征每個(gè)圖像上K類目標(biāo)的檢測框坐標(biāo)的4個(gè)值。表1RoIs的來源Table1RoIssources類別比例方式125%IoU在[0.5,1]的區(qū)域,作為背景275%IoU在[0.1,0.5)中值較大的區(qū)域,作為前景2.3RoI池化層計(jì)算RoI池化層在固定的
本文編號:2920789
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/2920789.html
最近更新
教材專著