天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

利用CNN進行目標(biāo)檢測的特征圖放大方法研究

發(fā)布時間:2020-04-24 05:34
【摘要】:本論文主要是在保證卷積神經(jīng)網(wǎng)絡(luò)速度和精度的前提下,比較并找到用于目標(biāo)檢測的特征放大方法的最佳可能組合。卷積神經(jīng)網(wǎng)絡(luò)的作用是將圖像縮小為更容易處理的形式,同時不會丟失影響預(yù)測準(zhǔn)確度的重要特征。之所以選擇神經(jīng)網(wǎng)絡(luò)是因為其能夠?qū)ΧS圖像的內(nèi)部特征進行表示。這使得模型能夠從數(shù)據(jù)中的變體結(jié)構(gòu)中學(xué)習(xí)到圖像處理中的重要特征即位置和比例特征。目前有許多深度學(xué)習(xí)的框架,新的框架經(jīng)常被提出用于特定的領(lǐng)域。以深度學(xué)習(xí)框架為基礎(chǔ)是因為它允許我們在不深入了解底層算法細節(jié)的基礎(chǔ)上能夠簡單、快速地構(gòu)建深度學(xué)習(xí)模型。此外,它提供了一種清晰簡潔的方法來定義模型,即使用預(yù)先構(gòu)建和優(yōu)化組件。這些優(yōu)化組件能夠優(yōu)化性能,并行化流程,從而減少計算并能夠自動計算梯度。此外,以上所提到的算法都是使用卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征。近年來,隨著計算機視覺學(xué)科的發(fā)展,目標(biāo)檢測的發(fā)展越來越快。計算機技術(shù)中的目標(biāo)檢測技術(shù)已成為計算機視覺和圖像處理的重要組成部分。目標(biāo)檢測是指從數(shù)字圖像和視頻中檢測特定類的語義對象(如人、建筑物、汽車、樹、自行車等)的實例。在現(xiàn)代卷積目標(biāo)檢測系統(tǒng)中,有許多方法可以用來權(quán)衡精度與速度和內(nèi)存的關(guān)系。但在不同的目標(biāo)探測器中,很難進行公平的比較。近年來,許多不同的成功開發(fā)系統(tǒng)被提出,但由于不同的基本特征提取器(如VGG、殘差網(wǎng)絡(luò))、固定圖像分辨率以及不同的開發(fā)環(huán)境(硬件和軟件)的原因很難進行公平的比較。在本文中,我們關(guān)注三個特征提取器模型,如雙線性插值,最近鄰插值和像素洗牌插值,并找到最佳的比較結(jié)果。此外,目標(biāo)檢測算法的主要任務(wù)是通過繪制邊界框來尋找感興趣的目標(biāo)。另外,在一個目標(biāo)檢測的例子中,不僅僅只繪制一個邊界框。幾個邊界框可能表示一個圖像中存在多個感興趣的對象。目標(biāo)檢測的另一個基本問題是圖像中多個尺度目標(biāo)的檢測。為了平衡分辨率與語義之間的沖突,提出了尺度轉(zhuǎn)換模塊。此外為了獲得檢測目標(biāo)的高分辨率特征圖和檢測較大目標(biāo)的最大接收域的特征圖,分別使用了尺度轉(zhuǎn)換層和池化層。然而,在淺層特征圖上仍存在一些檢測問題。小目標(biāo)的背景和前景的區(qū)分僅僅使用淺層語義是不夠的,需要更多的語義。為了在每個位置同時預(yù)測目標(biāo)邊界和目標(biāo)得分,區(qū)域選取網(wǎng)絡(luò)(RPN)即一個全卷積網(wǎng)絡(luò)被使用。區(qū)域選取算法用于假設(shè)目標(biāo)位置,并與檢測網(wǎng)絡(luò)共享完整的圖像卷積特征。隨著對象檢測和語義分割發(fā)展的不斷發(fā)展,實例分割出現(xiàn)了一些新的問題,并添加了一個用于預(yù)測對象掩模的新分支,該分支與現(xiàn)有用于邊界框回歸的分支并行。近年來,不同類型的目標(biāo)檢測模型被提出,如基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(R-CNN),Fast R-CNN,Faster R-CNN,單次檢測器(SSD),You Only Look Once(YOLO)網(wǎng)絡(luò),基于區(qū)域全卷積網(wǎng)絡(luò)(R-FCN),特征金字塔網(wǎng)絡(luò)(FPN),規(guī)?蓚鬏敊z測網(wǎng)絡(luò)(STDN)和掩碼R-CNN。特征金字塔網(wǎng)絡(luò)(FPN)是一種將準(zhǔn)確性和速度考慮在內(nèi)的金字塔概念的特征提取器。它取代了像Faster R-CNN這樣的探測器的特征提取器,生成了多個質(zhì)量信息比用物體檢測的常規(guī)特征金字塔更好特征圖圖層(多尺度特征圖)。在快速R-CNN的擴展FPN的基礎(chǔ)上,我們將檢測模型修改為雙線性插值,最近鄰插值和像素洗牌插值,以比較基于邊界框的平均精度(AP)的不同約束。我們還測量了所有這些模型的平均召回率(AR)。我們將epochs的時間從90K縮短到60K,以更快地訓(xùn)練數(shù)據(jù)集。所有模型都固定交并比0.5并且每個圖像的最大對象數(shù)設(shè)為100,但是對小特征目標(biāo),像素洗牌插值提高了所有模型的結(jié)果(0.215的平均精度)。我們還列出了COCO 2014 minval數(shù)據(jù)集的實驗結(jié)果,并對實驗結(jié)果進行比較。
【學(xué)位授予單位】:華南理工大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:TP391.41;TP183

【相似文獻】

相關(guān)期刊論文 前10條

1 王守義;周海英;楊陽;;基于卷積特征的核相關(guān)自適應(yīng)目標(biāo)跟蹤[J];中國圖象圖形學(xué)報;2017年09期

2 李新祥;兩圓位置關(guān)系中的特征圖[J];中學(xué)數(shù)學(xué)教學(xué)參考;2001年07期

3 徐瑞龍;用于地下通風(fēng)系統(tǒng)管理的系統(tǒng)特征圖[J];暖通空調(diào);2000年05期

4 鄧慧琴;兩圓位置關(guān)系中的特征圖[J];山西教育;2003年22期

5 丁力行,李松 ,曾憲鈞;系統(tǒng)特征圖在地鐵車輛通風(fēng)設(shè)計中的應(yīng)用[J];城市軌道交通研究;2003年06期

6 徐瑞龍;地下通風(fēng)系統(tǒng)管理的新技術(shù)——系統(tǒng)特征圖[J];地下空間;1998年S1期

7 葛蕓;馬琳;江順亮;葉發(fā)茂;;基于高層特征圖組合及池化的高分辨率遙感圖像檢索[J];電子與信息學(xué)報;2019年10期

8 齊峰,譚建榮,張樹有;基于裝配特征圖樹的裝配模型與建模方法[J];農(nóng)業(yè)機械學(xué)報;2003年02期

9 馬禮;王強;楊銀剛;馬東超;張永梅;;基于三維物體特征圖的動態(tài)碰撞檢測方法[J];計算機測量與控制;2016年08期

10 王維凡;李超;;非負特征圖的線性染色[J];中國科學(xué)(A輯:數(shù)學(xué));2008年12期

相關(guān)會議論文 前3條

1 宋鈞才;;再論棉花色特征的綜合評定兼論中國棉花色特征圖[A];山東紡織工程學(xué)會十二屆第二次優(yōu)秀論文評選獲獎?wù)撐募痆C];2011年

2 牛欣;司銀楚;王濱;文仁都;;七種中醫(yī)脈診教學(xué)模型的建立及評價[A];第一屆全國中西醫(yī)結(jié)合診斷學(xué)術(shù)會議論文選集[C];2006年

3 車武軍;楊勛年;汪國昭;;內(nèi)在參量下的骨架驅(qū)動變形方法[A];第一屆全國幾何設(shè)計與計算學(xué)術(shù)會議論文集[C];2002年

相關(guān)博士學(xué)位論文 前3條

1 王沖;基于深度學(xué)習(xí)的協(xié)同顯著性檢測方法研究[D];中國科學(xué)技術(shù)大學(xué);2019年

2 宋凱凱;基于深度學(xué)習(xí)的圖像情感分析研究[D];中國科學(xué)技術(shù)大學(xué);2018年

3 四建樓;智能視覺監(jiān)控中行人再識別技術(shù)研究[D];北京郵電大學(xué);2018年

相關(guān)碩士學(xué)位論文 前10條

1 劉杰;基于局部特征的人體重識別技術(shù)研究[D];北京交通大學(xué);2019年

2 張佳佳;基于生成對抗機制的跨模態(tài)特征關(guān)聯(lián)及應(yīng)用[D];合肥工業(yè)大學(xué);2019年

3 黃啟恒;基于多級深度特征表示的視頻行人再識別相關(guān)方法研究[D];合肥工業(yè)大學(xué);2019年

4 胡海龍;基于行為生物特征的移動用戶身份持續(xù)認證方法研究[D];西南大學(xué);2019年

5 郭芳;視覺注意機制建模中的特征剪裁策略研究[D];濟南大學(xué);2019年

6 Islam Mohammad Khairul;利用CNN進行目標(biāo)檢測的特征圖放大方法研究[D];華南理工大學(xué);2019年

7 王鵬;基于深度特征表示的行人再識別算法研究[D];華南理工大學(xué);2019年

8 羅彭婷;基于特征工程和深度學(xué)習(xí)的乳腺癌前哨淋巴結(jié)轉(zhuǎn)移預(yù)測方法研究[D];華南理工大學(xué);2019年

9 楊超;融合評論文本內(nèi)容和評論者行為特征的虛假評論檢測方法研究[D];上海師范大學(xué);2019年

10 史雪鳳;3D-AVS預(yù)測技術(shù)與特征圖壓縮技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2018年

,

本文編號:2638584

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2638584.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶94003***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com
搡老熟女老女人一区二区| 国产精品久久香蕉国产线| 日本男人女人干逼视频| 色哟哟精品一区二区三区| 成人国产激情福利久久| 精品一区二区三区三级视频| 老司机精品视频在线免费看 | 男女午夜福利院在线观看| 国内精品美女福利av在线| 日本一区二区三区黄色| 在线观看免费视频你懂的| 久久国产精品热爱视频| 国产精品福利一二三区| 深夜视频成人在线观看| 欧美黑人暴力猛交精品| 91人妻人澡人人爽人人精品| 婷婷色网视频在线播放| 欧美一区日韩一区日韩一区| 国产毛片对白精品看片| 久久综合狠狠综合久久综合| 欧美日韩亚洲国产av| 国产麻豆视频一二三区| 国产精品视频一区二区秋霞| 欧美中文字幕一区在线| 欧美日韩国产自拍亚洲| 中文字幕熟女人妻视频| 91日韩欧美中文字幕| 99免费人成看国产片| 一区二区三区欧美高清| 国产日韩中文视频一区| 久久精品国产亚洲av麻豆尤物| 搡老熟女老女人一区二区| 国产精品内射婷婷一级二级| 少妇特黄av一区二区三区| 亚洲欧美天堂精品在线| 一区二区三区亚洲天堂| 国产黑人一区二区三区| 日本不卡一本二本三区| 国产又粗又猛又长又黄视频| 欧美一区二区三区99| 日韩国产亚洲欧美另类|