基于深度學(xué)習(xí)的異常目標(biāo)識(shí)別
發(fā)布時(shí)間:2022-01-05 18:15
自計(jì)算機(jī)技術(shù)出現(xiàn)以來(lái),目標(biāo)檢測(cè)一直是計(jì)算機(jī)視覺(jué)領(lǐng)域研究熱點(diǎn)之一。目標(biāo)檢測(cè)的任務(wù)是找出圖像中所感興趣的目標(biāo),確定他們的位置和類(lèi)別。依賴(lài)于手工特征的傳統(tǒng)目標(biāo)檢測(cè)算法對(duì)于自然環(huán)境中目標(biāo)姿態(tài)和角度多變性等問(wèn)題往往沒(méi)有合適的解決方案,而隨著深度學(xué)習(xí)理論的不斷發(fā)展,新模型新結(jié)構(gòu)的不斷出現(xiàn),深度學(xué)習(xí)在各類(lèi)目標(biāo)檢測(cè)公開(kāi)數(shù)據(jù)集中取得優(yōu)異的成績(jī),為解決實(shí)際工程問(wèn)題提供了現(xiàn)實(shí)有效的方案。本文以深度學(xué)習(xí)理論為基礎(chǔ),著重研究了基于區(qū)域的全卷積網(wǎng)絡(luò)(R-FCN)并將其應(yīng)用于圓織機(jī)織物紋理檢測(cè)和螺栓松動(dòng)滲水檢測(cè)兩個(gè)場(chǎng)景中,搭建了完整的軟硬件系統(tǒng)。本文主要工作如下:1.對(duì)R-FCN網(wǎng)絡(luò)結(jié)構(gòu)和原理進(jìn)行深入研究,提出了一種全局信息融合的R-FCN網(wǎng)絡(luò)結(jié)構(gòu)。在原始Faster R-CNN網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,R-FCN通過(guò)引入位置敏感得分圖,合并了大量獨(dú)立運(yùn)算,實(shí)現(xiàn)了全卷積的網(wǎng)絡(luò)結(jié)構(gòu),在保證精度的同時(shí)提升了運(yùn)算速度。本文通過(guò)將Soft-NMS算法引入到R-FCN網(wǎng)絡(luò)的樣本后處理過(guò)程中,實(shí)現(xiàn)了檢測(cè)精度的提升。針對(duì)R-FCN只使用局部信息分塊投票,未能有效使用全局信息的結(jié)構(gòu)缺陷,本文提出了全局信息融合的R-FCN網(wǎng)絡(luò)結(jié)構(gòu)。實(shí)驗(yàn)結(jié)果...
【文章來(lái)源】:東南大學(xué)江蘇省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:98 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
部分基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法發(fā)展演進(jìn)過(guò)程圖
三種激
東南大學(xué)碩士學(xué)位論文(a)M-P神經(jīng)元模型圖(b)多層感知機(jī)網(wǎng)絡(luò)結(jié)構(gòu)示意圖圖2.1神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)也被稱(chēng)為多層前饋神經(jīng)網(wǎng)絡(luò)。圖2.1b中第一層為輸入層,第二第三層為隱藏層,其中的每一個(gè)節(jié)點(diǎn)都是一個(gè)基本的神經(jīng)元,最后一層為輸出層。該模型的拓?fù)浣Y(jié)構(gòu)為一個(gè)下層與上層之間全連接的有向無(wú)環(huán)圖。2.2.2激活函數(shù)激活函數(shù),也叫作激勵(lì)函數(shù),主要用來(lái)對(duì)輸入值進(jìn)行空間變換,為模型引入非線(xiàn)性特性。由于在現(xiàn)實(shí)應(yīng)用場(chǎng)景下,線(xiàn)性模型往往無(wú)法解決所需完成的任務(wù),所以引入非線(xiàn)性至關(guān)重要。應(yīng)用中常見(jiàn)的激活函數(shù)主要有sigmoid型激活函數(shù)和rectifier型激活函數(shù)。sigmoid型激活函數(shù)是一類(lèi)具有S形曲線(xiàn)形狀的非線(xiàn)性激活函數(shù),主要包括sigmoid函數(shù)和tanh函數(shù)等。這兩類(lèi)函數(shù)的表達(dá)式如下所示:sigmoid(x)=11+extanh(x)=exexex+ex(2.2)如圖2.2a所示,sigmoid激活函數(shù)是對(duì)人類(lèi)神經(jīng)元響應(yīng)呈階躍變化的一種模擬,曲線(xiàn)平滑,處處可導(dǎo)。如圖2.2b所示的tanh激活函數(shù)是0均值的,相比于sigmoid激活函數(shù),其實(shí)際效果往往較優(yōu)。這兩類(lèi)函數(shù)在兩端接近飽和,導(dǎo)數(shù)接近為0,會(huì)使得模型不可避免的出現(xiàn)梯度消失的現(xiàn)象。(a)sigmoid函數(shù)(b)tanh函數(shù)(c)ReLU函數(shù)圖2.2三種激活函數(shù)的圖像rectifier型函數(shù)的典型代表是修正線(xiàn)性單元(RectifierLinearUnit,ReLU)函數(shù)[40],10
本文編號(hào):3570836
【文章來(lái)源】:東南大學(xué)江蘇省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:98 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
部分基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法發(fā)展演進(jìn)過(guò)程圖
三種激
東南大學(xué)碩士學(xué)位論文(a)M-P神經(jīng)元模型圖(b)多層感知機(jī)網(wǎng)絡(luò)結(jié)構(gòu)示意圖圖2.1神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)也被稱(chēng)為多層前饋神經(jīng)網(wǎng)絡(luò)。圖2.1b中第一層為輸入層,第二第三層為隱藏層,其中的每一個(gè)節(jié)點(diǎn)都是一個(gè)基本的神經(jīng)元,最后一層為輸出層。該模型的拓?fù)浣Y(jié)構(gòu)為一個(gè)下層與上層之間全連接的有向無(wú)環(huán)圖。2.2.2激活函數(shù)激活函數(shù),也叫作激勵(lì)函數(shù),主要用來(lái)對(duì)輸入值進(jìn)行空間變換,為模型引入非線(xiàn)性特性。由于在現(xiàn)實(shí)應(yīng)用場(chǎng)景下,線(xiàn)性模型往往無(wú)法解決所需完成的任務(wù),所以引入非線(xiàn)性至關(guān)重要。應(yīng)用中常見(jiàn)的激活函數(shù)主要有sigmoid型激活函數(shù)和rectifier型激活函數(shù)。sigmoid型激活函數(shù)是一類(lèi)具有S形曲線(xiàn)形狀的非線(xiàn)性激活函數(shù),主要包括sigmoid函數(shù)和tanh函數(shù)等。這兩類(lèi)函數(shù)的表達(dá)式如下所示:sigmoid(x)=11+extanh(x)=exexex+ex(2.2)如圖2.2a所示,sigmoid激活函數(shù)是對(duì)人類(lèi)神經(jīng)元響應(yīng)呈階躍變化的一種模擬,曲線(xiàn)平滑,處處可導(dǎo)。如圖2.2b所示的tanh激活函數(shù)是0均值的,相比于sigmoid激活函數(shù),其實(shí)際效果往往較優(yōu)。這兩類(lèi)函數(shù)在兩端接近飽和,導(dǎo)數(shù)接近為0,會(huì)使得模型不可避免的出現(xiàn)梯度消失的現(xiàn)象。(a)sigmoid函數(shù)(b)tanh函數(shù)(c)ReLU函數(shù)圖2.2三種激活函數(shù)的圖像rectifier型函數(shù)的典型代表是修正線(xiàn)性單元(RectifierLinearUnit,ReLU)函數(shù)[40],10
本文編號(hào):3570836
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3570836.html
最近更新
教材專(zhuān)著