基于深度學(xué)習(xí)的農(nóng)林害蟲識(shí)別方法研究
發(fā)布時(shí)間:2021-08-21 02:24
我國(guó)是一個(gè)農(nóng)業(yè)大國(guó),在農(nóng)作物的培育過程中每年都會(huì)遇到不同種類害蟲的侵害,使得作物在產(chǎn)量和質(zhì)量上不同程度的有所下降,災(zāi)害嚴(yán)重時(shí),甚至?xí)䦟?dǎo)致農(nóng)作物大面積絕收。準(zhǔn)確有效地對(duì)昆蟲進(jìn)行分類鑒定和識(shí)別是能否及時(shí)展開蟲害防治、避免造成巨大的農(nóng)作物經(jīng)濟(jì)損失的一個(gè)重要前提。昆蟲是自然環(huán)境中種類最多的動(dòng)物,其形態(tài)多變、紋理豐富識(shí)別起來有很大的難度。傳統(tǒng)的昆蟲分類鑒定工作主要靠昆蟲專家或昆蟲分類人員根據(jù)專業(yè)知識(shí)和研究經(jīng)驗(yàn)或參照文獻(xiàn)資料來進(jìn)行識(shí)別鑒定的,但即使有專業(yè)的知識(shí)和豐富的經(jīng)驗(yàn)也很難避免種類混淆的情況發(fā)生。因此,開發(fā)一種針對(duì)害蟲的快速有效的分類識(shí)別系將有助于作物害蟲的防治,從而促進(jìn)農(nóng)業(yè)發(fā)展,減少經(jīng)濟(jì)損失。為了實(shí)現(xiàn)常見農(nóng)林害蟲的快速分類和識(shí)別,本文首先制作了一個(gè)害蟲圖像數(shù)據(jù)集,然后針對(duì)這些害蟲圖像顏色紋理特征的復(fù)雜性,提出了一種基于深度學(xué)習(xí)的害蟲自動(dòng)識(shí)別方法。本文的主要工作內(nèi)容和研究成果如下:(1)本文收集了27種成蟲和5種幼蟲的RGB圖像。為避免神經(jīng)網(wǎng)絡(luò)在劃分訓(xùn)練批次時(shí)存在嚴(yán)重的標(biāo)簽分布不均勻問題,采用裁剪、扭曲、色彩調(diào)整、改變背景等圖像處理方法對(duì)數(shù)據(jù)進(jìn)行了增強(qiáng)。構(gòu)建的圖像數(shù)據(jù)集CPAF共有32000幅...
【文章來源】:浙江農(nóng)林大學(xué)浙江省
【文章頁數(shù)】:58 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)元細(xì)胞結(jié)構(gòu)與人
圖 2.4 卷積層和最大池化層的運(yùn)算示意圖Figure 2.4 Operation diagram of convolution layer and pooling layer(2)反向傳播算法反向傳播是一個(gè)根據(jù)實(shí)際輸出與期望輸出的差距從輸出層開始,利用梯度下降算法對(duì)神經(jīng)網(wǎng)絡(luò)中的權(quán)重和偏置進(jìn)行更新的過程。在正向傳播和反向傳播的反復(fù)迭代訓(xùn)練之后,神經(jīng)網(wǎng)絡(luò)的實(shí)際輸出就會(huì)與期望輸出越來越接近。在進(jìn)行反向傳播之前,首先需要計(jì)算神經(jīng)網(wǎng)絡(luò)的實(shí)際輸出與期望輸出的差距負(fù)責(zé)這項(xiàng)工作的函數(shù)即損失函數(shù)(Loss Function)也叫目標(biāo)函數(shù)(Cost Function)。當(dāng)實(shí)際輸出與期望輸出的差距很大的時(shí)候,損失函數(shù)的值也會(huì)很大。式(2.8)為 softmax 損失函數(shù):C( ) = ∑ ∑∑(2.9)代表全部的參數(shù)矩陣,它們的概率總和等于 1;s 當(dāng)且僅當(dāng)?shù)?i 個(gè)樣本屬
2.2.3 經(jīng)典模型 LeNet-5LeNet-5 是卷積神經(jīng)網(wǎng)絡(luò)中最經(jīng)典的模型,由于它在手寫數(shù)字的識(shí)別問題上有突出的表現(xiàn),所以在當(dāng)時(shí)被廣泛應(yīng)用于銀行支票上的手寫數(shù)字識(shí)別,大大減輕了銀行員工的工作量。LeNet-5 在工業(yè)領(lǐng)域中的成功應(yīng)用為機(jī)器學(xué)習(xí)的發(fā)展帶來了新的希望和動(dòng)力。除去輸入層 LenNet-5 模型共有 7 層,其中包括 3 個(gè)卷積層、2 個(gè)池化層和 2 個(gè)全連接層,其結(jié)構(gòu)如圖 2.5 所示。
本文編號(hào):3354698
【文章來源】:浙江農(nóng)林大學(xué)浙江省
【文章頁數(shù)】:58 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)元細(xì)胞結(jié)構(gòu)與人
圖 2.4 卷積層和最大池化層的運(yùn)算示意圖Figure 2.4 Operation diagram of convolution layer and pooling layer(2)反向傳播算法反向傳播是一個(gè)根據(jù)實(shí)際輸出與期望輸出的差距從輸出層開始,利用梯度下降算法對(duì)神經(jīng)網(wǎng)絡(luò)中的權(quán)重和偏置進(jìn)行更新的過程。在正向傳播和反向傳播的反復(fù)迭代訓(xùn)練之后,神經(jīng)網(wǎng)絡(luò)的實(shí)際輸出就會(huì)與期望輸出越來越接近。在進(jìn)行反向傳播之前,首先需要計(jì)算神經(jīng)網(wǎng)絡(luò)的實(shí)際輸出與期望輸出的差距負(fù)責(zé)這項(xiàng)工作的函數(shù)即損失函數(shù)(Loss Function)也叫目標(biāo)函數(shù)(Cost Function)。當(dāng)實(shí)際輸出與期望輸出的差距很大的時(shí)候,損失函數(shù)的值也會(huì)很大。式(2.8)為 softmax 損失函數(shù):C( ) = ∑ ∑∑(2.9)代表全部的參數(shù)矩陣,它們的概率總和等于 1;s 當(dāng)且僅當(dāng)?shù)?i 個(gè)樣本屬
2.2.3 經(jīng)典模型 LeNet-5LeNet-5 是卷積神經(jīng)網(wǎng)絡(luò)中最經(jīng)典的模型,由于它在手寫數(shù)字的識(shí)別問題上有突出的表現(xiàn),所以在當(dāng)時(shí)被廣泛應(yīng)用于銀行支票上的手寫數(shù)字識(shí)別,大大減輕了銀行員工的工作量。LeNet-5 在工業(yè)領(lǐng)域中的成功應(yīng)用為機(jī)器學(xué)習(xí)的發(fā)展帶來了新的希望和動(dòng)力。除去輸入層 LenNet-5 模型共有 7 層,其中包括 3 個(gè)卷積層、2 個(gè)池化層和 2 個(gè)全連接層,其結(jié)構(gòu)如圖 2.5 所示。
本文編號(hào):3354698
本文鏈接:http://sikaile.net/nykjlw/dzwbhlw/3354698.html
最近更新
教材專著