基于非負矩陣分解的農(nóng)作物葉部病害識別
發(fā)布時間:2020-12-19 00:14
農(nóng)業(yè)是中國經(jīng)濟的基礎(chǔ)支撐產(chǎn)業(yè),在人類的生活中具有非常重要的地位,單位面積內(nèi)農(nóng)作物的生產(chǎn)產(chǎn)量高低與人們的生活息息相關(guān)。隨著農(nóng)業(yè)經(jīng)濟的快速發(fā)展,傳統(tǒng)的病害分類和識別方法已經(jīng)無法有效解決大量的病害問題,智能化的病害分類和識別方法顯得越來越重要。隨著互聯(lián)網(wǎng)時代的快速發(fā)展,人們可以輕易的采集到病害圖片。然而在采集過程中,由于天氣原因、傳感器損壞或人為因素,致使采集的病害數(shù)據(jù)集出現(xiàn)高斯噪聲、椒鹽噪聲或塊遮擋等異常情況。本文基于非負矩陣分解和卷積神經(jīng)網(wǎng)絡(luò)理論來研究含有噪聲的病害數(shù)據(jù)和病害等級分類問題。非負矩陣分解主要用于提取農(nóng)作物葉部病害數(shù)據(jù)的特征,卷積神經(jīng)網(wǎng)絡(luò)對提取后的特征進行處理和識別。具體研究內(nèi)容包括:(1)在曼哈頓矩陣分解框架基礎(chǔ)上,本文提出了權(quán)重曼哈頓非負矩陣分解方法來(WNMF)減弱噪聲對特征空間的影響。WNMF既能修復(fù)被噪聲污染的病害數(shù)據(jù),又能用修復(fù)的數(shù)據(jù)來學(xué)習(xí)更加魯棒的特征表示。(2)在稀疏編碼框架基礎(chǔ)上,本文提出了基于稀疏非負矩陣分解的特征提取方法,使得特征空間具有稀疏性和魯棒性。(3)結(jié)合非負矩陣分解理論以及卷積神經(jīng)網(wǎng)絡(luò)相關(guān)理論,設(shè)計出建立在卷積神經(jīng)網(wǎng)絡(luò)算法上的病害識別模型,該算...
【文章來源】:重慶三峽學(xué)院重慶市
【文章頁數(shù)】:47 頁
【學(xué)位級別】:碩士
【部分圖文】:
卷積核的計算過程
關(guān)鍵技術(shù)概述9一半,輸出的長度變成了2*2。圖2.2池化層操作示意圖2.2.3激活函數(shù)(ActivationFunction)除CNN的輸入層外,其他每層都能夠使用一種激活函數(shù)接受到輸入與權(quán)重的乘積之和。在某些線性運用表達能力不足時,CNN會通過非線性映射的手段和方式來激活函數(shù),用來篩選從網(wǎng)絡(luò)中獲得的特征。常用的激活函數(shù)大致能夠區(qū)分為(飽和非線性函數(shù)(Tanh,Sigmoid)和不飽和非線性函數(shù)(ReLU),在現(xiàn)實生活運用中,Sigmoid和Tanh函數(shù)一般會在全連接層被用到,而ReLU函數(shù)則被卷積層采用。下面用列表形式介紹其定義及圖像,如表2.1所示。表2.1常用激活函數(shù)(ActivationFunction)函數(shù)函數(shù)表達式函數(shù)曲線圖飽和非線性函數(shù)Sigmoid函數(shù)xexf11)(Tanh函數(shù)xxeexf221-1)(不飽和非ReLu函數(shù)0,00,)(xxxxf
關(guān)鍵技術(shù)概述11]log}{1[1)(111)()()(mikjkjxxiiTjiTjeejymJ式(2-7)函數(shù)中的.1是真假性函數(shù),是指如果其中的內(nèi)容為真,取值為1,反之則取值為0。2.2.5隨機失活技術(shù)(Dropout)為了解決隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的持續(xù)增多、網(wǎng)絡(luò)模型規(guī)模不斷的增大而造成的臨訓(xùn)練時間過長和可能過擬合的現(xiàn)象,那么就需要通過Dropout層。在實踐過程中Dropout層發(fā)揮了很好的作用,這是因為在網(wǎng)絡(luò)的計算過程中會對神經(jīng)元的一些特性進行阻止,來有效的避免網(wǎng)絡(luò)過度擬合,同時也增加了網(wǎng)絡(luò)的適應(yīng)能力。Dropout所具有的核心思想[19]是在訓(xùn)練過程中隨機遺棄掉網(wǎng)絡(luò)中某些隱藏層的神經(jīng)元模型,因為該節(jié)點可能會在下一次網(wǎng)絡(luò)訓(xùn)練過程中被重新更新使用。下面介紹Dropout技術(shù)的過程,如圖2.3所示:圖2.3隨機失活(Dropout)示意圖詳細的過程如下:在隨意“遺棄”某些神經(jīng)元之后會繼續(xù)用BP算法來對“遺棄”之后的神經(jīng)元網(wǎng)絡(luò)的權(quán)重參數(shù)進行更新。在對下一批樣本進行輸入時,再隨機在原始神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上“遺棄”一部分的神經(jīng)元,和之前“遺棄”是不一樣的,后面的訓(xùn)練過程中仍利用BP的反向傳播算法更新權(quán)重。操作時,那些被“遺棄”的神經(jīng)元還是隨機的,通過對神經(jīng)元隨機的“遺棄”它們之間的相互依賴關(guān)系就能降低,就能獲取到有用的圖像特征。我們在訓(xùn)練差異樣本的情形下運用到Dropout,本質(zhì)上就是因為訓(xùn)練神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是具有差異性的。而Dropout能在規(guī)定的時間內(nèi)將許多個結(jié)構(gòu)不同的網(wǎng)絡(luò)訓(xùn)練出來,是因為權(quán)值一致的原因。我們在運用Dropout進行處理后,發(fā)
本文編號:2924872
【文章來源】:重慶三峽學(xué)院重慶市
【文章頁數(shù)】:47 頁
【學(xué)位級別】:碩士
【部分圖文】:
卷積核的計算過程
關(guān)鍵技術(shù)概述9一半,輸出的長度變成了2*2。圖2.2池化層操作示意圖2.2.3激活函數(shù)(ActivationFunction)除CNN的輸入層外,其他每層都能夠使用一種激活函數(shù)接受到輸入與權(quán)重的乘積之和。在某些線性運用表達能力不足時,CNN會通過非線性映射的手段和方式來激活函數(shù),用來篩選從網(wǎng)絡(luò)中獲得的特征。常用的激活函數(shù)大致能夠區(qū)分為(飽和非線性函數(shù)(Tanh,Sigmoid)和不飽和非線性函數(shù)(ReLU),在現(xiàn)實生活運用中,Sigmoid和Tanh函數(shù)一般會在全連接層被用到,而ReLU函數(shù)則被卷積層采用。下面用列表形式介紹其定義及圖像,如表2.1所示。表2.1常用激活函數(shù)(ActivationFunction)函數(shù)函數(shù)表達式函數(shù)曲線圖飽和非線性函數(shù)Sigmoid函數(shù)xexf11)(Tanh函數(shù)xxeexf221-1)(不飽和非ReLu函數(shù)0,00,)(xxxxf
關(guān)鍵技術(shù)概述11]log}{1[1)(111)()()(mikjkjxxiiTjiTjeejymJ式(2-7)函數(shù)中的.1是真假性函數(shù),是指如果其中的內(nèi)容為真,取值為1,反之則取值為0。2.2.5隨機失活技術(shù)(Dropout)為了解決隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的持續(xù)增多、網(wǎng)絡(luò)模型規(guī)模不斷的增大而造成的臨訓(xùn)練時間過長和可能過擬合的現(xiàn)象,那么就需要通過Dropout層。在實踐過程中Dropout層發(fā)揮了很好的作用,這是因為在網(wǎng)絡(luò)的計算過程中會對神經(jīng)元的一些特性進行阻止,來有效的避免網(wǎng)絡(luò)過度擬合,同時也增加了網(wǎng)絡(luò)的適應(yīng)能力。Dropout所具有的核心思想[19]是在訓(xùn)練過程中隨機遺棄掉網(wǎng)絡(luò)中某些隱藏層的神經(jīng)元模型,因為該節(jié)點可能會在下一次網(wǎng)絡(luò)訓(xùn)練過程中被重新更新使用。下面介紹Dropout技術(shù)的過程,如圖2.3所示:圖2.3隨機失活(Dropout)示意圖詳細的過程如下:在隨意“遺棄”某些神經(jīng)元之后會繼續(xù)用BP算法來對“遺棄”之后的神經(jīng)元網(wǎng)絡(luò)的權(quán)重參數(shù)進行更新。在對下一批樣本進行輸入時,再隨機在原始神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上“遺棄”一部分的神經(jīng)元,和之前“遺棄”是不一樣的,后面的訓(xùn)練過程中仍利用BP的反向傳播算法更新權(quán)重。操作時,那些被“遺棄”的神經(jīng)元還是隨機的,通過對神經(jīng)元隨機的“遺棄”它們之間的相互依賴關(guān)系就能降低,就能獲取到有用的圖像特征。我們在訓(xùn)練差異樣本的情形下運用到Dropout,本質(zhì)上就是因為訓(xùn)練神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是具有差異性的。而Dropout能在規(guī)定的時間內(nèi)將許多個結(jié)構(gòu)不同的網(wǎng)絡(luò)訓(xùn)練出來,是因為權(quán)值一致的原因。我們在運用Dropout進行處理后,發(fā)
本文編號:2924872
本文鏈接:http://sikaile.net/shoufeilunwen/zaizhiyanjiusheng/2924872.html
最近更新
教材專著