天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于深度學(xué)習(xí)算法的水果圖像目標(biāo)分類與檢測研究

發(fā)布時間:2020-07-16 04:37
【摘要】:改革開放以來,我國水果種植面積不斷擴(kuò)大,水果產(chǎn)量不斷提升,然而,過去大部分的水果采摘作業(yè)基本依靠人工,而從事農(nóng)業(yè)生產(chǎn)的人員又在不斷縮減,為應(yīng)對農(nóng)業(yè)生產(chǎn)中人力不足的必然發(fā)展趨勢,開發(fā)具有識別與定位功能的采摘機(jī)器人符合社會發(fā)展需要,將給社會發(fā)展帶來巨大的經(jīng)濟(jì)效益和廣闊的市場前景。近年來,隨著深度學(xué)習(xí)的迅速發(fā)展和崛起,尤其其在視覺方向取得了巨大的成就,相比傳統(tǒng)的識別算法,深度學(xué)習(xí)在對目標(biāo)識別的特征描述上能力更強(qiáng)。因此,開發(fā)基于深度學(xué)習(xí)算法視覺識別功能的采摘機(jī)器人具有重大意義。首先,本文基于當(dāng)前先進(jìn)的深度學(xué)習(xí)算法進(jìn)行實驗探究,提出了基于卷積神經(jīng)網(wǎng)絡(luò)的水果圖像分類識別算法,主要參照經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型LeNet-5結(jié)構(gòu),提出新的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)并對蘋果、梨、橙子、橘子、桃子五種水果進(jìn)行分類識別,該模型構(gòu)建了一個輸入層、兩個卷積層、兩個池化層、兩個全連接層和一個輸出層。實驗結(jié)果表明,所提出的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)不僅在數(shù)據(jù)集上取得了96.88%的識別準(zhǔn)確率,相比原始的LeNet-5模型獲得的準(zhǔn)確率更高,收斂速度更快。其次,本文對水果圖像識別又進(jìn)行了更為深入的研究,基于深度學(xué)習(xí)目標(biāo)檢測算法,為論證算法的可行性,選取蘋果圖像作為具體的研究對象,而當(dāng)前主流的深度學(xué)習(xí)目標(biāo)檢測算法有Faster-RCNN、YOLO、SSD,本文的檢測算法采用基于區(qū)域建議的Faster-RCNN,通過該算法來對圖像中的蘋果進(jìn)行識別與定位研究。為應(yīng)對自然場景下蘋果目標(biāo)可能出現(xiàn)的遮擋、重疊、逆光、表面光照不均等情況,在采集圖像時,拍攝了包含不同尺寸大小、數(shù)量以及不同光照角度的蘋果圖像,通過選取本文提出的改進(jìn)的LeNet-5和經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)VGG16以及ResNet101為基礎(chǔ)提取網(wǎng)絡(luò)并進(jìn)行建模對比,探討不同框架模型下的檢測效果,通過多次設(shè)定不同的超參數(shù)組合并進(jìn)行模型的精度對比,以此來得到了合適的超參數(shù)組合,最終在基于ResNet101的Faster-RCNN蘋果檢測模型上得到了90.91%的平均檢測精度,而在以本文提出的改進(jìn)LeNet-5模型上獲得的檢測精度太低,又相比以VGG16為基礎(chǔ)提取網(wǎng)絡(luò)的模型,基于ResNet101的模型在平均檢測精度上得到了明顯的提升,雖然在檢測速度上遜色于VGG16,檢測一幅圖像的時間為0.39秒,但已經(jīng)達(dá)到了實時性的要求,并且得到了98.96%的查全率和85.74%的召回率,通過最后的實驗測試表明,該模型可用于對樹上蘋果的檢測,驗證了算法的可行性,也為研究檢測其他種類的水果提供了經(jīng)驗。
【學(xué)位授予單位】:南華大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:S225.93;TP391.41;TP18
【圖文】:

物品,能速,機(jī)器人,服務(wù)機(jī)器人


南華大學(xué)碩士學(xué)位論文向上更邁進(jìn)了一步。圖 1.1 所示是加州大學(xué)研究人員和西門子公司研究小組研發(fā)的新型機(jī)器人 Dex Net2.0[10],該新型機(jī)器人先是深入的了解并研究了虛據(jù)庫中不同特征的三維物品,共計 10000 個,通過自帶的深度學(xué)習(xí)系統(tǒng)就能速的對物品進(jìn)行預(yù)判,從而選取相應(yīng)的方法來抓取各種不規(guī)則形狀的物品憑借其出色的功能,這款機(jī)器人能夠在醫(yī)療方面進(jìn)行廣泛的使用,也可用于服務(wù)機(jī)器人以及農(nóng)業(yè)采摘機(jī)器人。

神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)過程


第 1 章 緒論學(xué)習(xí)中的“學(xué)習(xí)”也是核心問題之一,簡單來講,即為自動的將更加復(fù)雜的特征,并利用這些組合特征解決問題。以卷積神經(jīng)網(wǎng)可以從圖像的像素特征逐漸組合線、邊、角、簡單形狀、復(fù)雜復(fù)雜特征。出學(xué)習(xí)的過程即為權(quán)重更新過程,通過正向傳播和以損失函數(shù)的漸小為目標(biāo),不斷沿著梯度的反方向更新權(quán)重的適。學(xué)習(xí)過程中,采用激活函數(shù)去除模型線性化,引入正則化以及采用梯度下降算法、學(xué)習(xí)率衰減算法等方法對學(xué)習(xí)過程進(jìn)

網(wǎng)絡(luò)結(jié)構(gòu)圖,學(xué)習(xí)模型,學(xué)習(xí)參數(shù),冠軍


圖 1.3 LeNet-5 網(wǎng)絡(luò)結(jié)構(gòu)圖Figure 1.3 LeNet-5 network structure diagram往后的十多年里,越來越多的新型卷積神經(jīng)網(wǎng)絡(luò)模型被提出,其中比較型有:AlexNet、ZFNet、VGGNet、GoogleNet、ResNet。AlexNet[24]是由 Alex Krizhevsky 提出的一個深度學(xué)習(xí)模型,并贏得了視覺領(lǐng)域競賽C2012[25]的冠軍,并且大幅度超過傳統(tǒng)的方法,在百萬量級的 ImageNe上,識別率從傳統(tǒng)的 70%多提升到了 80%多,top5 預(yù)測的錯誤率為 16.4一名,將深度學(xué)習(xí)正式推上了舞臺。AlexNet 為 8 層結(jié)構(gòu),其中前 5 層,后面 3 層為全連接層,在兩個 GPU 上運行,其中學(xué)習(xí)參數(shù)有大約 6神經(jīng)元有 650000 個左右,由于當(dāng)時是對 1000 個類別進(jìn)行分類,所以在后輸出是 1000 個類別的概率值,其中 AlexNet 的網(wǎng)絡(luò)結(jié)構(gòu)圖如下圖 1

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 胡悅;;金融市場中的神經(jīng)網(wǎng)絡(luò)拐點預(yù)測法[J];金融經(jīng)濟(jì);2017年18期

2 劉高宇;;深度神經(jīng)網(wǎng)絡(luò)在煤質(zhì)數(shù)據(jù)分析與預(yù)測中的應(yīng)用[J];電腦知識與技術(shù);2019年28期

3 馮偉業(yè);廖可非;歐陽繕;牛耀;;基于膠囊神經(jīng)網(wǎng)絡(luò)的合成孔徑雷達(dá)圖像分類方法[J];科學(xué)技術(shù)與工程;2019年28期

4 溫贊揚;;基于群智優(yōu)化神經(jīng)網(wǎng)絡(luò)的音樂風(fēng)格分類模型研究[J];現(xiàn)代電子技術(shù);2019年21期

5 鄭麗;;建筑設(shè)計中神經(jīng)網(wǎng)絡(luò)技術(shù)與遺傳算法探究[J];湖北農(nóng)機(jī)化;2019年21期

6 易煒;何嘉;鄒茂揚;;基于循環(huán)神經(jīng)網(wǎng)絡(luò)的對話系統(tǒng)記憶機(jī)制[J];計算機(jī)工程與設(shè)計;2019年11期

7 黃為;李永剛;胡上成;汪毅;;基于循環(huán)神經(jīng)網(wǎng)絡(luò)的船搖數(shù)據(jù)實時預(yù)測[J];科學(xué)技術(shù)與工程;2019年31期

8 賴策;魏小琴;;卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方式研究[J];信息與電腦(理論版);2019年22期

9 周濟(jì)民;;基于神經(jīng)網(wǎng)絡(luò)改進(jìn)的元胞自動機(jī)分析——美國阿片類藥物濫用情況[J];信息系統(tǒng)工程;2019年11期

10 馬猛;王明紅;;基于進(jìn)化神經(jīng)網(wǎng)絡(luò)的304不銹鋼車削加工表面粗糙度預(yù)測[J];輕工機(jī)械;2019年06期

相關(guān)會議論文 前10條

1 孫軍田;張U

本文編號:2757528


資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2757528.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶52570***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com