天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于深度學(xué)習(xí)的豬只目標(biāo)檢測(cè)及狀態(tài)分析

發(fā)布時(shí)間:2021-07-28 17:54
  養(yǎng)殖場(chǎng)中對(duì)養(yǎng)殖病豬的生活狀態(tài)觀測(cè)及疾病預(yù)防大多都是依靠人工觀察來(lái)完成,容易受到個(gè)人經(jīng)驗(yàn)和自然環(huán)境等因素的影響。研究表明,豬只的較長(zhǎng)時(shí)間垂頭站立或者較長(zhǎng)時(shí)間躺臥行為表示豬只處于疲勞狀態(tài)或者患有疾病的概率較大[1],需進(jìn)一步檢查身體狀況,進(jìn)而采取下一步治療措施;如果豬只較長(zhǎng)時(shí)間抬頭站立,表明豬只可能被外界刺激和擾亂,或者是害怕、恐慌等,有必要檢查豬舍的內(nèi)部和周?chē)h(huán)境。如果通過(guò)人工的方法進(jìn)行檢測(cè)豬只的狀況,不僅勞動(dòng)強(qiáng)度大,而且不及時(shí)。因此,應(yīng)用視頻監(jiān)控方式的數(shù)字化養(yǎng)殖已經(jīng)開(kāi)始出現(xiàn),該方法不僅可以及時(shí)對(duì)豬只的狀態(tài)有所掌握,同時(shí)也可以大大減少勞動(dòng)力,降低養(yǎng)殖成本。豬只的目標(biāo)檢測(cè)是豬只的行為分析和數(shù)字化養(yǎng)殖的重要前期工作,為了得到準(zhǔn)確的豬只的狀態(tài),及時(shí)發(fā)現(xiàn)患病隱患,本文首先利用深度學(xué)習(xí)技術(shù)對(duì)豬只姿態(tài)進(jìn)行檢測(cè)。為了提高檢測(cè)精確度、減少網(wǎng)絡(luò)參數(shù)的數(shù)量,本研究首先通過(guò)對(duì)豬只個(gè)體特征的分析,提出了改進(jìn)ResNet模型用于豬只檢測(cè),改進(jìn)模型通過(guò)跨層連接來(lái)獲取豬只特征之間的關(guān)系,加入了新的殘差塊來(lái)提高模型的特征表達(dá)能力,減少網(wǎng)絡(luò)的層數(shù)以降低網(wǎng)絡(luò)的復(fù)雜度。改進(jìn)模型是通過(guò)減少卷積層的數(shù)量,構(gòu)建不同類型的殘差塊,增... 

【文章來(lái)源】:東北農(nóng)業(yè)大學(xué)黑龍江省 211工程院校

【文章頁(yè)數(shù)】:99 頁(yè)

【學(xué)位級(jí)別】:博士

【部分圖文】:

基于深度學(xué)習(xí)的豬只目標(biāo)檢測(cè)及狀態(tài)分析


圖1-2自動(dòng)駕駛系統(tǒng)流程??Figurel-2?Automated?driving?system?process??

圖像識(shí)別,基本流程


東北農(nóng)業(yè)大學(xué)工學(xué)博士學(xué)位論文??檢測(cè)技術(shù)??原理與人類進(jìn)行圖像識(shí)別的原理基本的影響。人類在進(jìn)行圖像識(shí)別過(guò)程中通過(guò)圖像擁有的特征進(jìn)行相應(yīng)的分類,類看到圖片時(shí),大腦便會(huì)快速感知出過(guò)程中己經(jīng)實(shí)現(xiàn)了快速識(shí)別[3()]。大腦否和這一圖像存在相同或者是類似特行圖像識(shí)別的過(guò)程與這一過(guò)程類似,特征,以此實(shí)現(xiàn)對(duì)圖像的識(shí)別,圖像

目標(biāo)檢測(cè)


前言??否存在目標(biāo),并確定目標(biāo)的位置和范圍[31—33]。如圖1-4所示,圖中包含多個(gè)目標(biāo),如人、汽??車(chē)、雨傘、棒球等,目標(biāo)檢測(cè)的任務(wù)是將這些目標(biāo)識(shí)別出來(lái),確定其類別、位置和邊框范??圖1-4目標(biāo)檢測(cè)不例??Figure?1-4?Target?detection?example??目標(biāo)檢測(cè)長(zhǎng)是機(jī)器視覺(jué)領(lǐng)域的重要研宄方向。傳統(tǒng)的目標(biāo)檢測(cè)方法取得了一定的積極進(jìn)??展,但在現(xiàn)實(shí)場(chǎng)景中,由于目標(biāo)和目標(biāo)所處場(chǎng)景的復(fù)雜性和多樣性變化,傳統(tǒng)的目標(biāo)檢測(cè)方??法并不能滿足實(shí)際應(yīng)用的需求。當(dāng)下,基于圖像的各種機(jī)器視覺(jué)技術(shù)在各個(gè)領(lǐng)域都有了十足??的發(fā)展和應(yīng)用[34]。??1.4.3基于深度學(xué)習(xí)的目標(biāo)檢測(cè)??傳統(tǒng)的目標(biāo)檢測(cè)領(lǐng)域使用的區(qū)域選擇策略時(shí)間復(fù)雜度高,產(chǎn)生很多的冗余窗口并且效果??差,特征對(duì)于目標(biāo)變化缺乏魯棒性。這兩個(gè)問(wèn)題是深度學(xué)習(xí)需要解決的。對(duì)于特征提取的問(wèn)??題,在深度學(xué)習(xí)領(lǐng)域基本不再使用手工特征,而是使用神經(jīng)網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí),常用的工具??就是卷積神經(jīng)網(wǎng)絡(luò);而對(duì)于候選區(qū)域提取這個(gè)問(wèn)題的,在基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法領(lǐng)域??大致有兩大類方法

【參考文獻(xiàn)】:
期刊論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的車(chē)型識(shí)別[J]. 石磊,王亞敏,曹仰杰,衛(wèi)琳.  計(jì)算機(jī)科學(xué). 2018(05)
[2]基于大數(shù)據(jù)技術(shù)的用電量預(yù)測(cè)模型[J]. 陳星豪,陶國(guó)飛,黃柳萍.  廣西水利水電. 2018(02)
[3]Faster R-CNN模型在車(chē)輛檢測(cè)中的應(yīng)用[J]. 王林,張鶴鶴.  計(jì)算機(jī)應(yīng)用. 2018(03)
[4]基于并行卷積神經(jīng)網(wǎng)絡(luò)的人群密度估計(jì)方法[J]. 賈翻連,張麗紅.  測(cè)試技術(shù)學(xué)報(bào). 2018(01)
[5]經(jīng)典深度卷積神經(jīng)網(wǎng)絡(luò)模型在手繪草圖識(shí)別中的應(yīng)用研究[J]. 佘鵬,甘健侯,文斌,周菊香.  云南師范大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(01)
[6]基于PReLUs-Softplus非線性激勵(lì)函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)[J]. 郜麗鵬,鄭輝.  沈陽(yáng)工業(yè)大學(xué)學(xué)報(bào). 2018(01)
[7]基于循環(huán)卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)與分類[J]. 艾玲梅,葉雪娜.  計(jì)算機(jī)技術(shù)與發(fā)展. 2018(02)
[8]運(yùn)用雙向LSTM擬合RNA二級(jí)結(jié)構(gòu)打分函數(shù)[J]. 王帥,蔡磊鑫,顧倜,呂強(qiáng).  計(jì)算機(jī)應(yīng)用與軟件. 2017(09)
[9]基于卷積神經(jīng)網(wǎng)絡(luò)的運(yùn)輸船舶分類識(shí)別方法[J]. 戚超,王曉峰.  微型機(jī)與應(yīng)用. 2017(17)
[10]基于改進(jìn)激活函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)研究[J]. 曲之琳,胡曉飛.  計(jì)算機(jī)技術(shù)與發(fā)展. 2017(12)

博士論文
[1]基于卷積神經(jīng)網(wǎng)絡(luò)的醫(yī)學(xué)圖像癌變識(shí)別研究[D]. 薛迪秀.中國(guó)科學(xué)技術(shù)大學(xué) 2017
[2]基于深度學(xué)習(xí)的暴力檢測(cè)及人臉識(shí)別方法研究[D]. 丁春輝.中國(guó)科學(xué)技術(shù)大學(xué) 2017
[3]基于FPGA的卷積神經(jīng)網(wǎng)絡(luò)并行結(jié)構(gòu)研究[D]. 陸志堅(jiān).哈爾濱工程大學(xué) 2013

碩士論文
[1]基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D]. 史為抗.濟(jì)南大學(xué) 2017
[2]基于深度學(xué)習(xí)的表情識(shí)別方法研究[D]. 程曦.長(zhǎng)春工業(yè)大學(xué) 2017
[3]基于視頻跟蹤與多模型聲音識(shí)別的豬行為檢測(cè)與分析[D]. 張?zhí)K楠.太原理工大學(xué) 2016
[4]基于深度學(xué)習(xí)的圖像態(tài)勢(shì)感知應(yīng)用研究[D]. 楊文慧.哈爾濱工業(yè)大學(xué) 2016
[5]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類方法研究[D]. 朱蕓蕓.北京交通大學(xué) 2016
[6]基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情和性別識(shí)別[D]. 產(chǎn)文濤.安徽大學(xué) 2016
[7]基于matching-CNN的行人再識(shí)別[D]. 徐志敏.西安電子科技大學(xué) 2015
[8]改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)模型及其應(yīng)用研究[D]. 何鵬程.大連理工大學(xué) 2015
[9]基于邊緣檢測(cè)的非局部均值圖像去噪算法[D]. 甘凱華.合肥工業(yè)大學(xué) 2015
[10]二維圖形加速引擎設(shè)計(jì)與實(shí)現(xiàn)[D]. 周毅.湖南大學(xué) 2013



本文編號(hào):3308368

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3308368.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶5d6d1***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com