天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于視頻分析的犢牛基本行為識(shí)別

發(fā)布時(shí)間:2017-05-13 11:00

  本文關(guān)鍵詞:基于視頻分析的犢;拘袨樽R(shí)別,由筆耕文化傳播整理發(fā)布。


【摘要】:犢牛的日常行為及規(guī)律是判斷其健康情況的重要指標(biāo)之一,行為檢測(cè)是奶牛精準(zhǔn)養(yǎng)殖的重要工作之一。然而傳統(tǒng)的人工肉眼觀測(cè)方法存在人工成本高、工作強(qiáng)度大、易疲勞、實(shí)時(shí)性差等問題;接觸式傳感器獲取方法會(huì)損害動(dòng)物福利,且佩戴在動(dòng)物身上的傳感器易受晃動(dòng)、碰撞等因素產(chǎn)生噪聲數(shù)據(jù),影響動(dòng)物行為檢測(cè)的準(zhǔn)確性。針對(duì)這一問題,本文研究并提出基于視頻分析的犢;拘袨樽R(shí)別方法。首先對(duì)目標(biāo)檢測(cè)方法進(jìn)行改進(jìn),提出基于最大連通域的目標(biāo)循環(huán)搜索環(huán)境建模、目標(biāo)檢測(cè)算法,以高效提取復(fù)雜自然環(huán)境下的犢牛目標(biāo);在提取犢牛的質(zhì)心、輪廓等時(shí)序特征的基礎(chǔ)上,采用基于結(jié)構(gòu)相似的犢牛行為序列快速聚類算法,對(duì)犢;拘袨檫M(jìn)行識(shí)別。本文主要研究工作和結(jié)論如下:(1)從家畜行為學(xué)角度出發(fā),分析了犢牛的行為學(xué)機(jī)理,針對(duì)復(fù)雜自然光照養(yǎng)殖場(chǎng)環(huán)境,確定了基于計(jì)算機(jī)視覺技術(shù)的犢;拘袨闄z測(cè)方案。(2)針對(duì)養(yǎng)殖場(chǎng)復(fù)雜自然環(huán)境下犢牛目標(biāo)實(shí)時(shí)、高精確度檢測(cè)困難的問題,研究并提出了基于最大連通域循環(huán)搜索犢牛整體目標(biāo)的目標(biāo)檢測(cè)算法。該算法檢測(cè)出最大連通域后,按照搜索規(guī)則搜索出整個(gè)犢牛目標(biāo),試驗(yàn)結(jié)果表明,該算法檢測(cè)正確率達(dá)90.94%,比背景減除法提高4.59個(gè)百分點(diǎn)。(3)在分析、研究各種背景建模方法建模效果及適用條件基礎(chǔ)上,兼顧實(shí)時(shí)性和準(zhǔn)確性兩個(gè)指標(biāo),提出一種改進(jìn)的背景建模方法。該方法首先通過分割目標(biāo)區(qū)域并以真實(shí)的實(shí)時(shí)背景進(jìn)行替換,最后將重新組合的背景圖融入到背景集中,實(shí)現(xiàn)快速準(zhǔn)確地更新背景模型。試驗(yàn)結(jié)果表明,該背景建模算法正檢率達(dá)98.98%,比背景減除法提高8.32個(gè)百分點(diǎn)。(4)為提高目標(biāo)跟蹤的準(zhǔn)確性及魯棒性,研究并提出一種基于目標(biāo)最大連通域的跟蹤算法,該算法首先對(duì)判斷是否有符合條件的目標(biāo)最大連通域,并搜索犢牛整體目標(biāo)完成跟蹤。試驗(yàn)結(jié)果表明,在光照變化、樹葉晃動(dòng)、圍欄遮擋等噪聲干擾下,仍可以準(zhǔn)確檢測(cè)跟蹤犢牛目標(biāo)。通過觀察犢;拘袨,提出了識(shí)別犢牛基本行為的5個(gè)特征參數(shù),通過對(duì)不同特征參數(shù)的分析對(duì)比,驗(yàn)證了特征參數(shù)的有效性。。(5)在分析對(duì)比的基礎(chǔ)上,用基于相似結(jié)構(gòu)的快速聚類方法識(shí)別犢牛的基本行為,在定義犢牛的行為特征序列相關(guān)概念基礎(chǔ)上,依據(jù)臨界向量對(duì)犢牛行為序列進(jìn)行動(dòng)態(tài)劃分,構(gòu)造了犢牛行為序列結(jié)構(gòu),并采用基于密度的動(dòng)態(tài)閾值快速聚類算法實(shí)現(xiàn)犢牛行為的分類。分別進(jìn)行犢牛基本行為識(shí)別試驗(yàn)、聚類時(shí)效性試驗(yàn)和基本行為識(shí)別正確率試驗(yàn),試驗(yàn)結(jié)果表明,該算法犢牛基本行為識(shí)別正確率平均達(dá)97.32%;當(dāng)子序列為6580段時(shí),本文算法耗時(shí)僅為K-means聚類算法的38.68%,能快速對(duì)犢;拘袨檫M(jìn)行識(shí)別。
【關(guān)鍵詞】:犢牛 目標(biāo)檢測(cè) 行為識(shí)別 視頻分析 結(jié)構(gòu)相似 行為序列 聚類
【學(xué)位授予單位】:西北農(nóng)林科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類號(hào)】:TP391.41
【目錄】:
  • 摘要6-8
  • ABSTRACT8-12
  • 第1章 緒論12-21
  • 1.1 研究背景與意義12-13
  • 1.2 國內(nèi)外研究現(xiàn)狀及存在的問題13-17
  • 1.2.1 國外研究現(xiàn)狀13-15
  • 1.2.2 國內(nèi)研究現(xiàn)狀15-17
  • 1.2.3 存在的主要問題17
  • 1.3 研究內(nèi)容17-18
  • 1.4 研究方法與技術(shù)路線18-19
  • 1.4.1 研究方法18
  • 1.4.2 技術(shù)路線18-19
  • 1.5 論文組織結(jié)構(gòu)19-21
  • 第2章 奶犢牛的行為學(xué)特征及視頻采集21-24
  • 2.1 奶犢牛行為學(xué)特征21-22
  • 2.1.1 犢牛的生理特點(diǎn)21-22
  • 2.1.2 犢牛的基本行為22
  • 2.2 犢牛視頻采集與開發(fā)環(huán)境22-23
  • 2.2.1 采集場(chǎng)所及環(huán)境22
  • 2.2.2 采集視頻的設(shè)置參數(shù)及視頻的預(yù)處理22-23
  • 2.2.3 視頻分析算法開發(fā)環(huán)境23
  • 2.3 本章小結(jié)23-24
  • 第3章 犢牛目標(biāo)檢測(cè)與背景建模24-37
  • 3.1 常用目標(biāo)檢測(cè)算法分析24-30
  • 3.1.1 幀間差分法24-26
  • 3.1.2 光流法26-27
  • 3.1.3 背景減除法27-30
  • 3.2 基于背景模型更新與逐步循環(huán)搜索的目標(biāo)檢測(cè)算法30-33
  • 3.3 目標(biāo)檢測(cè)試驗(yàn)結(jié)果與分析33-36
  • 3.3.1 試驗(yàn)樣本33
  • 3.3.2 試驗(yàn)方法33-34
  • 3.3.3 試驗(yàn)結(jié)果及分析34-36
  • 3.4 本章小結(jié)36-37
  • 第4章 犢牛目標(biāo)跟蹤與特征提取37-43
  • 4.1 目標(biāo)跟蹤方法分析37-38
  • 4.2 基于最大連通區(qū)域循環(huán)搜索的目標(biāo)跟蹤算法38-40
  • 4.2.1 跟蹤算法流程38-39
  • 4.2.2 跟蹤算法試驗(yàn)結(jié)果及分析39-40
  • 4.3 犢牛目標(biāo)特征提取40-42
  • 4.4 本章小結(jié)42-43
  • 第5章 犢牛基本行為的聚類識(shí)別43-51
  • 5.1 常用聚類算法分析43-44
  • 5.2 結(jié)構(gòu)相似度算法44-45
  • 5.2.1 SSIM算法描述44-45
  • 5.2.2 SSIM算法在軌跡聚類中的應(yīng)用45
  • 5.3 基于結(jié)構(gòu)相似度的犢牛行為序列聚類算法45-48
  • 5.3.1 犢牛行為序列的相關(guān)定義45-46
  • 5.3.2 犢牛行為序列的劃分46
  • 5.3.3 犢牛行為序列結(jié)構(gòu)及其相似度計(jì)算46-47
  • 5.3.4 基于密度的聚類算法47
  • 5.3.5 犢牛行為序列聚類47-48
  • 5.4 犢;拘袨樽R(shí)別試驗(yàn)結(jié)果與分析48-50
  • 5.4.1 試驗(yàn)樣本48
  • 5.4.2 試驗(yàn)方法48
  • 5.4.3 行為識(shí)別試驗(yàn)結(jié)果及分析48-50
  • 5.5 本章小結(jié)50-51
  • 第6章 結(jié)論與展望51-53
  • 6.1 結(jié)論51
  • 6.2 展望與建議51-53
  • 參考文獻(xiàn)53-57
  • 致謝57-58
  • 作者簡介58

【相似文獻(xiàn)】

中國期刊全文數(shù)據(jù)庫 前10條

1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動(dòng)特征的行為識(shí)別[J];北京交通大學(xué)學(xué)報(bào);2009年02期

2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測(cè)模型的多人行為識(shí)別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期

3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識(shí)別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期

4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識(shí)別算法[J];光電子.激光;2013年08期

5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J];中國圖象圖形學(xué)報(bào);2014年02期

6 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識(shí)別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期

7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識(shí)別[J];自動(dòng)化學(xué)報(bào);2010年01期

8 李英杰;尹怡欣;鄧飛;;一種有效的行為識(shí)別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期

9 王新旭;;基于視覺的人體行為識(shí)別研究[J];中國新通信;2012年21期

10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期

中國重要會(huì)議論文全文數(shù)據(jù)庫 前7條

1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識(shí)別[A];2007中國控制與決策學(xué)術(shù)年會(huì)論文集[C];2007年

4 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡單人物行為識(shí)別研究[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

5 安國成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年

6 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用研究[A];2013年全國通信軟件學(xué)術(shù)會(huì)議論文集[C];2013年

7 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

中國重要報(bào)紙全文數(shù)據(jù)庫 前4條

1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日?qǐng)?bào);2001年

2 農(nóng)發(fā)行鹿邑支行黨支部書記 行長 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日?qǐng)?bào);2007年

3 東林;行為識(shí)別新技術(shù)讓監(jiān)控沒有“死角”[N];人民公安報(bào);2007年

4 田凱 徐蕊 李政育 信木祥;博物館安全的國際經(jīng)驗(yàn)[N];中國文物報(bào);2014年

中國博士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 邵延華;基于計(jì)算機(jī)視覺的人體行為識(shí)別研究[D];重慶大學(xué);2015年

2 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年

3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年

4 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年

5 韓姍姍;基于視覺的運(yùn)動(dòng)人體特征描述與行為識(shí)別研究[D];浙江工業(yè)大學(xué);2015年

6 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年

7 吳秋霞;復(fù)雜場(chǎng)景下的人體行為識(shí)別[D];華南理工大學(xué);2012年

8 于成龍;基于視頻的人體行為識(shí)別關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2014年

9 王亮;基于判別模式學(xué)習(xí)的人體行為識(shí)別方法研究[D];哈爾濱工業(yè)大學(xué);2011年

10 付朝霞;基于視頻流的人體目標(biāo)檢測(cè)與行為識(shí)別研究[D];中北大學(xué);2013年

中國碩士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 唐小琴;基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究[D];西南大學(xué);2015年

2 胡秋揚(yáng);可穿戴式個(gè)人室內(nèi)位置和行為監(jiān)測(cè)系統(tǒng)[D];浙江大學(xué);2015年

3 陳鈺昕;基于時(shí)空特性的人體行為識(shí)別研究[D];燕山大學(xué);2015年

4 任亮;智能車環(huán)境下車輛典型行為識(shí)別方法研究[D];長安大學(xué);2015年

5 金澤豪;并行化的人體行為識(shí)別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年

6 王呈;穿戴式多傳感器人體日;顒(dòng)監(jiān)測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年

7 王露;基于稀疏時(shí)空特征的人體行為識(shí)別研究[D];蘇州大學(xué);2015年

8 于靜;基于物品信息和人體深度信息的行為識(shí)別研究[D];山東大學(xué);2015年

9 章瑜;人體運(yùn)動(dòng)行為識(shí)別相關(guān)方法研究[D];南京師范大學(xué);2015年

10 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年


  本文關(guān)鍵詞:基于視頻分析的犢;拘袨樽R(shí)別,,由筆耕文化傳播整理發(fā)布。



本文編號(hào):362333

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/362333.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶00a33***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com