基于深度卷積神經(jīng)網(wǎng)絡(luò)與SVM的奶牛個(gè)體識(shí)別算法研究
發(fā)布時(shí)間:2021-01-10 15:33
信息社會(huì)飛速發(fā)展,奶牛個(gè)體識(shí)別作為奶牛信息化管理的重要基礎(chǔ),成為當(dāng)前畜牧業(yè)發(fā)展的一個(gè)研究熱點(diǎn)。隨著人工智能與模式識(shí)別領(lǐng)域研究的不斷深入,利用圖像處理算法將奶牛個(gè)體識(shí)別與計(jì)算機(jī)視覺相聯(lián)系,已逐漸成為一項(xiàng)推動(dòng)奶牛信息化管理的重要舉措;而圖像識(shí)別技術(shù)的關(guān)鍵在于特征提取與分類算法的設(shè)計(jì)。為了有效完成奶牛個(gè)體黑白花紋特征的提取與分類,提高奶牛個(gè)體識(shí)別正確率,本文主要工作如下:首先敘述了奶牛個(gè)體圖像識(shí)別領(lǐng)域應(yīng)用較多的特征提取算法,給出相應(yīng)效果圖與算法優(yōu)缺點(diǎn)分析,并提出一種改進(jìn)的核主成分分析算法;然后介紹了機(jī)器學(xué)習(xí)中經(jīng)典支持向量機(jī)(Support Vector Machine,SVM)分類算法以及核函數(shù)的相關(guān)理論,并給出解決多分類問題的方案。其次,針對(duì)傳統(tǒng)圖像算法的局限性指出了深度卷積神經(jīng)網(wǎng)絡(luò)在圖像特征提取方面的優(yōu)勢(shì),結(jié)合奶牛黑白花紋特點(diǎn),本文提出一種CowNetFull卷積神經(jīng)網(wǎng)絡(luò)模型,相較于現(xiàn)有奶牛個(gè)體識(shí)別模型,本文增加了網(wǎng)絡(luò)層數(shù),并將固定卷積核大小的模式轉(zhuǎn)化為不同層靈活設(shè)置卷積核的方式;此外,模型選擇Relu作為激活函數(shù)加速網(wǎng)絡(luò)的收斂,并在全連接層后添加了Dropout層,避免了因參數(shù)過多而出...
【文章來源】: 單新媛 河北工業(yè)大學(xué)
【文章頁數(shù)】:79 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
奶牛圖像
基于深度卷積神經(jīng)網(wǎng)絡(luò)與SVM的奶牛個(gè)體識(shí)別算法研究10GaussianDifferentofGaussian(DOG)圖2.5高斯差分示意圖iii)精確定位極值點(diǎn);iv)生成每個(gè)特征點(diǎn)的方向參數(shù),保證旋轉(zhuǎn)不變的性質(zhì),如公式(2.2)(2.3)分別為特征點(diǎn)(x,y)處梯度的大小和方向,其中L(x,y)表示點(diǎn)(x,y)的尺度計(jì)算函數(shù)。22m(x,y)=(L(x+1,y)L(x1,y))(L(x,y1)L(x,y1))(2.2)(x,y)arctan((L(x,y1)L(x,y1))/(L(x1,y)L(x1,y)))(2.3)v)生成特征點(diǎn)描述子:首先計(jì)算特征點(diǎn)鄰域所在區(qū)域的每個(gè)像素點(diǎn)的梯度大小和方向信息,取出以特征點(diǎn)為中心的鄰域作為采用窗口,如圖2.6中(a)所示,箭頭指向和長(zhǎng)短分別代表該像素點(diǎn)的梯度方向和幅值大;然后利用高斯鄰域加權(quán)作用于采樣點(diǎn)和特征點(diǎn)相對(duì)方向并劃分到具有8個(gè)方向的直方圖中,如圖(b)所示,每一個(gè)特征描述向量是4×4×8=128維。(a)8×8鄰域的梯度方向圖(b)8方向統(tǒng)計(jì)直方圖圖2.6SIFT特征描述子圖
河北工業(yè)大學(xué)碩士學(xué)位論文11(2)SIFT算法提取奶牛個(gè)體特征依照2.1.2.1節(jié)中敘述的流程,利用SIFT算子提取奶牛個(gè)體圖像特征。首先是在不同的尺度空間中確定圖像穩(wěn)定的關(guān)鍵點(diǎn),然后將每一個(gè)關(guān)鍵點(diǎn)的鄰域由一個(gè)128維的向量來表示,其中每一維對(duì)應(yīng)一個(gè)特征方向的統(tǒng)計(jì)量,具體效果如圖2.7所示為原始圖像及其對(duì)應(yīng)提取出SIFT關(guān)鍵點(diǎn)的圖像,圖2.8中為同一頭奶牛的兩張不同圖片及其特征點(diǎn)匹配的圖像。圖2.7奶牛原始圖像及其SIFT特征點(diǎn)圖像圖2.8奶牛原始圖像及相應(yīng)SIFT特征點(diǎn)匹配效果圖(3)SIFT算法分析SIFT是提取圖像的局部性特征,其具有較高靈活性,同時(shí)對(duì)旋轉(zhuǎn)、尺度縮放和亮度變化具有穩(wěn)定性,但是該算法在確定主方向階段受鄰域像素點(diǎn)梯度方向影響程度較大,容易造成偏差;其次,圖像金字塔的層數(shù)設(shè)置問題需要仔細(xì)考慮,如果層數(shù)較少會(huì)使尺度出現(xiàn)誤差,從而導(dǎo)致特征向量信息不準(zhǔn)確。
【參考文獻(xiàn)】:
期刊論文
[1]基于小波變換和改進(jìn)KPCA的奶牛個(gè)體識(shí)別研究[J]. 張滿囤,單新媛,于洋,米娜,閻剛,郭迎春. 浙江農(nóng)業(yè)學(xué)報(bào). 2017(12)
[2]中國(guó)畜牧業(yè)物聯(lián)網(wǎng)技術(shù)應(yīng)用研究進(jìn)展[J]. 韓春雨. 農(nóng)民致富之友. 2017(23)
[3]基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像檢索算法研究[J]. 劉海龍,李寶安,呂學(xué)強(qiáng),黃躍. 計(jì)算機(jī)應(yīng)用研究. 2017(12)
[4]深度卷積神經(jīng)網(wǎng)絡(luò)的汽車車型識(shí)別方法[J]. 張軍,張婷,楊正瓴,朱新山,楊伯軒. 傳感器與微系統(tǒng). 2016(11)
[5]基于改進(jìn)特征袋模型的奶牛識(shí)別算法[J]. 陳娟娟,劉財(cái)興,高月芳,梁云. 計(jì)算機(jī)應(yīng)用. 2016(08)
[6]奶牛養(yǎng)殖信息化技術(shù)的發(fā)展與應(yīng)用[J]. 李艷,寧素恒,趙國(guó)麗,曲立立. 中國(guó)乳業(yè). 2016(03)
[7]基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別初探[J]. 蔡娟,蔡堅(jiān)勇,廖曉東,黃海濤,丁僑俊. 計(jì)算機(jī)系統(tǒng)應(yīng)用. 2015(04)
[8]基于卷積神經(jīng)網(wǎng)絡(luò)的奶牛個(gè)體身份識(shí)別方法[J]. 趙凱旋,何東健. 農(nóng)業(yè)工程學(xué)報(bào). 2015(05)
[9]Log-Gabor小波和分?jǐn)?shù)階多項(xiàng)式KPCA的火焰圖像狀態(tài)識(shí)別[J]. 宋昱,吳一全. 中國(guó)圖象圖形學(xué)報(bào). 2014(12)
[10]小樣本條件下的人臉特征提取算法[J]. 鐘森海,汪烈軍,張莉. 計(jì)算機(jī)工程與應(yīng)用. 2015(08)
博士論文
[1]中國(guó)奶牛養(yǎng)殖模式及其效率研究[D]. 李棟.中國(guó)農(nóng)業(yè)科學(xué)院 2013
[2]奶牛數(shù)字化管理關(guān)鍵技術(shù)的研究[D]. 郭衛(wèi).河北農(nóng)業(yè)大學(xué) 2010
碩士論文
[1]基于SVM及RF的CNN分類模型及其在人臉檢測(cè)中的應(yīng)用研究[D]. 張丹丹.南京郵電大學(xué) 2016
[2]基于射頻技術(shù)的奶牛身份識(shí)別系統(tǒng)[D]. 耿麗微.河北農(nóng)業(yè)大學(xué) 2009
本文編號(hào):2968956
【文章來源】: 單新媛 河北工業(yè)大學(xué)
【文章頁數(shù)】:79 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
奶牛圖像
基于深度卷積神經(jīng)網(wǎng)絡(luò)與SVM的奶牛個(gè)體識(shí)別算法研究10GaussianDifferentofGaussian(DOG)圖2.5高斯差分示意圖iii)精確定位極值點(diǎn);iv)生成每個(gè)特征點(diǎn)的方向參數(shù),保證旋轉(zhuǎn)不變的性質(zhì),如公式(2.2)(2.3)分別為特征點(diǎn)(x,y)處梯度的大小和方向,其中L(x,y)表示點(diǎn)(x,y)的尺度計(jì)算函數(shù)。22m(x,y)=(L(x+1,y)L(x1,y))(L(x,y1)L(x,y1))(2.2)(x,y)arctan((L(x,y1)L(x,y1))/(L(x1,y)L(x1,y)))(2.3)v)生成特征點(diǎn)描述子:首先計(jì)算特征點(diǎn)鄰域所在區(qū)域的每個(gè)像素點(diǎn)的梯度大小和方向信息,取出以特征點(diǎn)為中心的鄰域作為采用窗口,如圖2.6中(a)所示,箭頭指向和長(zhǎng)短分別代表該像素點(diǎn)的梯度方向和幅值大;然后利用高斯鄰域加權(quán)作用于采樣點(diǎn)和特征點(diǎn)相對(duì)方向并劃分到具有8個(gè)方向的直方圖中,如圖(b)所示,每一個(gè)特征描述向量是4×4×8=128維。(a)8×8鄰域的梯度方向圖(b)8方向統(tǒng)計(jì)直方圖圖2.6SIFT特征描述子圖
河北工業(yè)大學(xué)碩士學(xué)位論文11(2)SIFT算法提取奶牛個(gè)體特征依照2.1.2.1節(jié)中敘述的流程,利用SIFT算子提取奶牛個(gè)體圖像特征。首先是在不同的尺度空間中確定圖像穩(wěn)定的關(guān)鍵點(diǎn),然后將每一個(gè)關(guān)鍵點(diǎn)的鄰域由一個(gè)128維的向量來表示,其中每一維對(duì)應(yīng)一個(gè)特征方向的統(tǒng)計(jì)量,具體效果如圖2.7所示為原始圖像及其對(duì)應(yīng)提取出SIFT關(guān)鍵點(diǎn)的圖像,圖2.8中為同一頭奶牛的兩張不同圖片及其特征點(diǎn)匹配的圖像。圖2.7奶牛原始圖像及其SIFT特征點(diǎn)圖像圖2.8奶牛原始圖像及相應(yīng)SIFT特征點(diǎn)匹配效果圖(3)SIFT算法分析SIFT是提取圖像的局部性特征,其具有較高靈活性,同時(shí)對(duì)旋轉(zhuǎn)、尺度縮放和亮度變化具有穩(wěn)定性,但是該算法在確定主方向階段受鄰域像素點(diǎn)梯度方向影響程度較大,容易造成偏差;其次,圖像金字塔的層數(shù)設(shè)置問題需要仔細(xì)考慮,如果層數(shù)較少會(huì)使尺度出現(xiàn)誤差,從而導(dǎo)致特征向量信息不準(zhǔn)確。
【參考文獻(xiàn)】:
期刊論文
[1]基于小波變換和改進(jìn)KPCA的奶牛個(gè)體識(shí)別研究[J]. 張滿囤,單新媛,于洋,米娜,閻剛,郭迎春. 浙江農(nóng)業(yè)學(xué)報(bào). 2017(12)
[2]中國(guó)畜牧業(yè)物聯(lián)網(wǎng)技術(shù)應(yīng)用研究進(jìn)展[J]. 韓春雨. 農(nóng)民致富之友. 2017(23)
[3]基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像檢索算法研究[J]. 劉海龍,李寶安,呂學(xué)強(qiáng),黃躍. 計(jì)算機(jī)應(yīng)用研究. 2017(12)
[4]深度卷積神經(jīng)網(wǎng)絡(luò)的汽車車型識(shí)別方法[J]. 張軍,張婷,楊正瓴,朱新山,楊伯軒. 傳感器與微系統(tǒng). 2016(11)
[5]基于改進(jìn)特征袋模型的奶牛識(shí)別算法[J]. 陳娟娟,劉財(cái)興,高月芳,梁云. 計(jì)算機(jī)應(yīng)用. 2016(08)
[6]奶牛養(yǎng)殖信息化技術(shù)的發(fā)展與應(yīng)用[J]. 李艷,寧素恒,趙國(guó)麗,曲立立. 中國(guó)乳業(yè). 2016(03)
[7]基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別初探[J]. 蔡娟,蔡堅(jiān)勇,廖曉東,黃海濤,丁僑俊. 計(jì)算機(jī)系統(tǒng)應(yīng)用. 2015(04)
[8]基于卷積神經(jīng)網(wǎng)絡(luò)的奶牛個(gè)體身份識(shí)別方法[J]. 趙凱旋,何東健. 農(nóng)業(yè)工程學(xué)報(bào). 2015(05)
[9]Log-Gabor小波和分?jǐn)?shù)階多項(xiàng)式KPCA的火焰圖像狀態(tài)識(shí)別[J]. 宋昱,吳一全. 中國(guó)圖象圖形學(xué)報(bào). 2014(12)
[10]小樣本條件下的人臉特征提取算法[J]. 鐘森海,汪烈軍,張莉. 計(jì)算機(jī)工程與應(yīng)用. 2015(08)
博士論文
[1]中國(guó)奶牛養(yǎng)殖模式及其效率研究[D]. 李棟.中國(guó)農(nóng)業(yè)科學(xué)院 2013
[2]奶牛數(shù)字化管理關(guān)鍵技術(shù)的研究[D]. 郭衛(wèi).河北農(nóng)業(yè)大學(xué) 2010
碩士論文
[1]基于SVM及RF的CNN分類模型及其在人臉檢測(cè)中的應(yīng)用研究[D]. 張丹丹.南京郵電大學(xué) 2016
[2]基于射頻技術(shù)的奶牛身份識(shí)別系統(tǒng)[D]. 耿麗微.河北農(nóng)業(yè)大學(xué) 2009
本文編號(hào):2968956
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2968956.html
最近更新
教材專著