人臉識(shí)別技術(shù)及在油氣泵站安全監(jiān)測(cè)中的應(yīng)用研究
發(fā)布時(shí)間:2021-04-07 22:27
隨著經(jīng)濟(jì)的快速發(fā)展,油氣泵站作為國民經(jīng)濟(jì)能源大動(dòng)脈,在促進(jìn)區(qū)域經(jīng)濟(jì)發(fā)展方面做出了突出的貢獻(xiàn)。而現(xiàn)實(shí)中的油氣泵站地理位置偏僻,周圍簡(jiǎn)單的安全防護(hù)措施以及人員的無法全天監(jiān)護(hù),且泵站內(nèi)部光線暗、禁止強(qiáng)光,導(dǎo)致監(jiān)控設(shè)備拍攝效果模糊、人臉圖像灰暗等情況,嚴(yán)重威脅著油氣泵站中的安全。因此,油氣泵站安全監(jiān)測(cè)儼然成為國家能源安全供應(yīng)所面臨的嚴(yán)峻挑戰(zhàn)。人臉識(shí)別技術(shù)應(yīng)用于油氣泵站安全監(jiān)測(cè)中,可以更方便、準(zhǔn)確、直接地驗(yàn)證人員信息,對(duì)油氣泵站的建設(shè)和維護(hù)起到了重要的保障。論文主要研究工作如下:(1)論文針對(duì)油氣泵站中光照昏暗導(dǎo)致人臉識(shí)別率下降的問題,提出基于決策樹與圖像增強(qiáng)結(jié)合的光照處理方法,通過對(duì)不同暗度的人臉圖像處理的實(shí)驗(yàn)得出,該方法與傳統(tǒng)的光照處理方法:線性變換、指數(shù)增強(qiáng)、同態(tài)濾波、熵圖像方法相比,明顯增強(qiáng)人臉圖像各區(qū)域的特征點(diǎn)。(2)研究卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練樣本時(shí)出現(xiàn)的過擬合現(xiàn)象,通過實(shí)驗(yàn)不斷調(diào)整超參數(shù)提高CNN在訓(xùn)練樣本數(shù)據(jù)集上的表現(xiàn),尋找合適的Dropout值解決過擬合問題,之后建立卷積神經(jīng)網(wǎng)絡(luò)對(duì)決策樹與圖像增強(qiáng)的光照算法處理后的人臉圖像進(jìn)行人臉識(shí)別驗(yàn)證和分析。通過實(shí)驗(yàn)表明:論文提出的決策樹與圖像增...
【文章來源】:大連海事大學(xué)遼寧省 211工程院校
【文章頁數(shù)】:72 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.1隱馬爾科夫模型5級(jí)人臉區(qū)域分塊??Fig.?2.1?Face?regional?partitioning?five?level?of?Hidden?Markov?Model??
?大連海事大學(xué)專業(yè)學(xué)位碩士學(xué)位論文???根節(jié)點(diǎn)??內(nèi)部節(jié)點(diǎn)?內(nèi)部節(jié)點(diǎn)??葉子節(jié)點(diǎn)內(nèi)部節(jié)點(diǎn)|葉子節(jié)點(diǎn)內(nèi)部節(jié)點(diǎn)??葉子節(jié)點(diǎn)葉子節(jié)點(diǎn)葉子節(jié)點(diǎn)葉子節(jié)點(diǎn)??圖2.2決策樹模型??Fig.?2.2?Decision?tree?model??每個(gè)決策樹都是由根節(jié)點(diǎn)、內(nèi)部節(jié)點(diǎn)和葉子節(jié)點(diǎn)組成。根節(jié)點(diǎn)位于決策樹的最頂端,??并且決策樹只有一個(gè)根節(jié)點(diǎn),其節(jié)點(diǎn)內(nèi)部包含所有訓(xùn)練樣本[391。內(nèi)部節(jié)點(diǎn)是根據(jù)某種特??定的劃分規(guī)則得到的分類。葉子節(jié)點(diǎn)處于決策樹的最末端,葉子節(jié)點(diǎn)包含有分類標(biāo)簽的??樣本數(shù)據(jù)集合。每條由決策樹的根節(jié)點(diǎn)到葉子節(jié)點(diǎn)構(gòu)成一條路徑都代表了??種分類規(guī)則,??所以決策樹中的整棵樹是由訓(xùn)練數(shù)據(jù)產(chǎn)生的分類規(guī)則的數(shù)據(jù)集合。決策樹有ID3、C4.5、??CART等算法。在構(gòu)建決策樹時(shí),要確保當(dāng)前的特征對(duì)數(shù)據(jù)的劃分具有決定性的作用[4()]。??信息增益是決策樹中?個(gè)劃分標(biāo)準(zhǔn),其計(jì)算公式為。??//?=?一?Jp(x,)log2p(x,)?(2.2)??;=1??在公式(2.2)中,是選擇該分類的概率,熵度量了事物的不確定性,得到的??值越大,表明樣本中混雜程度越大。該模型計(jì)算的復(fù)雜程度不高,輸出的結(jié)果比較容易??理解,對(duì)于中間值的缺失不敏感,可以處理不相關(guān)特征數(shù)據(jù),但同時(shí)會(huì)產(chǎn)生過度匹配的??問題。決策樹的分類過程如圖2.3所示。??具體生成決策樹模型的步驟如下:??(1)首先創(chuàng)建決策樹的根節(jié)點(diǎn),將所有訓(xùn)練的樣本數(shù)據(jù)集置于根節(jié)點(diǎn)。??(2)參照決策樹樣本分裂準(zhǔn)則,從訓(xùn)練樣本的數(shù)據(jù)集合中分裂出最容易區(qū)分的屬??性,產(chǎn)生相應(yīng)的子節(jié)點(diǎn)。??-9?-??
?人臉識(shí)別技術(shù)及在油氣泵站安全監(jiān)測(cè)中的應(yīng)用研究???(3)根據(jù)剩余的樣本屬性對(duì)每個(gè)分裂的內(nèi)部子節(jié)點(diǎn)重復(fù)步驟2的操作,當(dāng)內(nèi)部子??節(jié)點(diǎn)上的所有樣本數(shù)據(jù)的類別的純度相同,或己經(jīng)被利用,則該葉子節(jié)點(diǎn)停止分裂,否??則繼續(xù)。??測(cè)試數(shù)據(jù)??輸1練數(shù)I?^評(píng)估翻'?^分類結(jié)果??圖2.3決策樹的分類過程??Fig.?2.3?Classification?process?of?decision?tree??2.4.2支持向量機(jī)分類法??支持向量機(jī)(Support?Vector?Machines,SVM),解決樣本分類、學(xué)習(xí)和高維問題??上表現(xiàn)良好[41]’[42]。由于SVM具有完善的理論作為基礎(chǔ),目前該方法應(yīng)用在諸多的場(chǎng)景??以及實(shí)驗(yàn)中,并得到了很好的實(shí)驗(yàn)效果。例如:模式識(shí)別、回歸估計(jì)等等。SVM的基??本思想如圖2.4所示,圖中的黑點(diǎn)和空點(diǎn)表示兩類數(shù)據(jù)的訓(xùn)練樣本,由于數(shù)據(jù)處于兩維??的平面上,H是分類線也是超平面,H1和H2是過各類樣本中離分類線最近的點(diǎn)且平行??于H的分類線。最優(yōu)的分界平面就是要求分類線不但能夠?qū)深悷o錯(cuò)誤地分開,而且兩??類的數(shù)據(jù)線之間的間隔也是最大的[43]。分布在超平面一側(cè)的所有數(shù)據(jù)都屬于某個(gè)類別,??而分布在另一側(cè)的所有數(shù)據(jù)則屬于另一個(gè)類別[4'兩條直線側(cè)邊上的點(diǎn)是支持向量。??SVM方法泛化錯(cuò)誤率低,計(jì)算量小,輸出的計(jì)算結(jié)果易于理解且具有較好的性能。但??該方法對(duì)參數(shù)的相關(guān)修改和核函數(shù)的選擇敏感,大部分的情況僅適用于處理二分類相關(guān)??的情況。??-10?-??
本文編號(hào):3124303
【文章來源】:大連海事大學(xué)遼寧省 211工程院校
【文章頁數(shù)】:72 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.1隱馬爾科夫模型5級(jí)人臉區(qū)域分塊??Fig.?2.1?Face?regional?partitioning?five?level?of?Hidden?Markov?Model??
?大連海事大學(xué)專業(yè)學(xué)位碩士學(xué)位論文???根節(jié)點(diǎn)??內(nèi)部節(jié)點(diǎn)?內(nèi)部節(jié)點(diǎn)??葉子節(jié)點(diǎn)內(nèi)部節(jié)點(diǎn)|葉子節(jié)點(diǎn)內(nèi)部節(jié)點(diǎn)??葉子節(jié)點(diǎn)葉子節(jié)點(diǎn)葉子節(jié)點(diǎn)葉子節(jié)點(diǎn)??圖2.2決策樹模型??Fig.?2.2?Decision?tree?model??每個(gè)決策樹都是由根節(jié)點(diǎn)、內(nèi)部節(jié)點(diǎn)和葉子節(jié)點(diǎn)組成。根節(jié)點(diǎn)位于決策樹的最頂端,??并且決策樹只有一個(gè)根節(jié)點(diǎn),其節(jié)點(diǎn)內(nèi)部包含所有訓(xùn)練樣本[391。內(nèi)部節(jié)點(diǎn)是根據(jù)某種特??定的劃分規(guī)則得到的分類。葉子節(jié)點(diǎn)處于決策樹的最末端,葉子節(jié)點(diǎn)包含有分類標(biāo)簽的??樣本數(shù)據(jù)集合。每條由決策樹的根節(jié)點(diǎn)到葉子節(jié)點(diǎn)構(gòu)成一條路徑都代表了??種分類規(guī)則,??所以決策樹中的整棵樹是由訓(xùn)練數(shù)據(jù)產(chǎn)生的分類規(guī)則的數(shù)據(jù)集合。決策樹有ID3、C4.5、??CART等算法。在構(gòu)建決策樹時(shí),要確保當(dāng)前的特征對(duì)數(shù)據(jù)的劃分具有決定性的作用[4()]。??信息增益是決策樹中?個(gè)劃分標(biāo)準(zhǔn),其計(jì)算公式為。??//?=?一?Jp(x,)log2p(x,)?(2.2)??;=1??在公式(2.2)中,是選擇該分類的概率,熵度量了事物的不確定性,得到的??值越大,表明樣本中混雜程度越大。該模型計(jì)算的復(fù)雜程度不高,輸出的結(jié)果比較容易??理解,對(duì)于中間值的缺失不敏感,可以處理不相關(guān)特征數(shù)據(jù),但同時(shí)會(huì)產(chǎn)生過度匹配的??問題。決策樹的分類過程如圖2.3所示。??具體生成決策樹模型的步驟如下:??(1)首先創(chuàng)建決策樹的根節(jié)點(diǎn),將所有訓(xùn)練的樣本數(shù)據(jù)集置于根節(jié)點(diǎn)。??(2)參照決策樹樣本分裂準(zhǔn)則,從訓(xùn)練樣本的數(shù)據(jù)集合中分裂出最容易區(qū)分的屬??性,產(chǎn)生相應(yīng)的子節(jié)點(diǎn)。??-9?-??
?人臉識(shí)別技術(shù)及在油氣泵站安全監(jiān)測(cè)中的應(yīng)用研究???(3)根據(jù)剩余的樣本屬性對(duì)每個(gè)分裂的內(nèi)部子節(jié)點(diǎn)重復(fù)步驟2的操作,當(dāng)內(nèi)部子??節(jié)點(diǎn)上的所有樣本數(shù)據(jù)的類別的純度相同,或己經(jīng)被利用,則該葉子節(jié)點(diǎn)停止分裂,否??則繼續(xù)。??測(cè)試數(shù)據(jù)??輸1練數(shù)I?^評(píng)估翻'?^分類結(jié)果??圖2.3決策樹的分類過程??Fig.?2.3?Classification?process?of?decision?tree??2.4.2支持向量機(jī)分類法??支持向量機(jī)(Support?Vector?Machines,SVM),解決樣本分類、學(xué)習(xí)和高維問題??上表現(xiàn)良好[41]’[42]。由于SVM具有完善的理論作為基礎(chǔ),目前該方法應(yīng)用在諸多的場(chǎng)景??以及實(shí)驗(yàn)中,并得到了很好的實(shí)驗(yàn)效果。例如:模式識(shí)別、回歸估計(jì)等等。SVM的基??本思想如圖2.4所示,圖中的黑點(diǎn)和空點(diǎn)表示兩類數(shù)據(jù)的訓(xùn)練樣本,由于數(shù)據(jù)處于兩維??的平面上,H是分類線也是超平面,H1和H2是過各類樣本中離分類線最近的點(diǎn)且平行??于H的分類線。最優(yōu)的分界平面就是要求分類線不但能夠?qū)深悷o錯(cuò)誤地分開,而且兩??類的數(shù)據(jù)線之間的間隔也是最大的[43]。分布在超平面一側(cè)的所有數(shù)據(jù)都屬于某個(gè)類別,??而分布在另一側(cè)的所有數(shù)據(jù)則屬于另一個(gè)類別[4'兩條直線側(cè)邊上的點(diǎn)是支持向量。??SVM方法泛化錯(cuò)誤率低,計(jì)算量小,輸出的計(jì)算結(jié)果易于理解且具有較好的性能。但??該方法對(duì)參數(shù)的相關(guān)修改和核函數(shù)的選擇敏感,大部分的情況僅適用于處理二分類相關(guān)??的情況。??-10?-??
本文編號(hào):3124303
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3124303.html
最近更新
教材專著