天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于深度學(xué)習(xí)的圖像識別應(yīng)用研究

發(fā)布時(shí)間:2017-08-08 08:02

  本文關(guān)鍵詞:基于深度學(xué)習(xí)的圖像識別應(yīng)用研究


  更多相關(guān)文章: 深度學(xué)習(xí) CNN RNN CRNN 敏感圖像識別 車牌識別


【摘要】:圖像識別是人工智能領(lǐng)域的一個(gè)重要方向。經(jīng)過多年的研究,圖像識別技術(shù)取得了一定的研究進(jìn)展。圖像識別主要包含特征提取和分類識別,而其中的特征提取是圖像識別技術(shù)發(fā)展的瓶頸問題,直接決定著識別性能的好壞。傳統(tǒng)提取的特征主要分為全局特征和局部特征,但是這些特征都是圖像底層的視覺特征,并且需要具備一定專業(yè)知識人員進(jìn)行特征的設(shè)計(jì)與選擇,這種人工設(shè)計(jì)的特征需要經(jīng)過大量的驗(yàn)證后才能證明其對某一種識別任務(wù)的有效性,這也在一定程度上限制了圖像識別技術(shù)的應(yīng)用。近年來,隨著大數(shù)據(jù)時(shí)代的來臨和計(jì)算資源越來越便宜,深度學(xué)習(xí)技術(shù)不斷取得進(jìn)展。它是一種以數(shù)據(jù)為驅(qū)動,從圖像識別任務(wù)中的大量數(shù)據(jù)來自動學(xué)習(xí)特征。為此,本文首先對深度學(xué)習(xí)進(jìn)行了研究,然后將其應(yīng)用到敏感圖像識別和車牌識別中。本文的研究內(nèi)容主要包括以下幾個(gè)部分:首先,本文深入研究了深度學(xué)習(xí)。重點(diǎn)研究了深度學(xué)習(xí)的特征提取,以及深度學(xué)習(xí)中三個(gè)重要的網(wǎng)絡(luò)模型,分別是可以實(shí)現(xiàn)無監(jiān)督特征學(xué)習(xí)的深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN),圖像識別任務(wù)中被廣泛使用的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),以及可以實(shí)現(xiàn)序列數(shù)據(jù)學(xué)習(xí)的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN),對它們的網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練方法展開深入的研究。實(shí)驗(yàn)表明,深度學(xué)習(xí)網(wǎng)絡(luò)可以對不同的識別任務(wù),從圖像數(shù)據(jù)中學(xué)習(xí)分層特征,最后形成不同類別對象之間的區(qū)分性特征。其次,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的敏感圖像識別方法。該方法分為兩個(gè)步驟:粗檢和細(xì)檢。粗檢用來快速識別出不含或含膚色區(qū)域較少的正常圖像以及大頭照,因?yàn)榇蟛糠謭D像都屬于正常圖像,這可以極大降低識別時(shí)間。對于包含膚色較多的圖像,則進(jìn)一步通過細(xì)檢識別。首先使用大量標(biāo)定好的敏感圖像和非敏感圖像訓(xùn)練CNN分類模型,然后采用分類模型進(jìn)行敏感圖像的識別。在包含19000多幅圖像的數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果表明,采用本文所提出的方法識別準(zhǔn)確率可以達(dá)到97.2%,遠(yuǎn)遠(yuǎn)高于傳統(tǒng)的敏感圖像識別方法。最后,針對傳統(tǒng)車牌識別算法存在車牌定位、車牌校正、字符分割、字符識別等多個(gè)過程,每個(gè)過程都會影響車牌識別率的問題,提出了一種基于卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(Convolutional Recurrent Neural Network,CRNN)的車牌識別算法。該算法包含車牌定位和車牌識別兩個(gè)部分:首先使用基于邊緣的車牌定位方法確定圖像中車牌的候選區(qū)域,然后采用CRNN網(wǎng)絡(luò)進(jìn)行車牌的訓(xùn)練和識別。相對于傳統(tǒng)的車牌識別技術(shù),本文提出的算法是一種端到端的識別方法,無需進(jìn)行車牌校正、字符分割等處理,給車牌識別提供了另一種思路。實(shí)驗(yàn)結(jié)果表明,車牌整體識別正確率為76%,車牌后六位字符的識別正確率為91%。
【關(guān)鍵詞】:深度學(xué)習(xí) CNN RNN CRNN 敏感圖像識別 車牌識別
【學(xué)位授予單位】:北京工業(yè)大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP391.41
【目錄】:
  • 摘要4-6
  • Abstract6-10
  • 第1章 緒論10-14
  • 1.1 研究背景和研究意義10-11
  • 1.2 深度學(xué)習(xí)研究進(jìn)展11-12
  • 1.3 論文的主要內(nèi)容12-13
  • 1.4 論文的結(jié)構(gòu)安排13-14
  • 第2章 圖像識別技術(shù)研究進(jìn)展14-22
  • 2.1 圖像識別基本框架14-15
  • 2.2 特征提取與表達(dá)15-17
  • 2.3 分類器17-18
  • 2.4 敏感圖像識別研究進(jìn)展18-19
  • 2.5 車牌識別研究進(jìn)展19-22
  • 第3章 深度學(xué)習(xí)研究22-42
  • 3.1 傳統(tǒng)前饋神經(jīng)網(wǎng)絡(luò)22-26
  • 3.1.1 神經(jīng)元結(jié)構(gòu)22-23
  • 3.1.2 前饋神經(jīng)網(wǎng)絡(luò)23-25
  • 3.1.3 前饋網(wǎng)絡(luò)的訓(xùn)練25-26
  • 3.2 深度學(xué)習(xí)概念26-27
  • 3.3 深度特征學(xué)習(xí)27-28
  • 3.4 深度學(xué)習(xí)常用模型28-37
  • 3.4.1 深度信念網(wǎng)絡(luò)28-31
  • 3.4.2 卷積神經(jīng)網(wǎng)絡(luò)31-35
  • 3.4.3 循環(huán)神經(jīng)網(wǎng)絡(luò)35-37
  • 3.5 實(shí)驗(yàn)結(jié)果與分析37-40
  • 3.6 本章小結(jié)40-42
  • 第4章 基于CNN的敏感圖像識別42-52
  • 4.1 引言42
  • 4.2 基于CNN的敏感圖像識別整體框架42-43
  • 4.3 敏感圖像粗檢43-45
  • 4.3.1 膚色檢測43-44
  • 4.3.2 人臉檢測44-45
  • 4.4 敏感圖像細(xì)檢45-47
  • 4.4.1 CNN網(wǎng)絡(luò)結(jié)構(gòu)和實(shí)現(xiàn)45-47
  • 4.4.2 網(wǎng)絡(luò)訓(xùn)練47
  • 4.5 實(shí)驗(yàn)結(jié)果與分析47-49
  • 4.6 本章小結(jié)49-52
  • 第5章 基于CRNN的車牌識別52-64
  • 5.1 引言52
  • 5.2 基于CRNN的車牌識別整體框架52-53
  • 5.3 車牌定位53-56
  • 5.4 基于CRNN的車牌識別56-61
  • 5.4.1 CRNN網(wǎng)絡(luò)結(jié)構(gòu)56-59
  • 5.4.2 網(wǎng)絡(luò)訓(xùn)練59-60
  • 5.4.3 網(wǎng)絡(luò)實(shí)現(xiàn)60-61
  • 5.5 實(shí)驗(yàn)結(jié)果與分析61-63
  • 5.6 本章小結(jié)63-64
  • 結(jié)論與展望64-66
  • 1. 論文完成的主要工作64-65
  • 2. 下一步工作展望65-66
  • 參考文獻(xiàn)66-72
  • 攻讀碩士學(xué)位期間完成的成果72-74
  • 攻讀碩士學(xué)位期間參加的科研項(xiàng)目74-76
  • 致謝76
,

本文編號:638906

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/638906.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶9726c***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com