天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

自然街景下的文本目標(biāo)檢測(cè)和識(shí)別方法研究

發(fā)布時(shí)間:2020-12-03 12:43
  處于自然街景下的人獲取信息的方式,在于其五種自然感官和先天條件下的自身感知。其中,視覺(jué)對(duì)于自然街景中的信息處理尤為關(guān)鍵,而在視力所及的眾多信息中,最為直觀且最易被理解的要數(shù)文本信息。科技的進(jìn)步,促使文本目標(biāo)檢測(cè)和識(shí)別技術(shù)越來(lái)越發(fā)達(dá)。本文以自然街景為研究背景,開(kāi)展復(fù)雜場(chǎng)景下文本目標(biāo)檢測(cè)和識(shí)別研究。分析了分段式的傳統(tǒng)文本檢測(cè)識(shí)別方法。針對(duì)現(xiàn)有技術(shù)用于小文本目標(biāo)檢測(cè)和識(shí)別時(shí)的不足,提出自然街景下的小文本目標(biāo)優(yōu)化方法。針對(duì)小文本標(biāo)注數(shù)據(jù)較少、手動(dòng)標(biāo)記工作量大、效率低的問(wèn)題,提出了一種半監(jiān)督的學(xué)習(xí)算法。主要研究工作如下:1)研究了自然街景下的小文本目標(biāo)優(yōu)化方法。構(gòu)建用于小文本目標(biāo)檢測(cè)和識(shí)別的三級(jí)訓(xùn)練數(shù)據(jù)集,并設(shè)計(jì)了一種由易到難的強(qiáng)化訓(xùn)練模型。提出了一種文本目標(biāo)圖像DCT系數(shù)合成法,用以合成前兩級(jí)訓(xùn)練數(shù)據(jù)集。針對(duì)現(xiàn)有技術(shù)在處理小目標(biāo)文本時(shí)的不足,提出基于分辨率補(bǔ)償?shù)男∥谋灸繕?biāo)優(yōu)化方法,并通過(guò)實(shí)驗(yàn)驗(yàn)證了優(yōu)化方法的有效性。2)提出一種半監(jiān)督的文本目標(biāo)檢測(cè)和識(shí)別算法。算法采用文本目標(biāo)檢測(cè)網(wǎng)絡(luò)與識(shí)別網(wǎng)絡(luò)并聯(lián)的架構(gòu),并通過(guò)預(yù)處理與特征提取環(huán)節(jié)共用,確保文本目標(biāo)的檢測(cè)和識(shí)別可以共享特征:從而使得文本目標(biāo)識(shí)別的... 

【文章來(lái)源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校

【文章頁(yè)數(shù)】:79 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

自然街景下的文本目標(biāo)檢測(cè)和識(shí)別方法研究


圖1-2文本目標(biāo)檢測(cè)和識(shí)別技術(shù)的應(yīng)用場(chǎng)景??

文本,目標(biāo)檢測(cè)


紋理滑動(dòng)窗的檢測(cè)方法[13—15]??和基于連通域的檢測(cè)方法[16#。近幾年中,深度學(xué)習(xí)技術(shù)芷如雨后春輿般茁壯成??長(zhǎng),基于此項(xiàng)技術(shù)的文本目標(biāo)檢測(cè)算法[2()]也在不斷改進(jìn)更新。其中,較為先進(jìn)的??方法包括[21-23]?:?Proposal-based?(基于候選框)的文本貝標(biāo)檢測(cè)方法、??Segmentation-based?(暴于.分割)的文本_標(biāo)檢測(cè)方法、.Hybrid-based【難于"商者混??合)的文本目標(biāo)檢測(cè)方法和其它的文本目標(biāo)檢測(cè)方法。??基于候選框的文本目標(biāo)檢測(cè)如圖1-3所示是基于深度學(xué)習(xí)物體識(shí)別中,最為常??見(jiàn)的方法之一。其中,最經(jīng)典的文本目標(biāo)檢測(cè)網(wǎng)絡(luò)是:基于Faster?RCNN、基于??SSD和基于RFCN的文本目標(biāo)檢測(cè)網(wǎng)絡(luò)[2?6]。??l?At?^??1、輸入待測(cè)圖片?2、生成彳吳選X本框?3、特征提取?4、特征分類(lèi)??圖1-3碁于候選框的文本肩標(biāo)檢測(cè)??對(duì)乎一張輸入的待檢測(cè)圖像,先是利用若寧個(gè)anchor?(錨點(diǎn))以選擇性搜索??的方式產(chǎn)生大量的候選窗G,再經(jīng)過(guò)一個(gè)卷積神經(jīng)網(wǎng)絡(luò)將候選窗U中的卷積特征??提取出來(lái),特征在通過(guò)支持向量機(jī)分類(lèi)器之后會(huì)得到一個(gè)對(duì)應(yīng)窗H的分?jǐn)?shù),將分??類(lèi)準(zhǔn)確率低的區(qū)塊舍去就能夠獲取較好的檢測(cè)結(jié)果。??Ren等提出的Faster?RCNN文本目標(biāo)檢測(cè)網(wǎng)絡(luò)依賴的是區(qū)域建議算法。論文??中提出的方法引入了區(qū)域提議網(wǎng)絡(luò),該網(wǎng)絡(luò)與目標(biāo)檢測(cè)網(wǎng)絡(luò)共享了整個(gè)圖像的卷??積特性,由此可以得到區(qū)域建議候選框。接著,利用分類(lèi)層將候選框中是文本的??5??

網(wǎng)絡(luò)結(jié)構(gòu)圖,卷積,文本,網(wǎng)絡(luò)結(jié)構(gòu)


?電子科技大學(xué)碩士學(xué)位誘文???該方法使用初始宇符提取和識(shí)別結(jié)果來(lái)估計(jì)布局,之后再執(zhí)行字符提取和識(shí)別操??作。該方法的優(yōu)越性就體現(xiàn)在:通過(guò)增加可靠的估計(jì)來(lái)增加字符識(shí)別精度,從而??提痛'單詞識(shí)別性能。??在這一節(jié)中,我們主要介紹的文本目標(biāo)識(shí)別模型有:CRNN加CTC文本目標(biāo)??識(shí)別網(wǎng)絡(luò)和RARE文本目標(biāo)識(shí)別網(wǎng)絡(luò)。??CRNN?加?CTC?(Connectionist?Temporal?Classification)文本貝標(biāo)識(shí)另�。菥W(wǎng)絡(luò)(如??圖1-5所示)由Shi等【_提出,網(wǎng)絡(luò)結(jié)構(gòu)可分為卷積網(wǎng)絡(luò)層、循環(huán)網(wǎng)絡(luò)層和CTC??,層.。??"Everything?is?going?to?be?alright"?輸出文本??二…一?Everything?i?s?(?o?i?n?|?to?b?e?alright?CTC?層??循環(huán)網(wǎng)絡(luò)層??????????卜:》I?細(xì)網(wǎng)絡(luò)層??L.??? ̄ ̄I??圖1-5?CRNN加CTC文本巨標(biāo)識(shí)別??在CRNN加CTC網(wǎng)絡(luò)結(jié)構(gòu)中,卷積網(wǎng)絡(luò)層采用的CNN網(wǎng)絡(luò)屬于暈基本的卷??積層構(gòu)造。假設(shè)我們將一個(gè)高度為32、寬度為W、通道數(shù)為3的圖像作為原始圖??像輸入,那么在經(jīng)過(guò)卷積網(wǎng)絡(luò)層之后,我們便會(huì)得到一個(gè)(1,妒/4,512)的卷積特??征矩陣。循環(huán)網(wǎng)絡(luò)層再將(1,妒/4,512)的卷積特征矩陣作為輸入,并將該卷積特??征矩陣中的文字序列特征提取出來(lái)。CTC層為了處理訓(xùn)練時(shí)字符無(wú)法對(duì)齊的問(wèn)題,??采取了不需要對(duì)齊的損失函數(shù)計(jì)算方法。CRNN加CTC文字識(shí)別總體來(lái)說(shuō)是一個(gè)??端到端的圖片文字識(shí)別算法,也是在文字識(shí)別過(guò)程中最常用到的一種網(wǎng)絡(luò)模型結(jié)??構(gòu)。??RARE?(Ro

【參考文獻(xiàn)】:
期刊論文
[1]智慧校園的綜合安防系統(tǒng)設(shè)計(jì)[J]. 陶英.  智能建筑與智慧城市. 2018(05)
[2]基于色彩空間的最大穩(wěn)定極值區(qū)域的自然場(chǎng)景文本檢測(cè)[J]. 范一華,鄧德祥,顏佳.  計(jì)算機(jī)應(yīng)用. 2018(01)
[3]基于連通分量特征的文本檢測(cè)與分割[J]. 蔣人杰,戚飛虎,徐立,吳國(guó)榮.  中國(guó)圖象圖形學(xué)報(bào). 2006(11)
[4]基于多幀圖像的視頻文字跟蹤和分割算法[J]. 密聰杰,劉洋,薛向陽(yáng).  計(jì)算機(jī)研究與發(fā)展. 2006(09)
[5]信息高速公路與計(jì)算機(jī)技術(shù)[J]. 王惠通,李經(jīng)緯.  電子科技導(dǎo)報(bào). 1994(04)

博士論文
[1]多智能體深度強(qiáng)化學(xué)習(xí)方法及應(yīng)用研究[D]. 張悅.西安電子科技大學(xué) 2018
[2]基于圖的半監(jiān)督學(xué)習(xí)及其應(yīng)用研究[D]. 潘俊.浙江大學(xué) 2011
[3]半監(jiān)督學(xué)習(xí)及其應(yīng)用研究[D]. 孔怡青.江南大學(xué) 2009

碩士論文
[1]基于深度學(xué)習(xí)的文本檢測(cè)識(shí)別算法研究及應(yīng)用[D]. 岑冠東.廣東工業(yè)大學(xué) 2019
[2]基于深度學(xué)習(xí)的自然場(chǎng)景中文本檢測(cè)方法研究[D]. 王大千.延邊大學(xué) 2019
[3]基于機(jī)器學(xué)習(xí)的目標(biāo)識(shí)別方法研究[D]. 常鑲石.沈陽(yáng)理工大學(xué) 2019
[4]基于OCR技術(shù)的通用證件識(shí)別系統(tǒng)[D]. 常參參.南昌大學(xué) 2018
[5]基于Tesseract_OCR的駕駛證識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D]. 李亮.電子科技大學(xué) 2018
[6]基于強(qiáng)化學(xué)習(xí)的特征選擇算法研究[D]. 趙凱旋.重慶交通大學(xué) 2018
[7]支票掃描圖像中的字符識(shí)別算法及實(shí)現(xiàn)[D]. 張瑜.哈爾濱工業(yè)大學(xué) 2016
[8]基于改進(jìn)HOG特征的行人檢測(cè)算法研究[D]. 賈楚.燕山大學(xué) 2016
[9]基于OCR快遞單據(jù)識(shí)別的研究與實(shí)現(xiàn)[D]. 胡提坤.內(nèi)蒙古大學(xué) 2014



本文編號(hào):2896345

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2896345.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶d405f***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com