天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 路橋論文 >

基于深度學(xué)習(xí)的超分辨率圖像重建與車型識(shí)別研究

發(fā)布時(shí)間:2021-01-10 13:51
  為了應(yīng)對(duì)日益嚴(yán)重的交通問題,人們?cè)噲D通過智能交通系統(tǒng)進(jìn)行改善。而深度學(xué)習(xí)技術(shù)的快速發(fā)展為智能交通領(lǐng)域相關(guān)問題提供了一種新的解決方案。本文從深度學(xué)習(xí)相關(guān)技術(shù)入手,展開了智能交通系統(tǒng)中的圖像的重建與車型識(shí)別的相關(guān)研究。本文首先深入研究了卷積神經(jīng)網(wǎng)絡(luò)、深度殘差網(wǎng)絡(luò)和幾種典型的卷積神經(jīng)網(wǎng)絡(luò)模型,分析了已有算法在重建效果、速度和識(shí)別率上的不足,在此基礎(chǔ)上進(jìn)行改進(jìn),提出了基于拉普拉斯結(jié)構(gòu)的圖像超分辨率重建與基于改進(jìn)的寬殘差網(wǎng)絡(luò)的車型識(shí)別方法。基于拉普拉斯結(jié)構(gòu)的重建模型(LapSRN)通過級(jí)聯(lián)結(jié)構(gòu),逐步優(yōu)化的方式進(jìn)行重建。但其在每一層都是使用相同卷積函數(shù),在上采樣過程難免會(huì)丟失部分信息。針對(duì)該問題 本文引入多通道映射提取更加豐富的特征,并用卷積級(jí)聯(lián),共享權(quán)重的方式對(duì)圖像進(jìn)行超分辨率重建。同時(shí),為了優(yōu)化整個(gè)網(wǎng)絡(luò),本文選擇MSRA初始化方法對(duì)網(wǎng)絡(luò)權(quán)值進(jìn)行初始化,以便加快模型收斂。并采用新的訓(xùn)練策略與激活函數(shù)PReLU,大大縮短訓(xùn)練時(shí)間,增強(qiáng)系統(tǒng)穩(wěn)定性。實(shí)驗(yàn)證明改進(jìn)的模型可以更好的重建出圖像的紋理和細(xì)節(jié)。為了滿足實(shí)際場(chǎng)景下對(duì)車型識(shí)別的需求,本文提出了一種改進(jìn)的寬殘差結(jié)構(gòu)網(wǎng)絡(luò)模型。此網(wǎng)絡(luò)對(duì)其結(jié)構(gòu)進(jìn)行加寬改進(jìn)... 

【文章來源】:山西師范大學(xué)山西省

【文章頁數(shù)】:67 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的超分辨率圖像重建與車型識(shí)別研究


-3n;第2層

通道,卷積核,像素點(diǎn)


基于拉普拉斯結(jié)構(gòu)的圖像超分辨率重建31(2)多通道訓(xùn)練分支GoogleNet映射部分。每個(gè)通道都部多通道擴(kuò)展了非線性的啟發(fā),該模型利用局受的通道,從上到下,該模型包含四個(gè)不同構(gòu)的卷積核。具體來說有不同的級(jí)別和不同結(jié)依次為:conv1_4,由一層尺寸為33的卷積核組成;conv2_4,由兩層尺寸均為33的卷積核組成;conv3_4,由一層尺寸為15的卷積核組成;conv4_4,由一層尺寸為51的卷積核組成。然后,線性映射部分的粘貼在一起作為整個(gè)非將四個(gè)通道的卷積結(jié)果輸出和高分辨率圖像重構(gòu)部分的輸入。4條不同的通道,可以提取不同的特征。conv1_4和conv2_4通道相比:conv1_4有一層,每個(gè)像素點(diǎn)是conv3中33于提取局部特征個(gè)像素點(diǎn)的映射,偏向;conv2_4有兩層,每個(gè)像素點(diǎn)是conv3中55個(gè)像素點(diǎn)的映射,使得提取的特征相對(duì)更全面。conv1_4、conv3_4和conv4_4通道比較發(fā)現(xiàn):3條通道都是一層,但是,conv1_4是33,conv3_4是15,conv4_4是51,不同的卷積核大小提取不同的特征映射。conv1_4提取局部細(xì)節(jié),conv3_4主要提取縱向紋理細(xì)節(jié),conv4_4主要提取水平紋理細(xì)節(jié),如圖3-5所示。圖3-5不同通道非線性映射部分輸出womanSet165個(gè)輸出特征圖的每通道的圖作為輸入,并對(duì)每條數(shù)據(jù)集中的選擇性的邊緣特征圖,一個(gè)選擇具有更高激活進(jìn)行對(duì)比度增強(qiáng)后作為上圖的子圖。根據(jù)觀察

【參考文獻(xiàn)】:
期刊論文
[1]基于雙通道卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率增強(qiáng)算法[J]. 賈凱,段新濤,李寶霞,郭玳豆.  計(jì)算機(jī)應(yīng)用. 2018(12)
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的車型識(shí)別方法研究[J]. 紀(jì)野,李玉惠,王蒙.  傳感器與微系統(tǒng). 2017(11)
[3]基于深度神經(jīng)網(wǎng)絡(luò)的汽車車型識(shí)別[J]. 王茜,張海仙.  現(xiàn)代計(jì)算機(jī)(專業(yè)版). 2015(35)
[4]基于深度卷積神經(jīng)網(wǎng)絡(luò)的車型識(shí)別研究[J]. 鄧柳,汪子杰.  計(jì)算機(jī)應(yīng)用研究. 2016(03)
[5]城市智能交通系統(tǒng)技術(shù)發(fā)展現(xiàn)狀及趨勢(shì)[J]. 劉小明,何忠賀.  自動(dòng)化博覽. 2015(01)
[6]基于誤差橢圓的車型識(shí)別算法[J]. 萬文利,胡加佩,劉學(xué)軍.  計(jì)算機(jī)工程. 2012(05)
[7]RFID車型識(shí)別及信息處理在汽車生產(chǎn)中的應(yīng)用[J]. 劉軍,薛明,李桂麗.  制造業(yè)自動(dòng)化. 2006(12)

碩士論文
[1]基于深度學(xué)習(xí)的車型識(shí)別算法研究[D]. 劉輝.青島理工大學(xué) 2018
[2]基于深度學(xué)習(xí)的圖像超分辨率重建算法研究[D]. 崔盼盼.山東科技大學(xué) 2017
[3]奇異值分解和主成分分析在車型識(shí)別中的應(yīng)用[D]. 牟雪嬌.上海交通大學(xué) 2008



本文編號(hào):2968820

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/2968820.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶1900e***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com