天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于深度學習的圖像語義分割技術研究與實現(xiàn)

發(fā)布時間:2021-10-16 18:33
  全卷積神經(jīng)網(wǎng)絡是在卷積神經(jīng)網(wǎng)絡的基礎上將最后的全連接層換成同維度的1*1的卷積層,再輔以反卷積和上采樣層構成的。通過全卷積神經(jīng)網(wǎng)絡可以完成圖像的語義分割。圖像的語義分割是指從視覺層出發(fā)通過一定的手段將圖像的對象層提取出來,通過對視覺層和對象層的綜合,得到圖像的概念層信息。即圖像的語義信息。課題系統(tǒng)研究了卷積神經(jīng)網(wǎng)絡的基本理論,對圖像語義分割的概念進行了介紹,進而引出了全卷積神經(jīng)網(wǎng)絡,之后以全卷積神經(jīng)網(wǎng)絡FCN為研究對象,對全卷積神經(jīng)網(wǎng)絡從結構到訓練進行了系統(tǒng)探究。全卷積神經(jīng)網(wǎng)絡的訓練需要借助深度學習技術,而深度學習實踐中深度學習框架是至關重要的,課題選擇谷歌開源的深度學習框架caffe作為平臺,VOC2012為數(shù)據(jù)集,對FCN進行了訓練,訓練得到的模型MIOU值達到了59.65%。為了使訓練對特定的場景更有針對性,在voc2012數(shù)據(jù)集的基礎上加入了自制數(shù)據(jù)集,對FCN進行了二次訓練,經(jīng)過訓練,針對特定場景的MIOU值達到了62%。此外,還對FCN的衍生版U-net和SegNet進行了介紹,詳細介紹了U-net和SegNet的結構。U-net主要針對小樣本量的深度學習任務,SegNet... 

【文章來源】:河北科技大學河北省

【文章頁數(shù)】:69 頁

【學位級別】:碩士

【部分圖文】:

基于深度學習的圖像語義分割技術研究與實現(xiàn)


人工智能、機器學習、深度學習的關系圖

示意圖,感知器,示意圖,神經(jīng)網(wǎng)絡


9論是線性可分的算法還是非線性可分的算法,其能表達的特征總是簡單的、單一的。深度學習的靈感來源于人類的神經(jīng)系統(tǒng),人類利用已有的先驗知識和深層神經(jīng)元表達出來的物體特征來對周圍環(huán)境和目標物體進行識別判斷。深度學習模擬人腦的工作過程,建立深層神經(jīng)網(wǎng)絡來表達物體的更高維的特征。通過大量的數(shù)據(jù)長時間的訓練,使深層神經(jīng)網(wǎng)絡收斂,從而能夠智能地處理特定地任務。2.2人工神經(jīng)網(wǎng)絡的基本思想神經(jīng)網(wǎng)絡從產(chǎn)生伊始,就充滿著傳奇的色彩。從生物學的角度來說,對神經(jīng)網(wǎng)絡的概念并不陌生,但是在實際的工業(yè)生產(chǎn)和科學研究領域,神經(jīng)網(wǎng)絡就有些傳奇了。在生產(chǎn)和生活中使用的神經(jīng)網(wǎng)絡稱為人工神經(jīng)網(wǎng)絡,并非所熟知的生物神經(jīng)元,是對生物神經(jīng)元工作原理的高度抽象所產(chǎn)生的人工神經(jīng)元,可以借助電子電路和計算機編程來實現(xiàn)。人工神經(jīng)網(wǎng)絡[13]雖然不具有生物神經(jīng)網(wǎng)絡高度的智能化水平,但是可以針對某些方面有針對性地對其進行訓練,讓其具備相關領域的智能化處理功能。經(jīng)過多年的發(fā)展,產(chǎn)生了一批典型的神經(jīng)網(wǎng)絡,如:卷積神經(jīng)網(wǎng)絡、bp神經(jīng)網(wǎng)絡、RBF神經(jīng)網(wǎng)絡等。2.2.1單層神經(jīng)元結構神經(jīng)元,又稱感知器,是神經(jīng)網(wǎng)絡的基本組成單元。任何復雜的神經(jīng)網(wǎng)絡都是由神經(jīng)元組成的。比較復雜的神經(jīng)網(wǎng)絡一般有多層,每一層由多個神經(jīng)元組成,不同層之間神經(jīng)元的類型可以不同,激活函數(shù)的類型也可以不同。單個神經(jīng)元的結構如圖2-2所示:圖2-2感知器結構示意圖單層感知器的計算公式如式(2-3):a=f(wp+b)(2-3)

結構圖,BP神經(jīng)網(wǎng)絡,結構圖,神經(jīng)元


1211111,11iRRRinpwb===+(2-5)對于多層神經(jīng)網(wǎng)絡而言,層數(shù)以及每層神經(jīng)元數(shù)量的設計至關重要。輸入層和輸出層神經(jīng)元數(shù)量都是由外部問題所決定的。如果有n個外部變量作為輸入,輸入層就有n個神經(jīng)元。同理,如果網(wǎng)絡有m個輸出,輸出層就有m個神經(jīng)元。至于隱層神經(jīng)元的個數(shù),是目前神經(jīng)網(wǎng)絡領域一個非;钴S的研究課題,目前尚無定論。2.3反向傳輸神經(jīng)網(wǎng)絡算法單個神經(jīng)元感知機和多神經(jīng)元單層感知機的訓練,在訓練開始之初,給神經(jīng)網(wǎng)絡的各個參數(shù)賦初值,一般采用隨機生成的數(shù)對其進行賦初值。在訓練的過程中,根據(jù)預測值與實際值的差值不斷地調(diào)整網(wǎng)絡的權值,直到其誤差收斂到一定的范圍之內(nèi)。但是對與多層神經(jīng)網(wǎng)絡而言,由于其有多層,每一層都有自己的權值矩陣,需要利用預測值誤差對每一層的權值矩陣進行調(diào)整,從而使整個神經(jīng)網(wǎng)絡收斂,由此,單層神經(jīng)元的訓練和學習算法已經(jīng)不再適應多層神經(jīng)元的訓練,多層神經(jīng)元的訓練需要使用反向傳播算法[16]。為了更好地理解反向傳播算法,先對前向傳播算法進行說明。神經(jīng)網(wǎng)絡的前向傳播是指從輸入層開始,輸入數(shù)據(jù)向著輸出層不斷向前傳播,神經(jīng)網(wǎng)絡的各層之間都是相連的,每層的任意一個神經(jīng)元都與下一層的全部的神經(jīng)元連接,本層神經(jīng)元對應的權值與輸入數(shù)據(jù)進行加權和計算,結果作為下一層神經(jīng)元的輸入,最后通過一個非線性激活函數(shù),得到的輸出即為本層的輸出。一個簡單的BP神經(jīng)網(wǎng)絡如圖2-3所示。圖2-3簡單BP神經(jīng)網(wǎng)絡結構圖

【參考文獻】:
期刊論文
[1]基于改進卷積神經(jīng)網(wǎng)絡的短時公交客流預測[J]. 陳深進,薛洋.  計算機科學. 2019(05)
[2]基于一維卷積神經(jīng)網(wǎng)絡和Soft-Max分類器的風電機組行星齒輪箱故障檢測[J]. 李東東,王浩,楊帆,鄭小霞,周文磊,鄒勝華.  電機與控制應用. 2018(06)
[3]基于深度學習U-Net模型的石塊圖像分割算法[J]. 徐江川,金國強,朱天奕,余芬芬,郭杰,金一,竺長安.  工業(yè)控制計算機. 2018(04)
[4]結合局部灰度差異的噪聲圖像分割模型[J]. 李鋼,李海芳,尚方信,郭浩.  計算機應用. 2018(03)
[5]基于條件深度卷積生成對抗網(wǎng)絡的圖像識別方法[J]. 唐賢倫,杜一銘,劉雨微,李佳歆,馬藝瑋.  自動化學報. 2018(05)
[6]人工智能發(fā)展應用領域及發(fā)展趨勢探究[J]. 張藝瓊.  數(shù)碼世界. 2018(02)
[7]深度學習中三種常用激活函數(shù)的性能對比研究[J]. 周暢,米紅娟.  北京電子科技學院學報. 2017 (04)
[8]基于卷積神經(jīng)網(wǎng)絡的轎車車型精細識別方法[J]. 陳宏彩,程煜,張常有.  河北科技大學學報. 2017(06)
[9]用深度學習技術解決圖像語義分割問題[J]. 蔣子源.  電子制作. 2017(20)
[10]基于Caffe深度學習框架的車牌數(shù)字字符識別算法研究[J]. 歐先鋒,向燦群,郭龍源,涂兵,吳健輝,張國云.  四川大學學報(自然科學版). 2017(05)

碩士論文
[1]基于深度學習的室內(nèi)點云場景語義理解研究[D]. 李文強.哈爾濱工業(yè)大學 2018
[2]基于深度神經(jīng)網(wǎng)絡的實時多物體檢測[D]. 楊強.哈爾濱工業(yè)大學 2018
[3]基于卷積神經(jīng)網(wǎng)絡的霧霾時空演化預測方法研究[D]. 黃偉政.電子科技大學 2018
[4]基于深度學習的單目圖像深度估計[D]. 李耀宇.哈爾濱理工大學 2017
[5]結合FCN與條件隨機場的道路場景分割模型的研究[D]. 韓浩.武漢理工大學 2017
[6]基于無監(jiān)督學習的EIT圖像重建方法研究[D]. 韓倩.天津工業(yè)大學 2017
[7]圖像模糊復原及質(zhì)量評價算法研究[D]. 尹磊.哈爾濱工業(yè)大學 2015
[8]圖像分割評價方法研究[D]. 劉春燕.西安電子科技大學 2011



本文編號:3440298

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3440298.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權申明:資料由用戶35ef3***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com