天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于卷積神經(jīng)網(wǎng)絡(luò)的犬種識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

發(fā)布時(shí)間:2023-02-12 13:22
  近年來(lái),計(jì)算力與數(shù)據(jù)量的增長(zhǎng)推動(dòng)了深度學(xué)習(xí)算法與模型的飛速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域的基石,在圖像分類、目標(biāo)檢測(cè)、圖像語(yǔ)義分割等細(xì)分領(lǐng)域取得了一系列突破性的研究成果,其強(qiáng)大的特征學(xué)習(xí)能力和分類能力引起了廣泛關(guān)注。一些研究者將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到犬種識(shí)別問(wèn)題上,期望改善傳統(tǒng)犬種識(shí)別方法在成本、技術(shù)難度、準(zhǔn)確度與泛化性方面的不足,但由于訓(xùn)練策略、訓(xùn)練方法與模型選擇等方面仍有缺陷,現(xiàn)有方法的資源消耗與識(shí)別準(zhǔn)確度距離工程應(yīng)用尚有一定距離。論文中結(jié)合了現(xiàn)有的犬種識(shí)別研究,針對(duì)研究中的問(wèn)題進(jìn)行改進(jìn),使用改進(jìn)后的多網(wǎng)絡(luò)融合模型實(shí)現(xiàn)面向各終端用戶的犬種識(shí)別系統(tǒng)。主要工作如下:(1)基于卷積神經(jīng)網(wǎng)絡(luò),設(shè)計(jì)與實(shí)現(xiàn)了對(duì)120種常見(jiàn)犬類的、準(zhǔn)確度不低于80%的、平均響應(yīng)時(shí)間小于1s的犬種識(shí)別系統(tǒng),是較為成熟的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用。與其他使用卷積神經(jīng)網(wǎng)絡(luò)的犬種識(shí)別系統(tǒng)相比,本系統(tǒng)通過(guò)進(jìn)行模型篩選與融合提高了識(shí)別的準(zhǔn)確度,同時(shí)通過(guò)應(yīng)用遷移學(xué)習(xí)等的方法重用已有的模型和通用特征,大幅度降低了實(shí)現(xiàn)算法的時(shí)間成本、數(shù)據(jù)資源開(kāi)銷與硬件資源開(kāi)銷,滿足了工程應(yīng)用的實(shí)際條件;(2)系統(tǒng)的后端負(fù)責(zé)運(yùn)行識(shí)別算法,需要進(jìn)...

【文章頁(yè)數(shù)】:87 頁(yè)

【學(xué)位級(jí)別】:碩士

【文章目錄】:
摘要
Abstract
第一章 緒論
    1.1 研究背景與意義
    1.2 國(guó)內(nèi)外犬種識(shí)別研究現(xiàn)狀
        1.2.1 基于傳統(tǒng)圖像分類方法的犬種識(shí)別研究
        1.2.2 基于卷積神經(jīng)網(wǎng)絡(luò)的犬種識(shí)別研究
    1.3 論文主要工作
        1.3.1 犬種識(shí)別算法設(shè)計(jì)與實(shí)現(xiàn)
        1.3.2 犬種識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
    1.4 論文組織結(jié)構(gòu)
第二章 相關(guān)技術(shù)介紹
    2.1 卷積神經(jīng)網(wǎng)絡(luò)的研究歷史
    2.2 卷積神經(jīng)網(wǎng)絡(luò)的基本網(wǎng)絡(luò)結(jié)構(gòu)
        2.2.1 卷積層
        2.2.2 池化層
        2.2.3 激活層
        2.2.4 全連接層
    2.3 文中使用的卷積神經(jīng)網(wǎng)絡(luò)模型
        2.3.1 AlexNet
        2.3.2 VGGNet
        2.3.3 Inceptionv3
        2.3.4 ResNet
        2.3.5 DenseNet
        2.3.6 SqueezeNet
    2.4 深度學(xué)習(xí)框架
        2.4.1 深度學(xué)習(xí)框架工作原理
        2.4.2 MXNet深度學(xué)習(xí)框架
    2.5 本章小結(jié)
第三章 系統(tǒng)需求與概要設(shè)計(jì)
    3.1 系統(tǒng)需求
    3.2 環(huán)境需求
    3.3 系統(tǒng)架構(gòu)設(shè)計(jì)
        3.3.1 系統(tǒng)架構(gòu)設(shè)計(jì)
        3.3.2 系統(tǒng)的功能模塊劃分
        3.3.3 訓(xùn)練模塊設(shè)計(jì)
        3.3.4 預(yù)測(cè)模塊設(shè)計(jì)
    3.4 本章小結(jié)
第四章 訓(xùn)練模塊的詳細(xì)設(shè)計(jì)與實(shí)現(xiàn)
    4.1 圖像預(yù)處理模塊
        4.1.1 數(shù)據(jù)集選取
        4.1.2 數(shù)據(jù)集組織
        4.1.3 圖像轉(zhuǎn)換
        4.1.4 圖像增廣
        4.1.5 數(shù)據(jù)迭代器
    4.2 神經(jīng)網(wǎng)絡(luò)模型模塊
        4.2.1 模型選擇
        4.2.2 模型實(shí)現(xiàn)
        4.2.3 遷移學(xué)習(xí)
    4.3 模型訓(xùn)練
        4.3.1 損失函數(shù)模塊
        4.3.2 優(yōu)化算法模塊
        4.3.3 模型訓(xùn)練模塊
        4.3.4 準(zhǔn)確度計(jì)算模塊
    4.4 候選模型實(shí)驗(yàn)結(jié)果
        4.4.1 遷移學(xué)習(xí)方法分析
        4.4.2 訓(xùn)練過(guò)程分析
        4.4.3 候選模型準(zhǔn)確度實(shí)驗(yàn)結(jié)果分析
    4.5 多模型融合學(xué)習(xí)
        4.5.1 模型融合方案設(shè)計(jì)
        4.5.2 融合模型實(shí)驗(yàn)結(jié)果分析
    4.6 犬種識(shí)別系統(tǒng)的預(yù)測(cè)模型
    4.7 本章小結(jié)
第五章 預(yù)測(cè)模塊的實(shí)現(xiàn)
    5.1 用戶界面模塊
        5.1.1 響應(yīng)式頁(yè)面
        5.1.2 基于canvas的前端圖片壓縮
        5.1.3 實(shí)現(xiàn)效果圖
    5.2 WEB應(yīng)用模塊
    5.3 圖像預(yù)測(cè)模塊
    5.4 進(jìn)程監(jiān)控模塊
    5.5 基礎(chǔ)后端應(yīng)用的性能
        5.5.1 犬種識(shí)別服務(wù)的性能需求
        5.5.2 基礎(chǔ)后端應(yīng)用的性能
    5.6 基于GPU特性的后端應(yīng)用優(yōu)化方法
        5.6.1 基礎(chǔ)后端應(yīng)用的瓶頸
        5.6.2 GPU利用率分析
        5.6.3 異步非阻塞的后端應(yīng)用方案
        5.6.4 異步非阻塞的后端應(yīng)用實(shí)現(xiàn)
        5.6.5 異步非阻塞的后端應(yīng)用性能分析
    5.7 基于快速失敗特性的后端應(yīng)用優(yōu)化方法
        5.7.1 基于快速失敗特性后端應(yīng)用的實(shí)現(xiàn)
        5.7.2 基于快速失敗特性后端應(yīng)用的實(shí)驗(yàn)結(jié)果
    5.8 本章小結(jié)
第六章 系統(tǒng)測(cè)試
    6.1 測(cè)試環(huán)境
    6.2 測(cè)試用例設(shè)計(jì)
    6.3 系統(tǒng)測(cè)試結(jié)果
    6.4 測(cè)試總結(jié)
    6.5 本章小結(jié)
第七章 總結(jié)與展望
    7.1 總結(jié)
    7.2 展望
致謝
參考文獻(xiàn)



本文編號(hào):3741185

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3741185.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶b737f***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com