基于Faster R-CNN戲曲卡通人物識別的研究
發(fā)布時間:2021-11-27 04:26
戲曲作為中國獨特的舞臺藝術(shù)形式,有著數(shù)百年的歷史。由于文化多元化的發(fā)展,導(dǎo)致傳統(tǒng)戲曲漸漸衰落。近年,制作的戲曲動畫易被人們接受,從而可以通過把戲曲人物卡通化,來吸引人們喜歡并了解戲曲。因此,結(jié)合戲曲卡通人物與目標識別技術(shù),對目標進行分類識別,能夠幫助人們快速認識每個戲曲卡通人物,為這個藝術(shù)門類培養(yǎng)更多的觀眾和演員,這對于戲曲的傳承保護具有重要意義。目前,目標分類識別在諸多方面的研究已經(jīng)取得可喜的成果,但是在戲曲卡通人物的檢測識別上的研究還鮮有人涉及,本文運用基于特征提取網(wǎng)絡(luò)Res Net50的Faster R-CNN算法對戲曲卡通人物進行檢測識別,再融合特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks)并對網(wǎng)絡(luò)進行改進,取得了很好的識別效果。主要研究內(nèi)容如下:(1)數(shù)據(jù)集的制作本文實驗所用數(shù)據(jù)集是從網(wǎng)絡(luò)搜索相關(guān)圖片以及拍攝收藏的戲曲玩偶為基礎(chǔ)進行制作。因為,收集到的圖片數(shù)量有限,運用了數(shù)據(jù)增強技術(shù),對圖片數(shù)量進行擴充;再對每張圖片手工標注。制作了第一個完整的戲曲人物數(shù)據(jù)集。(2)基于Faster R-CNN算法,融合特征金字塔網(wǎng)絡(luò)的戲曲卡通人物識別本文運用基于特征提取網(wǎng)...
【文章來源】:湖南師范大學(xué)湖南省 211工程院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1兩階段檢測算法整體流程
碩士學(xué)位論文8圖2-1流程分析:首先輸入一張圖片,接著經(jīng)過卷積神經(jīng)網(wǎng)絡(luò),通過卷積神經(jīng)網(wǎng)絡(luò)對圖片進行深度特征的提取,這個卷積神經(jīng)網(wǎng)絡(luò)稱為主干網(wǎng)絡(luò),典型的主干網(wǎng)絡(luò)有VGGNet,ResNet,Zenet等。接著,通過區(qū)域生成網(wǎng)絡(luò)(RPN)產(chǎn)生候選區(qū)域,同時會完成區(qū)域的分類,即將圖片分為背景和目標這樣兩種不同的類別,也會對目標位置進行初步的預(yù)測。然后對候選區(qū)域中的位置框進行調(diào)整,使用RoI_pooling層,通俗講此層為“摳圖”的意思,通過RoI_pooling層可以避免重復(fù)計算CNN特征。再將摳圖所得到的候選區(qū)域目標映射到特征圖上相應(yīng)區(qū)域,經(jīng)過全連接層,來得到特征向量,最后通過分類和回歸實現(xiàn)對候選目標類別的判定和目標位置的確定[41]。目前,應(yīng)用較多的兩階段檢測識別算法為FasterR-CNN。先產(chǎn)生目標候選框,再對候選框進行分類。R-CNN族算法的發(fā)展進步,使目標檢測識別的流程越來越簡練,精度越來越高,速度也有了很大的提升。2.2R-CNN族2.2.1R-CNNR-CNN的出現(xiàn),擴大了深度學(xué)習(xí)的應(yīng)用領(lǐng)域。它使用了CNN較好的特征提取和分類性能,通過候選區(qū)域選擇來實現(xiàn)問題的轉(zhuǎn)化。R-CNN生成proposals采用的是SelectiveSearch,主要通過顏色、邊緣等從下至上對圖像進行分割。再對分割區(qū)域進行不同尺度的合并,每生成一個區(qū)域即為候選區(qū)域[42],該算法工作原理如圖2-2所示:圖2-2R-CNN算法結(jié)構(gòu)圖(1)輸入圖像:輸入待檢測的圖像,送入網(wǎng)絡(luò);
碩士學(xué)位論文10段訓(xùn)練的,過程極其耗費時間和空間。FastR-CNN整合了深度網(wǎng)絡(luò),支持向量機(SVM)分類。實驗證明:在PascalVOC數(shù)據(jù)集上,F(xiàn)astR-CNN的訓(xùn)練時間較R-CNN縮短了8/9。網(wǎng)絡(luò)結(jié)構(gòu)如圖2-3所示:圖2-3FastR-CNN原理結(jié)構(gòu)圖從圖2-3分析得知,F(xiàn)astR-CNN的輸入由兩部分組成:①等待處理的圖像;②候選區(qū)域(regionproposal)。在處理時,首先卷積核池化獲取特征圖。因為會有多個候選區(qū)域,這時系統(tǒng)會有一個甄別,即判斷RoI。RoI池化層可以提取到特征向量,每一個特征向量,都會被輸送到全連接層的序列當中,全連接層有兩個輸出層。其中一層用來分類,輸出的是每個RoI的概率分布,產(chǎn)生幾個對象類概率估計;另一層產(chǎn)生每個對象類坐標信息。在圖像分類研究中,卷積層計算比較費時。但是對于檢測識別來說,運用selectivesearch算法來提取,會出現(xiàn)比較多的候選框,在前向計算中,全連接層計算則比較費時。采用SVD對全連接層進行分解,加速計算,SVD實現(xiàn)如圖2-4:圖2-4SVD分解加速實現(xiàn)以往實驗表明:SVD分解全連接層的方法確實可以提升速度。此外,F(xiàn)astR-CNN對圖片采用中心化采樣:先采樣,然后在得到的采樣圖像上再對候選區(qū)域
本文編號:3521550
【文章來源】:湖南師范大學(xué)湖南省 211工程院校
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1兩階段檢測算法整體流程
碩士學(xué)位論文8圖2-1流程分析:首先輸入一張圖片,接著經(jīng)過卷積神經(jīng)網(wǎng)絡(luò),通過卷積神經(jīng)網(wǎng)絡(luò)對圖片進行深度特征的提取,這個卷積神經(jīng)網(wǎng)絡(luò)稱為主干網(wǎng)絡(luò),典型的主干網(wǎng)絡(luò)有VGGNet,ResNet,Zenet等。接著,通過區(qū)域生成網(wǎng)絡(luò)(RPN)產(chǎn)生候選區(qū)域,同時會完成區(qū)域的分類,即將圖片分為背景和目標這樣兩種不同的類別,也會對目標位置進行初步的預(yù)測。然后對候選區(qū)域中的位置框進行調(diào)整,使用RoI_pooling層,通俗講此層為“摳圖”的意思,通過RoI_pooling層可以避免重復(fù)計算CNN特征。再將摳圖所得到的候選區(qū)域目標映射到特征圖上相應(yīng)區(qū)域,經(jīng)過全連接層,來得到特征向量,最后通過分類和回歸實現(xiàn)對候選目標類別的判定和目標位置的確定[41]。目前,應(yīng)用較多的兩階段檢測識別算法為FasterR-CNN。先產(chǎn)生目標候選框,再對候選框進行分類。R-CNN族算法的發(fā)展進步,使目標檢測識別的流程越來越簡練,精度越來越高,速度也有了很大的提升。2.2R-CNN族2.2.1R-CNNR-CNN的出現(xiàn),擴大了深度學(xué)習(xí)的應(yīng)用領(lǐng)域。它使用了CNN較好的特征提取和分類性能,通過候選區(qū)域選擇來實現(xiàn)問題的轉(zhuǎn)化。R-CNN生成proposals采用的是SelectiveSearch,主要通過顏色、邊緣等從下至上對圖像進行分割。再對分割區(qū)域進行不同尺度的合并,每生成一個區(qū)域即為候選區(qū)域[42],該算法工作原理如圖2-2所示:圖2-2R-CNN算法結(jié)構(gòu)圖(1)輸入圖像:輸入待檢測的圖像,送入網(wǎng)絡(luò);
碩士學(xué)位論文10段訓(xùn)練的,過程極其耗費時間和空間。FastR-CNN整合了深度網(wǎng)絡(luò),支持向量機(SVM)分類。實驗證明:在PascalVOC數(shù)據(jù)集上,F(xiàn)astR-CNN的訓(xùn)練時間較R-CNN縮短了8/9。網(wǎng)絡(luò)結(jié)構(gòu)如圖2-3所示:圖2-3FastR-CNN原理結(jié)構(gòu)圖從圖2-3分析得知,F(xiàn)astR-CNN的輸入由兩部分組成:①等待處理的圖像;②候選區(qū)域(regionproposal)。在處理時,首先卷積核池化獲取特征圖。因為會有多個候選區(qū)域,這時系統(tǒng)會有一個甄別,即判斷RoI。RoI池化層可以提取到特征向量,每一個特征向量,都會被輸送到全連接層的序列當中,全連接層有兩個輸出層。其中一層用來分類,輸出的是每個RoI的概率分布,產(chǎn)生幾個對象類概率估計;另一層產(chǎn)生每個對象類坐標信息。在圖像分類研究中,卷積層計算比較費時。但是對于檢測識別來說,運用selectivesearch算法來提取,會出現(xiàn)比較多的候選框,在前向計算中,全連接層計算則比較費時。采用SVD對全連接層進行分解,加速計算,SVD實現(xiàn)如圖2-4:圖2-4SVD分解加速實現(xiàn)以往實驗表明:SVD分解全連接層的方法確實可以提升速度。此外,F(xiàn)astR-CNN對圖片采用中心化采樣:先采樣,然后在得到的采樣圖像上再對候選區(qū)域
本文編號:3521550
本文鏈接:http://sikaile.net/wenyilunwen/huanjingshejilunwen/3521550.html
最近更新
教材專著