天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 法律論文 > 治安法論文 >

基于改進卷積神經(jīng)網(wǎng)絡(luò)的毛發(fā)顯微圖像自動分類

發(fā)布時間:2021-04-08 02:20
  利用卷積神經(jīng)網(wǎng)絡(luò)對毛發(fā)物證顯微圖像進行自動分類,為進一步提高顯微檢驗技術(shù)的自動化程度和毛發(fā)物證檢驗提供技術(shù)參考。采用徠卡DVM6數(shù)碼顯微鏡在1400倍放大條件下采集6類毛發(fā)共60000張樣本圖像,構(gòu)建毛發(fā)分類數(shù)據(jù)集;诰矸e神經(jīng)網(wǎng)絡(luò)搭建Hair-Net模型,通過該模型對毛發(fā)分類數(shù)據(jù)集進行樣本訓(xùn)練和測試驗證。實驗研究表明,經(jīng)過參數(shù)調(diào)試和優(yōu)化手段的改進后,新的Hair-Net分類精度最高可達97.82%,成功實現(xiàn)了毛發(fā)物證顯微圖像的自動分類,增強了穩(wěn)健性。 

【文章來源】:激光與光電子學(xué)進展. 2019,56(23)北大核心CSCD

【文章頁數(shù)】:8 頁

【部分圖文】:

基于改進卷積神經(jīng)網(wǎng)絡(luò)的毛發(fā)顯微圖像自動分類


卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)

實驗圖,樣本,數(shù)據(jù)集,示例


使用Matlab對所有樣本數(shù)據(jù)圖像進行定點切割,利用坐標(biāo)代碼確定切割起始點,以固定區(qū)域大小截取樣本圖像中的毛發(fā)特征區(qū)域,去除與毛發(fā)內(nèi)容無關(guān)的背景部分,防止丟失部分毛發(fā)特征,排除背景干擾。切割時注意保持所有毛發(fā)圖像的長寬比相同。為方便實驗操作及樣本訓(xùn)練需對實驗圖像進行順序命名,并利用雙線性插值法對樣本數(shù)據(jù)進行幾何縮放,根據(jù)不同神經(jīng)網(wǎng)絡(luò)要求對圖像尺寸的大小進行處理。給每一類樣本數(shù)據(jù)生成類別標(biāo)簽,并隨機抽取每類實驗圖像的80%作為訓(xùn)練集進行網(wǎng)絡(luò)學(xué)習(xí),剩余的20%作為驗證集來考察網(wǎng)絡(luò)性能。樣本數(shù)據(jù)集轉(zhuǎn)換為具有較高讀寫速度的LMDB格式文件。預(yù)處理后的部分樣本數(shù)據(jù)集圖像示例如圖2所示。3.4 實驗環(huán)境配置

結(jié)構(gòu)設(shè)計圖,結(jié)構(gòu)設(shè)計,毛發(fā),卷積


針對建立的毛發(fā)顯微圖像數(shù)據(jù)集,提出一種新的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Hair-Net,具體網(wǎng)絡(luò)配置如圖3和表2所示。第一卷積層采用9×9的卷積核,便于提取細節(jié)特征,再使用兩層3×3卷積核增加網(wǎng)絡(luò)深度,在不增添計算量的同時保證網(wǎng)絡(luò)訓(xùn)練速度,模型在每層卷積后連上ReLU激活函數(shù);由于毛發(fā)顯微圖像的分類需要依靠毛發(fā)細節(jié)紋理形狀,因此池化層全部采用最大池化,利于訓(xùn)練過程中對毛發(fā)特征的提取,將第二個全連接層(FC)的節(jié)點數(shù)設(shè)置為1024,能控制網(wǎng)絡(luò)寬度,可一定程度地提升性能;最后運用解決多分類問題的Softmax回歸函數(shù),結(jié)合Center-loss中心損失度量學(xué)習(xí)[26]作為輔助損失函數(shù)[27]得到分類值結(jié)果,將Center-loss的權(quán)重系數(shù)λ設(shè)為0.001。3.6 實驗算法流程設(shè)計

【參考文獻】:
期刊論文
[1]基于改進視覺背景提取算法的運動目標(biāo)檢測方法[J]. 王旭,劉毅,李國燕.  激光與光電子學(xué)進展. 2019(01)
[2]中心損失與Softmax損失聯(lián)合監(jiān)督下的人臉識別[J]. 余成波,田桐,熊遞恩,許琳英.  重慶大學(xué)學(xué)報. 2018(05)
[3]基于融合卷積神經(jīng)網(wǎng)絡(luò)模型的手寫數(shù)字識別[J]. 陳玄,朱榮,王中元.  計算機工程. 2017(11)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的車牌字符識別[J]. 董峻妃,鄭伯川,楊澤靜.  計算機應(yīng)用. 2017(07)
[5]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍.  計算機學(xué)報. 2017(06)
[6]改進的基于卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率算法[J]. 肖進勝,劉恩雨,朱力,雷俊鋒.  光學(xué)學(xué)報. 2017(03)
[7]基于卷積神經(jīng)網(wǎng)絡(luò)的軍事圖像分類[J]. 高惠琳.  計算機應(yīng)用研究. 2017(11)
[8]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 李彥冬,郝宗波,雷航.  計算機應(yīng)用. 2016(09)
[9]毛發(fā)槍彈損傷的環(huán)境掃描電鏡研究[J]. 鄒友,權(quán)養(yǎng)科,朱永春,鄭明,劉貴明,甘斌,王攀,唐敏,陶克明.  中國法醫(yī)學(xué)雜志. 2006(06)
[10]毛發(fā)常見機械性損傷形態(tài)的環(huán)境掃描電鏡研究[J]. 鄒友,陶克明,李立新,朱永春,劉貴明,甘斌,郭洪玲,王攀,孫廣勝,唐敏.  刑事技術(shù). 2006(01)

碩士論文
[1]基于三維卷積神經(jīng)網(wǎng)絡(luò)步態(tài)識別方法的研究[D]. 李影.北京交通大學(xué) 2018
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識別[D]. 蔣帥.吉林大學(xué) 2017
[3]基于改進神經(jīng)網(wǎng)絡(luò)的離線簽名筆跡識別[D]. 梁曦璐.中國政法大學(xué) 2017



本文編號:3124656

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/falvlunwen/fanzuizhian/3124656.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶73976***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com