基于細目圖像分類對鉗剪痕跡溯源的實驗研究
發(fā)布時間:2021-07-27 01:29
鉗剪痕跡是刑事案件中常見的物證之一,該類痕跡特征能反映作案工具的種類信息和嫌疑人的職業(yè)特點,其溯源結果常作為現(xiàn)場勘查中尋找作案工具、鎖定作案人的線索和依據?辈槿藛T主要利用形態(tài)學和統(tǒng)計學的方法對鉗剪痕跡進行定性和定量分析,總結特征規(guī)律、指導溯源工作。文章針對現(xiàn)場勘查中痕跡物證檢驗鑒別智能化水平較低、人工檢驗主觀性強等問題,引入卷積神經網絡對細目圖像進行分類,實現(xiàn)鉗剪痕跡的自動分析溯源,為鉗剪痕跡物證快速分類與鑒別提供智能化的解決方案。本文利用細目照相的方法,記錄了斷線鉗、線纜鉗、大力鉗等10類常見工具的痕跡形態(tài)特征,并利用當前機器學習中分類性能優(yōu)秀的卷積神經網絡進行實驗研究。具體實驗方法:預選Lenet模型對4類工具的細目圖像進行訓練建模。預實驗中模型迭代60000次,準確率97.78%,表明卷積神經網絡應用于鉗剪痕跡溯源具有可行性。在此基礎上,本文對10類工具的鉗剪痕跡進行溯源,并于實驗中收集處理了四份質量不一的細目圖像集。每份樣本集中,訓練集80 000張,驗證集20 000張,共100 000張,4份樣本集總計400 000張;測試集每份10 000張,4份總計40 000張?zhí)卣?..
【文章來源】:中國人民公安大學北京市
【文章頁數(shù)】:80 頁
【學位級別】:碩士
【部分圖文】:
圖2.3兩種池化方式
中國人民公安大學碩士學位論文-15-無法激活,實際中可能會使部分神經元“壞死”。為緩解該現(xiàn)象,實際網絡訓練通常會設置一個較小的學習率。LeakyReLU是在ReLU函數(shù)的基礎上,緩解了梯度為負數(shù)的神經元“壞死”問題。其函數(shù)式在輸入值大于0時與ReLU函數(shù)相同,在輸入值小于0時,輸出值不再是0,而是一個較小斜率(a)的函數(shù)。函數(shù)式的改動修正了數(shù)據的分布,也挽救了部分負軸上的信息。但LeakyReLU函數(shù)的效果眾說紛紜,部分實驗證明其表現(xiàn)優(yōu)異,而部分實驗中效果不佳,真實情況仍有待實驗進一步探索。2.2.6Dropout在小型數(shù)據集的學習和訓練中,網絡會因過度訓練、模型結構過于復雜等原因,出現(xiàn)訓練模型在在訓練集中擬合較好,但在測試集中擬合差的現(xiàn)象,即過擬合。為預防過擬合現(xiàn)象,CNN通常采用網絡結構正則化的優(yōu)化策略,在全連接層后加入dropout[43],在每層神經元訓練之前省略一定比例(通常為總數(shù)50%)的隱藏層神經元。直到網絡訓練完成前,每次迭代隨機選擇刪除神經元,僅對保留的單元進行更新,按照BP算法對網絡參數(shù)進行學習。如圖2.4所示。圖2.4(a)標準神經網絡和(b)使用dropout的神經網絡傳統(tǒng)神經網絡訓練過程為:
中國人民公安大學碩士學位論文-18-2+)、(1+,2-)、(1-,2+)(1-,2-)、(2-,1-)、(2-,1+)、(2+,1-)、(2+,1+)8種。而這些特征圖像均對應同一類工具,圖2.5為側面形圖像樣本制作的示意圖。圖2.5樣本制作示意圖3鉗剪痕跡溯源的可行性實驗研究10類工具圖像樣本的采集時間周期較長,在正式進行鉗剪痕跡溯源實驗之前,用四類鉗剪工具細目圖像進行預實驗,針對預實驗出現(xiàn)的問題進行分析總結,確保后續(xù)實驗的高效完成。3.1實驗樣本制作3.1.1實驗設備與工具尼康D7200數(shù)碼單反像機,微距鏡頭,翻拍架,白熾燈,A4紙張,鉛絲,橡皮筋,樂高收納盒,大力鉗,斷線鉗,水口鉗,斜嘴鉗,計算機。
本文編號:3304784
【文章來源】:中國人民公安大學北京市
【文章頁數(shù)】:80 頁
【學位級別】:碩士
【部分圖文】:
圖2.3兩種池化方式
中國人民公安大學碩士學位論文-15-無法激活,實際中可能會使部分神經元“壞死”。為緩解該現(xiàn)象,實際網絡訓練通常會設置一個較小的學習率。LeakyReLU是在ReLU函數(shù)的基礎上,緩解了梯度為負數(shù)的神經元“壞死”問題。其函數(shù)式在輸入值大于0時與ReLU函數(shù)相同,在輸入值小于0時,輸出值不再是0,而是一個較小斜率(a)的函數(shù)。函數(shù)式的改動修正了數(shù)據的分布,也挽救了部分負軸上的信息。但LeakyReLU函數(shù)的效果眾說紛紜,部分實驗證明其表現(xiàn)優(yōu)異,而部分實驗中效果不佳,真實情況仍有待實驗進一步探索。2.2.6Dropout在小型數(shù)據集的學習和訓練中,網絡會因過度訓練、模型結構過于復雜等原因,出現(xiàn)訓練模型在在訓練集中擬合較好,但在測試集中擬合差的現(xiàn)象,即過擬合。為預防過擬合現(xiàn)象,CNN通常采用網絡結構正則化的優(yōu)化策略,在全連接層后加入dropout[43],在每層神經元訓練之前省略一定比例(通常為總數(shù)50%)的隱藏層神經元。直到網絡訓練完成前,每次迭代隨機選擇刪除神經元,僅對保留的單元進行更新,按照BP算法對網絡參數(shù)進行學習。如圖2.4所示。圖2.4(a)標準神經網絡和(b)使用dropout的神經網絡傳統(tǒng)神經網絡訓練過程為:
中國人民公安大學碩士學位論文-18-2+)、(1+,2-)、(1-,2+)(1-,2-)、(2-,1-)、(2-,1+)、(2+,1-)、(2+,1+)8種。而這些特征圖像均對應同一類工具,圖2.5為側面形圖像樣本制作的示意圖。圖2.5樣本制作示意圖3鉗剪痕跡溯源的可行性實驗研究10類工具圖像樣本的采集時間周期較長,在正式進行鉗剪痕跡溯源實驗之前,用四類鉗剪工具細目圖像進行預實驗,針對預實驗出現(xiàn)的問題進行分析總結,確保后續(xù)實驗的高效完成。3.1實驗樣本制作3.1.1實驗設備與工具尼康D7200數(shù)碼單反像機,微距鏡頭,翻拍架,白熾燈,A4紙張,鉛絲,橡皮筋,樂高收納盒,大力鉗,斷線鉗,水口鉗,斜嘴鉗,計算機。
本文編號:3304784
本文鏈接:http://sikaile.net/falvlunwen/fanzuizhian/3304784.html