基于改進(jìn)YOLO深度卷積神經(jīng)網(wǎng)絡(luò)的縫紉手勢(shì)檢測(cè)
發(fā)布時(shí)間:2021-06-10 15:18
在人機(jī)協(xié)作領(lǐng)域,針對(duì)動(dòng)作手勢(shì)相似度大,環(huán)境復(fù)雜背景下手勢(shì)識(shí)別率低的問(wèn)題,提出一種基于YOLO深度卷積神經(jīng)網(wǎng)絡(luò)檢測(cè)識(shí)別縫紉手勢(shì)的方法。以4種復(fù)雜縫紉手勢(shì)作為檢測(cè)對(duì)象并構(gòu)建縫紉手勢(shì)數(shù)據(jù)集,通過(guò)在YOLOv3低分辨率的深層網(wǎng)絡(luò)處增加密集連接層,加強(qiáng)圖像特征傳遞與重用提高網(wǎng)絡(luò)性能,實(shí)現(xiàn)端到端的縫紉手勢(shì)檢測(cè)。實(shí)驗(yàn)結(jié)果表明,在縫紉手勢(shì)測(cè)試集中,訓(xùn)練后的模型平均精度均值為94. 45%,交并比為0. 87,調(diào)和平均值為0. 885。通過(guò)對(duì)比區(qū)域卷積神經(jīng)網(wǎng)絡(luò)、YOLOv2以及原始YOLOv3算法,提出的改進(jìn)方法檢測(cè)精度有顯著提升;同時(shí)在GPU加速情況下,平均檢測(cè)速度為43. 0幀/s,可完全滿足縫紉手勢(shì)的實(shí)時(shí)檢測(cè)。
【文章來(lái)源】:紡織學(xué)報(bào). 2020,41(04)北大核心EICSCD
【文章頁(yè)數(shù)】:7 頁(yè)
【部分圖文】:
YOLO檢測(cè)過(guò)程
在64像素×64像素分辨率和32像素×32像素分辨率的層中:由輸入x0和輸出x1拼接的特征圖[x0,x1]作為H2輸入;x2和[x0,x1]被拼接成[x0,x1,x2]用作H3的輸入;x3和[x0,x1,x2]被拼接成[x0,x1,x2,x3]作為H4的輸入;最后,拼接成64像素×64像素×256像素和32像素×32像素×512像素尺寸特征圖向前傳播。在訓(xùn)練期間,當(dāng)圖像特征被轉(zhuǎn)移到較低分辨率層時(shí),深層特征層可在密集結(jié)構(gòu)中接收其前面的所有特征層的特征,從而減少特征損失,增強(qiáng)特征復(fù)用,提高檢測(cè)效果。本文輸出采用3種不同尺度的邊界框(64像素×64像素、32像素×32像素和16像素×16像素)對(duì)縫紉手勢(shì)進(jìn)行檢測(cè)。3 模型訓(xùn)練與調(diào)整
最終模型共訓(xùn)練5 000次,耗時(shí)6 h,共訓(xùn)練使用了4 000幅圖像(在4 000幅圖像中隨機(jī)抽取并重復(fù)使用)。在訓(xùn)練過(guò)程中,通過(guò)繪制模型損失曲線觀察訓(xùn)練動(dòng)態(tài)過(guò)程,其對(duì)應(yīng)的損失值變化曲線如圖3所示?煽闯:模型在前期迭代中損失值快速縮減,模型快速擬合;當(dāng)?shù)?xùn)練2 000次后,損失值下降放緩;當(dāng)?shù)? 000次時(shí),損失值收斂至0.002 5,結(jié)束訓(xùn)練。通過(guò)計(jì)算預(yù)測(cè)邊界框和真實(shí)邊界框之間的平均交并比(IOU)來(lái)進(jìn)一步評(píng)估模型的檢測(cè)性能,結(jié)果如圖4所示?芍S著模型迭代次數(shù)的增加,真實(shí)框與預(yù)測(cè)框的模型平均交并比在不斷提升,在迭代次數(shù)為5 000時(shí),模型交并比趨于0.9。
【參考文獻(xiàn)】:
期刊論文
[1]基于計(jì)算機(jī)視覺(jué)的牛仔服裝色差檢測(cè)評(píng)級(jí)系統(tǒng)[J]. 黃嘉俊,柯薇,王靜,鄧中民. 紡織學(xué)報(bào). 2019(05)
[2]基于機(jī)器視覺(jué)的玻璃纖維管紗毛羽檢測(cè)[J]. 景軍鋒,張星星. 紡織學(xué)報(bào). 2019(05)
[3]多尺度卷積特征融合的SSD目標(biāo)檢測(cè)算法[J]. 陳幻杰,王琦琦,楊國(guó)威,韓佳林,尹成娟,陳雋,王以忠. 計(jì)算機(jī)科學(xué)與探索. 2019(06)
[4]基于Faster R-CNN的手勢(shì)識(shí)別算法[J]. 吳曉鳳,張江鑫,徐欣晨. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2018(03)
[5]機(jī)器人視覺(jué)手勢(shì)交互技術(shù)研究進(jìn)展[J]. 齊靜,徐坤,丁希侖. 機(jī)器人. 2017(04)
本文編號(hào):3222619
【文章來(lái)源】:紡織學(xué)報(bào). 2020,41(04)北大核心EICSCD
【文章頁(yè)數(shù)】:7 頁(yè)
【部分圖文】:
YOLO檢測(cè)過(guò)程
在64像素×64像素分辨率和32像素×32像素分辨率的層中:由輸入x0和輸出x1拼接的特征圖[x0,x1]作為H2輸入;x2和[x0,x1]被拼接成[x0,x1,x2]用作H3的輸入;x3和[x0,x1,x2]被拼接成[x0,x1,x2,x3]作為H4的輸入;最后,拼接成64像素×64像素×256像素和32像素×32像素×512像素尺寸特征圖向前傳播。在訓(xùn)練期間,當(dāng)圖像特征被轉(zhuǎn)移到較低分辨率層時(shí),深層特征層可在密集結(jié)構(gòu)中接收其前面的所有特征層的特征,從而減少特征損失,增強(qiáng)特征復(fù)用,提高檢測(cè)效果。本文輸出采用3種不同尺度的邊界框(64像素×64像素、32像素×32像素和16像素×16像素)對(duì)縫紉手勢(shì)進(jìn)行檢測(cè)。3 模型訓(xùn)練與調(diào)整
最終模型共訓(xùn)練5 000次,耗時(shí)6 h,共訓(xùn)練使用了4 000幅圖像(在4 000幅圖像中隨機(jī)抽取并重復(fù)使用)。在訓(xùn)練過(guò)程中,通過(guò)繪制模型損失曲線觀察訓(xùn)練動(dòng)態(tài)過(guò)程,其對(duì)應(yīng)的損失值變化曲線如圖3所示?煽闯:模型在前期迭代中損失值快速縮減,模型快速擬合;當(dāng)?shù)?xùn)練2 000次后,損失值下降放緩;當(dāng)?shù)? 000次時(shí),損失值收斂至0.002 5,結(jié)束訓(xùn)練。通過(guò)計(jì)算預(yù)測(cè)邊界框和真實(shí)邊界框之間的平均交并比(IOU)來(lái)進(jìn)一步評(píng)估模型的檢測(cè)性能,結(jié)果如圖4所示?芍S著模型迭代次數(shù)的增加,真實(shí)框與預(yù)測(cè)框的模型平均交并比在不斷提升,在迭代次數(shù)為5 000時(shí),模型交并比趨于0.9。
【參考文獻(xiàn)】:
期刊論文
[1]基于計(jì)算機(jī)視覺(jué)的牛仔服裝色差檢測(cè)評(píng)級(jí)系統(tǒng)[J]. 黃嘉俊,柯薇,王靜,鄧中民. 紡織學(xué)報(bào). 2019(05)
[2]基于機(jī)器視覺(jué)的玻璃纖維管紗毛羽檢測(cè)[J]. 景軍鋒,張星星. 紡織學(xué)報(bào). 2019(05)
[3]多尺度卷積特征融合的SSD目標(biāo)檢測(cè)算法[J]. 陳幻杰,王琦琦,楊國(guó)威,韓佳林,尹成娟,陳雋,王以忠. 計(jì)算機(jī)科學(xué)與探索. 2019(06)
[4]基于Faster R-CNN的手勢(shì)識(shí)別算法[J]. 吳曉鳳,張江鑫,徐欣晨. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2018(03)
[5]機(jī)器人視覺(jué)手勢(shì)交互技術(shù)研究進(jìn)展[J]. 齊靜,徐坤,丁希侖. 機(jī)器人. 2017(04)
本文編號(hào):3222619
本文鏈接:http://sikaile.net/projectlw/qgylw/3222619.html
最近更新
教材專著