基于單目攝像頭的嵌入式手勢(shì)識(shí)別算法研究與實(shí)現(xiàn)
【文章頁(yè)數(shù)】:82 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖3-4Oxford手勢(shì)數(shù)據(jù)集上標(biāo)注的手部真實(shí)邊框
驗(yàn)結(jié)果據(jù)集和評(píng)估方法在Oxford手勢(shì)數(shù)據(jù)集[13]上評(píng)估了所提出的手部檢測(cè)和方向估計(jì)模型。如前據(jù)集收集于多個(gè)公開(kāi)圖像數(shù)據(jù)集。數(shù)據(jù)的收集過(guò)程沒(méi)有限制人體是否可見(jiàn)件做任何限制。每張圖片中的手部用邊框進(jìn)行了標(biāo)注,并使每個(gè)標(biāo)注的邊對(duì)齊,如圖3-4中的實(shí)線邊框所示。實(shí)際的標(biāo)注文件....
圖4-3EgoFinger數(shù)據(jù)集中的多個(gè)場(chǎng)景的示例圖片
(batchsize)設(shè)定為32,并進(jìn)行90k次迭代訓(xùn)練。模型初始的學(xué)習(xí)率設(shè)定為10-3,然后分別在第60k次和第80k次訓(xùn)練迭代時(shí)進(jìn)行10倍的衰減,將學(xué)習(xí)率分別降至到10-4和10-5。4.3數(shù)據(jù)集和實(shí)驗(yàn)結(jié)果4.3.1EgoFinger數(shù)據(jù)集Eg....
圖4-4本文采集的數(shù)據(jù)集中手部的示例圖像
模型對(duì)于多種手形的識(shí)別能力。為了充分評(píng)估檢測(cè)模型,本文采集了多種場(chǎng)景下的手勢(shì)視頻數(shù)據(jù)集,其中共定義了三種手形,包括“握拳”、“手掌”和“單指伸出”。參考EgoFinger數(shù)據(jù)集,本文采集的數(shù)據(jù)集也涵蓋了復(fù)雜背景和多種光照等難點(diǎn)。而且,本文在數(shù)據(jù)集采集過(guò)程中,對(duì)各個(gè)手形的姿態(tài)和....
圖4-5對(duì)比EgoFinger數(shù)據(jù)集的測(cè)試視頻上的手部檢測(cè)結(jié)果
中分別列出了HuangY等[16]的方法和本文方法在EgoFinger測(cè)試集上FRCNN曲線的數(shù)據(jù)來(lái)自于HuangY等的工作[16],他們基于FasterR-法在EgoFinger數(shù)據(jù)集上達(dá)到最好的檢測(cè)效果。同樣,本文也基于Eg型訓(xùn)練,并在同樣的測(cè)試視....
本文編號(hào):3943696
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3943696.html