天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于深度學(xué)習(xí)的人體姿態(tài)估計(jì)方法研究

發(fā)布時(shí)間:2021-03-25 11:01
  人體姿態(tài)估計(jì)是當(dāng)前計(jì)算機(jī)視覺中重要的組成部分,是動(dòng)作識(shí)別的關(guān)鍵步驟。隨著深度學(xué)習(xí)的迅速流行,使得實(shí)現(xiàn)快速且準(zhǔn)確的人體姿態(tài)估計(jì)任務(wù)成為可能。研究如何使得人體姿態(tài)估計(jì)任務(wù)更好的根據(jù)現(xiàn)實(shí)需求應(yīng)用于視頻中逐漸成為當(dāng)前具有重要現(xiàn)實(shí)意義的研究?jī)?nèi)容。該文探索了人體姿態(tài)估計(jì)算法中所涉及的處理速度及精度之間平衡性的相關(guān)因素,最后形成了一種有效的人體姿態(tài)估計(jì)方法。目前已經(jīng)存在多種人體姿態(tài)估計(jì)方法,包括單人姿態(tài)估計(jì)方法和多人姿態(tài)估計(jì)方法,其中單人姿態(tài)估計(jì)方法的研究已經(jīng)比較成熟,當(dāng)前主要研究方向是多人姿態(tài)估計(jì)方法。針對(duì)多人姿態(tài)估計(jì)在視頻中的應(yīng)用,大多數(shù)方法特別關(guān)注準(zhǔn)確度而忽略實(shí)際應(yīng)用中對(duì)方法處理速度的要求,本文所做的主要工作是對(duì)多種現(xiàn)有的具有代表性的單人和多人姿態(tài)估計(jì)方法進(jìn)行研究,通過(guò)多組對(duì)比實(shí)驗(yàn)分別對(duì)這些方法的處理速度和準(zhǔn)確度的相關(guān)指標(biāo)進(jìn)行探索和分析,提出可行的相關(guān)改進(jìn)想法有針對(duì)性的改進(jìn)了相關(guān)方法,并與原方法進(jìn)行對(duì)比實(shí)驗(yàn),從而得出了影響人體姿態(tài)估計(jì)準(zhǔn)確度和處理速度之間平衡性的若干因素,由此基礎(chǔ)上該文提出了一種通過(guò)改進(jìn)Dense Net網(wǎng)絡(luò)進(jìn)行人體姿態(tài)估計(jì)的方法。所提出的基于改進(jìn)Dense Net網(wǎng)絡(luò)的人體姿... 

【文章來(lái)源】:湘潭大學(xué)湖南省

【文章頁(yè)數(shù)】:59 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的人體姿態(tài)估計(jì)方法研究


圖像卷積示意

示意圖,卷積


6第2章相關(guān)理論概述2.1卷積神經(jīng)網(wǎng)絡(luò)基于部件模型的姿態(tài)估計(jì)方法存在的主要不足之處有圖像中包含繁雜各異的特征,必然需要處理大量像素信息,而將每個(gè)像素都被視為與其他像素完全不同的對(duì)象是不合理的,因?yàn)樵趯?shí)際的圖像中,在相同部件的局部位置上,邊緣像素總是參差不齊[16]。因此,基于人工設(shè)計(jì)的特征提取方法在面對(duì)復(fù)雜多變的圖像內(nèi)容時(shí),常常顯得有心無(wú)力,在包括姿態(tài)估計(jì)任務(wù)在內(nèi)的多種圖像處理任務(wù)中,基于人工特征提取并采用層次流水線的方法對(duì)于速度和精度的提升收效甚微[5],而卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展幾乎改變了這一切。2.1.1卷積神經(jīng)網(wǎng)絡(luò)技術(shù)卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN),是由Bell實(shí)驗(yàn)室和紐約大學(xué)的YannLeCun研究小組開發(fā)創(chuàng)立的基于神經(jīng)網(wǎng)絡(luò)的相關(guān)系統(tǒng)架構(gòu),其對(duì)于圖像數(shù)據(jù)的處理有獨(dú)特的效果[29]。圖2.1展示了卷積操作的原理,其可以看作使用一個(gè)矩陣在圖像上進(jìn)行滑動(dòng)。而圖2.2則是輸出每一個(gè)矩陣位置與對(duì)應(yīng)圖像位置的卷積運(yùn)算結(jié)果示意。一般滑動(dòng)的動(dòng)作軌跡為從圖像的左上角開始,依次往右到圖像的右邊界,然后在圖像往下一行像素位置最左邊移動(dòng),還是依次從左向右滑動(dòng)。每次向右滑動(dòng)的像素距離,稱為步長(zhǎng)。通常可以使用不同步長(zhǎng)和是否對(duì)圖像進(jìn)行零填充來(lái)控制輸出的卷積層矩陣大校圖2.1圖像卷積示意圖2.2卷積計(jì)算

特征圖,金字塔,圖像


8可以共享其遷移過(guò)來(lái)的,具備對(duì)低層次特征強(qiáng)提取能力的卷積神經(jīng)網(wǎng)絡(luò)參數(shù)。不得不說(shuō),遷移學(xué)習(xí)加速了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的發(fā)展和更迭。2.2圖像金字塔在圖像處理的過(guò)程中,由于圖像中相鄰像素之間有密切聯(lián)系,不管是從紋理或是灰度級(jí)都很相似。若圖像中的目標(biāo)對(duì)象尺寸很小,一般要用較高的分辨率來(lái)觀察。我們想要觀察到小目標(biāo)的細(xì)節(jié)部分則需要擴(kuò)大視野將小目標(biāo)的尺寸放大。相反,若圖像中的目標(biāo)尺寸很大,那么就僅僅需要較低的分辨率就能夠有效觀察。若圖像中的目標(biāo)尺寸大小不一,進(jìn)行多分辨率處理的效果更佳。圖像金字塔(ImagePyramid)就是以多分辨率來(lái)解析圖像而誕生的一種簡(jiǎn)單有效的方法,也是在圖像中多尺度信息的表達(dá)方式之一[32]。簡(jiǎn)而言之,圖像金字塔實(shí)際上是將圖像進(jìn)行按比例縮放。顧名思義,圖像金字塔就是以圖像的尺寸由底層最大,往上層依次降低類似金字塔狀的形式,如圖2.3所示,其是較高分辨率的原圖像副本,而頂部則是較低分辨率的原圖像副本。圖2.3圖像金字塔2.3圖像上采樣在卷積神經(jīng)網(wǎng)絡(luò)中,為了降低參數(shù)量使原圖像分辨率快速下降,便于減少計(jì)算設(shè)備的計(jì)算量,會(huì)采取下采樣的操作,即添加池化層于卷積層之后[29,33]。池化層的輸入為卷積層的輸出,將卷積層最大響應(yīng)的特征結(jié)果進(jìn)行壓縮,并去除冗余的信息,可實(shí)現(xiàn)尺度、旋轉(zhuǎn)和平移等多種特征不變性。池化操作有多種,常見的有兩種:1.平均池化,計(jì)算的是特征圖中規(guī)定范圍內(nèi)各值的平均;2.最大池化,計(jì)算的是特征圖中規(guī)定范圍內(nèi)的最大值?梢詮膱D2.4中看到兩者之間的計(jì)算差異。

【參考文獻(xiàn)】:
期刊論文
[1]改進(jìn)的YOLO V3算法及其在小目標(biāo)檢測(cè)中的應(yīng)用[J]. 鞠默然,羅海波,王仲博,何淼,常錚,惠斌.  光學(xué)學(xué)報(bào). 2019(07)
[2]面向小目標(biāo)的多尺度Faster-RCNN檢測(cè)算法[J]. 黃繼鵬,史穎歡,高陽(yáng).  計(jì)算機(jī)研究與發(fā)展. 2019(02)
[3]基于中粒度模型的視頻人體姿態(tài)估計(jì)[J]. 史青宣,邸慧軍,陸耀,田學(xué)東.  自動(dòng)化學(xué)報(bào). 2018(04)
[4]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍.  計(jì)算機(jī)學(xué)報(bào). 2017(06)
[5]基于肢體調(diào)整的人體姿態(tài)估計(jì)[J]. 蔡鵬,孔德慧,尹寶才,霍奕.  系統(tǒng)仿真學(xué)報(bào). 2015(10)
[6]基于視覺的人體動(dòng)作識(shí)別綜述[J]. 胡瓊,秦磊,黃慶明.  計(jì)算機(jī)學(xué)報(bào). 2013(12)
[7]圖像和視頻中基于部件檢測(cè)器的人體姿態(tài)估計(jì)[J]. 蘇延超,艾海舟,勞世竑.  電子與信息學(xué)報(bào). 2011(06)
[8]人體運(yùn)動(dòng)捕捉及運(yùn)動(dòng)控制的研究[J]. 黃波士,陳福民.  計(jì)算機(jī)工程與應(yīng)用. 2005(07)

碩士論文
[1]基于姿態(tài)估計(jì)的交警手勢(shì)識(shí)別方法的研究[D]. 黃聚.吉林大學(xué) 2019
[2]基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體姿勢(shì)估計(jì)研究[D]. 王冉.電子科技大學(xué) 2016



本文編號(hào):3099571

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3099571.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶10fb1***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com