天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

擁擠條件下的人體姿態(tài)檢測(cè)算法研究

發(fā)布時(shí)間:2020-10-12 08:34
   近年來(lái),借助著視頻圖像處理技術(shù)和人工智能理論的蓬勃發(fā)展,人們對(duì)監(jiān)控內(nèi)容視頻自動(dòng)分析技術(shù)的需求也越來(lái)越大。在校園環(huán)境,視頻監(jiān)控系統(tǒng)已經(jīng)逐步覆蓋到各個(gè)教學(xué)樓,以及教室場(chǎng)景中。因此,為了響應(yīng)建設(shè)智慧型校園的號(hào)召,借助于深度學(xué)習(xí)理論在視頻圖像處理的強(qiáng)大支撐,研究相關(guān)的圖像識(shí)別與檢測(cè)技術(shù)對(duì)學(xué)校教學(xué)管理具有重要的意義。在此背景下本文主要研究復(fù)雜教室監(jiān)控場(chǎng)景下人體姿態(tài)檢測(cè)技術(shù),具體包括兩個(gè)方面工作:第一,本文提出了一種基于改進(jìn)的Faster R-CNN的人體姿態(tài)檢測(cè)的方法。該方法主要研究教室監(jiān)控場(chǎng)景下利用區(qū)域卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行人體姿態(tài)檢測(cè)的問(wèn)題。首先,針對(duì)采用數(shù)據(jù)集成像質(zhì)量不高導(dǎo)致目標(biāo)檢測(cè)困難的問(wèn)題,本文采用檢測(cè)精確度更高的Faster R-CNN網(wǎng)絡(luò)作為基礎(chǔ)框架,用來(lái)提取高質(zhì)量的目標(biāo)候選區(qū)域。然后,利用級(jí)聯(lián)的ROI Pooling方法將高層卷積特征和淺層卷積特征進(jìn)行合并,使得合并后的特征兼顧高分辨率信息和語(yǔ)義信息。最后,通過(guò)局部特征保留學(xué)習(xí)使得屬于同一類別的特征在特征空間上的分布更加接近,讓整個(gè)網(wǎng)絡(luò)具有更強(qiáng)的分類能力。實(shí)驗(yàn)結(jié)果表明,對(duì)比目前的檢測(cè)方法,本文提出的算法具有更高的精確率。同時(shí),該方法也存在一些不足。比如,該方法時(shí)間開(kāi)銷比較大,無(wú)法滿足實(shí)時(shí)性的要求。此外,候選目標(biāo)提取網(wǎng)絡(luò)中可能會(huì)包含一些虛假目標(biāo),最后的檢測(cè)結(jié)果中可能會(huì)包含“虛警”等。第二,針對(duì)前文工作的不足,本文提出了一種實(shí)時(shí)的人體姿態(tài)檢測(cè)算法。該方法以實(shí)時(shí)的輕量化目標(biāo)檢測(cè)網(wǎng)絡(luò)為基礎(chǔ),通過(guò)特征融合機(jī)制對(duì)基礎(chǔ)網(wǎng)絡(luò)進(jìn)行改進(jìn)。首先,得益于語(yǔ)義分割網(wǎng)絡(luò)能生成強(qiáng)語(yǔ)義信息的特征圖,本文使用了一個(gè)基于弱分割的語(yǔ)義信息補(bǔ)償網(wǎng)絡(luò),將補(bǔ)償網(wǎng)絡(luò)的卷積特征與基礎(chǔ)網(wǎng)絡(luò)的淺層特征相結(jié)合,增強(qiáng)淺層特征的語(yǔ)義信息。此外,通過(guò)基于注意力機(jī)制的全局激活模塊加大卷積特征關(guān)鍵通道的權(quán)重,間接增強(qiáng)了卷積特征的語(yǔ)義信息。最后,采用了基于空洞卷積的Inception網(wǎng)絡(luò)結(jié)構(gòu),使得該模塊的卷積感受野變大,增強(qiáng)局部信息表達(dá)能力。實(shí)驗(yàn)結(jié)果表明,本方法相比前文方法能獲得更好的檢測(cè)精確率,并且能獲得較好的實(shí)時(shí)性能。
【學(xué)位單位】:重慶郵電大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2019
【中圖分類】:TP391.41;TP183
【部分圖文】:

擁擠條件下的人體姿態(tài)檢測(cè)算法研究


ElfEar“感姿精靈”第二類是基于環(huán)境布設(shè)傳感器的人體姿態(tài)檢測(cè)

方式,相關(guān)特點(diǎn),學(xué)習(xí)技術(shù),姿態(tài)檢測(cè)


圖 1. 2 xbox one 體感游戲方式第三類就是基于圖像分析的人體姿態(tài)檢測(cè)[4-6]。這些傳統(tǒng)的姿態(tài)檢測(cè)算法,人工設(shè)計(jì)的特征,只能針對(duì)單人進(jìn)行檢測(cè)。這些方法在多目標(biāo)的情況下不推廣到多人檢測(cè)的話成本也會(huì)變高。直到最近幾年,隨著深度學(xué)習(xí)技術(shù)的發(fā)展;趫D像處理技術(shù)的目標(biāo)檢測(cè)[姿態(tài)估計(jì)技術(shù)[12, 20-28]也越來(lái)越成熟,結(jié)合這兩種方法開(kāi)發(fā)出一套完整的教測(cè)系統(tǒng)也正符合了人們的需要。本課題正是在上述背景下,開(kāi)展擁擠條件下的人體姿態(tài)檢測(cè)算法的研究。數(shù)據(jù)集的相關(guān)特點(diǎn),結(jié)合最新的研究手段,在提高檢測(cè)效果的同時(shí)并能改率,實(shí)現(xiàn)復(fù)雜場(chǎng)景下多人姿態(tài)的準(zhǔn)確檢測(cè)。 研究現(xiàn)狀

示意圖,骨架模型,示意圖,體姿


重慶郵電大學(xué)碩士學(xué)位論文1.2.1 人體姿態(tài)估計(jì)方法人體姿態(tài)估計(jì)算法主要是通過(guò)圖像處理技術(shù)獲取人體關(guān)鍵點(diǎn)的坐標(biāo),從而得到人體骨架模型或輪廓模型,可以更為直觀的表達(dá)人體姿態(tài)行為。如圖 1.3 為人體姿態(tài)估計(jì)結(jié)果示意圖,人體姿態(tài)估計(jì)可以分為單人姿態(tài)估計(jì)和多人姿態(tài)估計(jì)。在 2015年之前,所有的人體姿態(tài)估計(jì)方法都旨在回歸人體關(guān)鍵點(diǎn)的精確坐標(biāo)。然而,由于人體動(dòng)作的靈活性,這些方法的可擴(kuò)展性非常差。
【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 韓貴金;沈建冬;;二維人體姿態(tài)估計(jì)研究進(jìn)展[J];西安郵電大學(xué)學(xué)報(bào);2017年04期

2 蔡鵬;孔德慧;尹寶才;霍奕;;基于肢體調(diào)整的人體姿態(tài)估計(jì)[J];系統(tǒng)仿真學(xué)報(bào);2015年10期

3 喻東山,徐捷,孫旦暉,曾彥英,高小寧,蔣曉軍;利培酮對(duì)人體姿態(tài)平衡的效應(yīng)[J];中國(guó)行為醫(yī)學(xué)科學(xué);2005年03期

4 東方伊人;四種常見(jiàn)的人體姿態(tài)[J];現(xiàn)代技能開(kāi)發(fā);1996年02期

5 李崤河;劉進(jìn)鋒;;二維人體姿態(tài)估計(jì)研究綜述[J];現(xiàn)代計(jì)算機(jī);2019年22期

6 蘇延超;艾海舟;勞世竑;;圖像和視頻中基于部件檢測(cè)器的人體姿態(tài)估計(jì)[J];電子與信息學(xué)報(bào);2011年06期

7 鄭毅;李鳳;張麗;劉守印;;基于長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的人體姿態(tài)檢測(cè)方法[J];計(jì)算機(jī)應(yīng)用;2018年06期

8 李慶武;席淑雅;王恬;馬云鵬;周亮基;;結(jié)合位姿約束與軌跡尋優(yōu)的人體姿態(tài)估計(jì)[J];光學(xué)精密工程;2017年04期

9 譚冠政;葉華;陳敏杰;;基于頻率篩分的無(wú)監(jiān)督人體姿態(tài)特征提取與識(shí)別研究[J];測(cè)控技術(shù);2017年09期

10 王筱蘭;徐捷;喻東山;成為榮;;氯丙嗪與利培酮對(duì)人體姿態(tài)平衡效應(yīng)的對(duì)照研究[J];四川精神衛(wèi)生;2006年03期


相關(guān)博士學(xué)位論文 前10條

1 趙林;面向復(fù)雜監(jiān)控環(huán)境的人體運(yùn)動(dòng)分析方法[D];西安電子科技大學(xué);2017年

2 馬淼;視頻中人體姿態(tài)估計(jì)、跟蹤與行為識(shí)別研究[D];山東大學(xué);2017年

3 李弟平;基于視頻的人體姿態(tài)檢測(cè)與運(yùn)動(dòng)識(shí)別方法[D];中南大學(xué);2012年

4 陳聰;基于人體姿態(tài)序列提取和分析的行為識(shí)別[D];華南理工大學(xué);2012年

5 歐陽(yáng)毅;單目視頻中人體運(yùn)動(dòng)建模及姿態(tài)估計(jì)研究[D];浙江大學(xué);2012年

6 李佳;多視角三維人體運(yùn)動(dòng)捕捉的研究[D];北京交通大學(xué);2013年

7 張殿勇;基于人體模型構(gòu)建的無(wú)標(biāo)識(shí)運(yùn)動(dòng)捕捉關(guān)鍵技術(shù)研究[D];北京交通大學(xué);2014年

8 葉青;無(wú)標(biāo)記人體運(yùn)動(dòng)捕捉技術(shù)的研究[D];北京郵電大學(xué);2014年

9 李毅;單目視頻人體運(yùn)動(dòng)分析技術(shù)研究[D];南京大學(xué);2013年

10 張鳴;連接剛體及人體姿態(tài)估計(jì)的理論與方法[D];上海交通大學(xué);2011年


相關(guān)碩士學(xué)位論文 前10條

1 周朋肖;基于人體姿態(tài)估計(jì)的隊(duì)列評(píng)分系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D];電子科技大學(xué);2019年

2 侯珊珊;基于卷積神經(jīng)網(wǎng)絡(luò)的人體姿態(tài)估計(jì)[D];華北理工大學(xué);2019年

3 周亞輝;基于跨階段深度網(wǎng)絡(luò)的人體姿態(tài)分析[D];合肥工業(yè)大學(xué);2019年

4 朱靖;基于卷積神經(jīng)網(wǎng)絡(luò)的二維人體姿態(tài)估計(jì)研究[D];杭州電子科技大學(xué);2019年

5 湯林;擁擠條件下的人體姿態(tài)檢測(cè)算法研究[D];重慶郵電大學(xué);2019年

6 楊亞平;基于階梯式和多殘差模塊卷積神經(jīng)網(wǎng)絡(luò)的人體姿態(tài)估計(jì)方法研究[D];安徽大學(xué);2019年

7 鄧天池;基于圖結(jié)構(gòu)模型的二維人體姿態(tài)估計(jì)研究[D];安徽大學(xué);2019年

8 謝子威;基于深度學(xué)習(xí)的3D人體姿態(tài)估計(jì)研究[D];北京郵電大學(xué);2019年

9 潘峰;防老年人摔傷智能可穿戴裝置研究[D];山東大學(xué);2018年

10 劉霞;基于人體姿態(tài)的視頻檢索方法研究[D];遼寧大學(xué);2018年



本文編號(hào):2837908

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2837908.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶6eb2b***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com