天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于卷積神經(jīng)網(wǎng)絡(luò)的視頻行人重識(shí)別算法研究

發(fā)布時(shí)間:2021-09-21 22:29
  隨著國(guó)家推進(jìn)“平安城市”“天網(wǎng)工程”“雪亮工程”來(lái)建設(shè)多級(jí)視頻監(jiān)控并聯(lián)網(wǎng)應(yīng)用,監(jiān)控視頻的數(shù)量與日俱增,在安保方面單靠人力資源在海量的視頻里進(jìn)行行人追蹤和監(jiān)控將會(huì)非常的困難。而行人重識(shí)別是解決這一問(wèn)題的關(guān)鍵技術(shù),它是計(jì)算機(jī)視覺(jué)領(lǐng)域一個(gè)非常重要的且具有挑戰(zhàn)性的課題,因?yàn)閷?shí)際應(yīng)用場(chǎng)景下環(huán)境復(fù)雜,攝像頭視角和光照等條件變化大且容易存在多個(gè)行人之間的遮擋現(xiàn)象。因此,如何提取出全面且辨別性強(qiáng)的行人特征是當(dāng)前研究行人重識(shí)別任務(wù)需要重點(diǎn)關(guān)注的問(wèn)題。隨著卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,使用卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)行人特征進(jìn)行提取可以有效的提高行人重識(shí)別的準(zhǔn)確率。本文基于卷積神經(jīng)網(wǎng)絡(luò)對(duì)行人重識(shí)別模型及算法進(jìn)行研究,主要研究工作如下:(1)針對(duì)當(dāng)前數(shù)據(jù)集中圖像的不對(duì)齊導(dǎo)致難以獲得較全面的行人描述符問(wèn)題。本文結(jié)合細(xì)粒度識(shí)別框架,提出了基于雙線性CNN和分塊特征的行人重識(shí)別模型。該模型使用精簡(jiǎn)的殘差網(wǎng)絡(luò)組成雙線性框架,并使用分支網(wǎng)絡(luò)對(duì)特征進(jìn)行水平分塊后繼續(xù)對(duì)分塊進(jìn)行更加細(xì)粒度特征的提取,使得融合后的行人既包含全身特征,又包含分塊的細(xì)粒度特征,這兩部分特征組成同時(shí)包含全身和其他分塊信息的行人描述符,從而提升模型的準(zhǔn)確率。訓(xùn)練時(shí)使用... 

【文章來(lái)源】:蘭州交通大學(xué)甘肅省

【文章頁(yè)數(shù)】:63 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于卷積神經(jīng)網(wǎng)絡(luò)的視頻行人重識(shí)別算法研究


行人重識(shí)別流程圖

行人


W祭詞迪值摹!靶腥酥厥侗稹蔽侍庠?005年才被正式命名。下一年,機(jī)器視覺(jué)頂會(huì)CVPR才把行人重識(shí)別看待為一個(gè)單獨(dú)的任務(wù)。2007年,第一個(gè)行人重識(shí)別數(shù)據(jù)集VIPeR公開(kāi),為該問(wèn)題的研究提供了一個(gè)公平可靠的度量標(biāo)準(zhǔn)。2010年,開(kāi)始著力研究基于視頻的行人重識(shí)別,選取同一個(gè)行人的多個(gè)視頻幀來(lái)作為輸入來(lái)進(jìn)行目標(biāo)的識(shí)別。2012年,有關(guān)行人重識(shí)別的綜述和專著在ECCV召開(kāi)的專題的研討會(huì)后分別被發(fā)表。隨著神經(jīng)網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集上面的優(yōu)越表現(xiàn),卷積神經(jīng)網(wǎng)絡(luò)才開(kāi)始被逐漸引入行人重識(shí)別任務(wù),大量的實(shí)驗(yàn)說(shuō)明,基于卷積神經(jīng)網(wǎng)絡(luò)圖1.2行人重識(shí)別的發(fā)展

模型圖,模型,卷積,行人


基于卷積神經(jīng)網(wǎng)絡(luò)的視頻行人重識(shí)別算法研究-10-2相關(guān)技術(shù)概述卷積神經(jīng)網(wǎng)絡(luò)的快速發(fā)展使得很多研究課題注入新的活力,尤其在被引入到行人重識(shí)別任務(wù)后,基于卷積神經(jīng)網(wǎng)絡(luò)的模型體現(xiàn)出了手工特征無(wú)法比擬的優(yōu)勢(shì),并且逐漸成為行人重識(shí)別領(lǐng)域的主要研究方向。本章中首先對(duì)卷積神經(jīng)網(wǎng)絡(luò)的基本原理和結(jié)構(gòu)進(jìn)行介紹;然后對(duì)本文研究行人重識(shí)別任務(wù)所涉及到的基礎(chǔ)網(wǎng)絡(luò)模型和模塊組成進(jìn)行概述;在此基礎(chǔ)上,進(jìn)一步介紹了行人重識(shí)別任務(wù)的目標(biāo)、訓(xùn)練和識(shí)別流程、常用數(shù)據(jù)集以及評(píng)價(jià)標(biāo)準(zhǔn)。2.1經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)隨著近些年來(lái)卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)領(lǐng)域的發(fā)展,誕生了很多理論研究成果和效果非常好的網(wǎng)絡(luò)模型。最先進(jìn)入人們視野的是AlexKrizhevsky及其團(tuán)隊(duì)在2012年ILSVR競(jìng)賽中使用的AlexNet[42],這是首次在大賽中使用卷積神經(jīng)網(wǎng)絡(luò)模型并且以領(lǐng)先第二名20多個(gè)百分點(diǎn)的優(yōu)勢(shì)奪冠,隨后掀起了一場(chǎng)卷積神經(jīng)網(wǎng)絡(luò)的浪潮。后來(lái),也有很多優(yōu)秀的卷積神經(jīng)網(wǎng)絡(luò)模型被提出,2014年,Google團(tuán)隊(duì)在當(dāng)年的大賽中提出GoogLeNet[43]。但是隨著網(wǎng)絡(luò)層數(shù)的加深,也伴隨著梯度消失,深層網(wǎng)絡(luò)效果變差等問(wèn)題。針對(duì)上面的問(wèn)題何愷明等人提出ResNet[45],使用該網(wǎng)絡(luò)模型在ILSVR競(jìng)賽上面取得了分類、檢測(cè)、定位等等多個(gè)項(xiàng)目的冠軍。本文在GoogLeNet和ResNet這兩個(gè)網(wǎng)絡(luò)模型的基礎(chǔ)上進(jìn)行行人重識(shí)別網(wǎng)絡(luò)模型的研究。2.1.1AlexNet模型圖2.1AlexNet模型輸入卷積層1卷積層2卷積層3卷積層4卷積層5全連接層1全連接層2全連接層3

【參考文獻(xiàn)】:
期刊論文
[1]基于多尺度生成對(duì)抗網(wǎng)絡(luò)的遮擋行人重識(shí)別方法[J]. 楊婉香,嚴(yán)嚴(yán),陳思,張小康,王菡子.  軟件學(xué)報(bào). 2020(07)
[2]基于深度學(xué)習(xí)的行人重識(shí)別研究進(jìn)展[J]. 羅浩,姜偉,范星,張思朋.  自動(dòng)化學(xué)報(bào). 2019(11)
[3]基于卷積神經(jīng)網(wǎng)絡(luò)判別特征學(xué)習(xí)的行人重識(shí)別[J]. 陳兵,查宇飛,李運(yùn)強(qiáng),張勝杰,張園強(qiáng),庫(kù)濤.  光學(xué)學(xué)報(bào). 2018(07)
[4]行人重識(shí)別研究綜述[J]. 宋婉茹,趙晴晴,陳昌紅,干宗良,劉峰.  智能系統(tǒng)學(xué)報(bào). 2017(06)
[5]基于字典學(xué)習(xí)和Fisher判別稀疏表示的行人重識(shí)別方法[J]. 張見(jiàn)威,林文釗,邱隆慶.  華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版). 2017(07)
[6]融合底層和中層字典特征的行人重識(shí)別[J]. 王麗.  中國(guó)光學(xué). 2016(05)
[7]基于HSV模型和特征點(diǎn)匹配的行人重識(shí)別算法[J]. 彭志勇,常發(fā)亮,劉洪彬,別秀德.  光電子·激光. 2015(08)
[8]基于空間顏色特征的行人重識(shí)別方法[J]. 張華.  華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版). 2013(S2)

博士論文
[1]基于度量學(xué)習(xí)的行人重識(shí)別方法研究[D]. 王金.華中科技大學(xué) 2017
[2]面向監(jiān)控視頻的行人重識(shí)別技術(shù)研究[D]. 王亦民.武漢大學(xué) 2014



本文編號(hào):3402612

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3402612.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶bffdf***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com