基于BRNN和注意力機(jī)制的視頻行人再識別方法研究
發(fā)布時間:2020-05-15 10:45
【摘要】:近年來,如何在監(jiān)控視頻中尋找目標(biāo)人物或是確定兩段不同行人視頻中是否為同一目標(biāo),成為時下計算機(jī)視覺研究領(lǐng)域的研究重點(diǎn)之一。此問題被稱之為行人再識別(person re-id)。行人再識別問題在視頻監(jiān)控領(lǐng)域尤其是公安刑偵和安防監(jiān)控中具有非常重要的應(yīng)用價值。行人再識別問題一般分為基于圖像的和基于視頻的兩種。由于視頻數(shù)據(jù)相較于圖像數(shù)據(jù)而言更加復(fù)雜,并且基于視頻的形式也更加符合實(shí)際行人再識別的應(yīng)用場景,所以基于視頻的行人再識別方法有更廣闊的研究價值和應(yīng)用前景。本文集中研究了在給定行人視頻的基礎(chǔ)上進(jìn)行行人再識別的相關(guān)算法,尤其是基于深度學(xué)習(xí)的方法,探索如何有效提高行人再識別的準(zhǔn)確率。本文在介紹了卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)以及它們的一些擴(kuò)展結(jié)構(gòu)的基礎(chǔ)上,綜合視頻行人再識別中出現(xiàn)的主要問題和視頻數(shù)據(jù)的特征,提出了兩種基于深度神經(jīng)網(wǎng)絡(luò)進(jìn)行視頻行人再識別的方法,一種方法重點(diǎn)研究如何學(xué)習(xí)視頻中的有效時序信息,而另一種算法則探索如何自動學(xué)習(xí)分辨行人視頻中的有效信息和干擾信息,從而提高行人再識別的準(zhǔn)確率。本文的研究內(nèi)容和主要工作如下:(1)在對現(xiàn)有算法研究基礎(chǔ)上,改進(jìn)了僅利用單向循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)進(jìn)行視頻行人再識別的方法中,時序信息的學(xué)習(xí)不足的問題,提出了利用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(BRNN)來同時學(xué)習(xí)一段視頻的前后兩個方向的時序特征,實(shí)現(xiàn)對整體視頻時序特征的有效學(xué)習(xí),從而提高行人再識別的準(zhǔn)確率。在配合卷積神經(jīng)網(wǎng)絡(luò)(CNN)提取圖像空間特征的基礎(chǔ)上,基于BRNN的行人再識別方法取得了較高的行人再識別準(zhǔn)確率。(2)針對行人視頻中存在的尺度變化,遮擋嚴(yán)重等問題,提出了一種利用基于深度神經(jīng)網(wǎng)絡(luò)的注意力機(jī)制來減少干擾信息的影響。結(jié)合多尺度學(xué)習(xí)的思想,文中的注意力機(jī)制以視頻中每幀的空間特征為基礎(chǔ),自動學(xué)習(xí)特征對應(yīng)區(qū)域的重要性,使得算法關(guān)注行人視頻中的關(guān)鍵區(qū)域,同時減少無效甚至干擾信息的影響,從而提高模型特征提取的有效性,在多個視頻行人再識別數(shù)據(jù)庫上取得了較高的準(zhǔn)確率。
【圖文】:
是距離學(xué)習(xí)中的一個部分,而另一部分則會使用己經(jīng)成熟的現(xiàn)有算法。在確定了特征提逡逑取方法之后,大部分研究工作都會通過和不同度量學(xué)習(xí)方法的聯(lián)合實(shí)驗來確定最適合當(dāng)逡逑前特征的度量學(xué)習(xí)方法。比如圖2-1中Liu[7]的工作中,首先通過視頻的空間和時序分逡逑割得到一系列的圖像塊來表示視頻,接著通過Fisher■向量的學(xué)習(xí)來獲得視頻的抽象特逡逑征。在得到圖像的特征后,他們通過對歐式距離,KISSME的對比實(shí)驗證明了邋KISSME度逡逑量學(xué)習(xí)在他們的基礎(chǔ)上能夠取得更好的識別準(zhǔn)確率。逡逑_一邋_逡逑Spatial邋^邐TemP0ra'逡逑Segmentation,灥邋fegmentat丨0n逡逑'JSr邋Body-action逡逑,,Unit逡逑Fisher邋Vectors逡逑h-a邋ton逡逑H邋ki邋ton逡逑—Concatenate逡逑. ̄邋-邐,r—..njrrfHTl逡逑圖2-1邋Li#l工作中的視頻特征提取方法圖示逡逑非端對端的方法一般固定一部分方法基礎(chǔ)上,實(shí)現(xiàn)另一部分的最優(yōu),但是并不能保逡逑證是總體模型的最優(yōu)解。所以為了讓特征提取和距離度量學(xué)習(xí)能夠有效的進(jìn)行聯(lián)合優(yōu)化,逡逑獲得整體行人再識別算法的最優(yōu)識別率
和度量學(xué)習(xí)融合在一個模型中,,實(shí)現(xiàn)端對端的訓(xùn)練,不僅讓兩個步驟的優(yōu)化更加協(xié)調(diào),逡逑同時可以實(shí)現(xiàn)整體模型的最優(yōu)。McLaughlin等人a的工作是典型的基于深度學(xué)習(xí)的端對逡逑端模型,由圖2-2所示。逡逑Ident.邋Cost邋Siamese邋Cost邋Ident.邋Cost逡逑t邐ft邋i邋-....邋V逡逑Seq.邋Feature邋邐邋邐邋Seq.邋Feature逡逑t邐t逡逑Temporal邋Pooling邐Temporal邋Pooling逡逑t邋t邋t邐t邋t邋t逡逑RNN邋-?邋RNN邋-?fRNN^邐|邋RNN邋^邋RNN邋k邋RNN逡逑 ̄t ̄ ̄邋 ̄r ̄邋 ̄i ̄邐 ̄ ̄r ̄邋 ̄ ̄r ̄邋 ̄r ̄逡逑CNN邋CNN邋i邋|邋CNN邋[邐[邋CNN邋CNN邋CNN逡逑h邐9邐h邐it邐if邐m逡逑圖2-2端對端模型示例逡逑在此方法中,CNN和RNN是特征提取的部分,而損失函數(shù)的設(shè)計則包含了距離度量學(xué)習(xí)逡逑在其中,最終的測試階段,只需要比較特征間的歐式距離就可以得到行人匹配的結(jié)果。逡逑以目前的研究情況而言,這種基于深度學(xué)習(xí)的端對端模型一般都取得了比傳統(tǒng)非端對端逡逑模型更好的行人再識別的準(zhǔn)確率,同時基于深度學(xué)習(xí)的端對端模型也是當(dāng)下行人再識別逡逑問題的熱點(diǎn)研究方向。逡逑2.3行人再識別算法的評價方法逡逑隨著越來越多的行人再識別算法的涌規(guī),如何評價這些方法的好壞,即如何量化的逡逑評定行人再識別的準(zhǔn)確率,也是研究行人再識別算法中的重要一環(huán)。一般而言,通過在逡逑幾個被認(rèn)可的公開數(shù)據(jù)庫上獲得的識別指標(biāo)的數(shù)值高低
【學(xué)位授予單位】:山東大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2018
【分類號】:TP391.41;TN948.6
本文編號:2664907
【圖文】:
是距離學(xué)習(xí)中的一個部分,而另一部分則會使用己經(jīng)成熟的現(xiàn)有算法。在確定了特征提逡逑取方法之后,大部分研究工作都會通過和不同度量學(xué)習(xí)方法的聯(lián)合實(shí)驗來確定最適合當(dāng)逡逑前特征的度量學(xué)習(xí)方法。比如圖2-1中Liu[7]的工作中,首先通過視頻的空間和時序分逡逑割得到一系列的圖像塊來表示視頻,接著通過Fisher■向量的學(xué)習(xí)來獲得視頻的抽象特逡逑征。在得到圖像的特征后,他們通過對歐式距離,KISSME的對比實(shí)驗證明了邋KISSME度逡逑量學(xué)習(xí)在他們的基礎(chǔ)上能夠取得更好的識別準(zhǔn)確率。逡逑_一邋_逡逑Spatial邋^邐TemP0ra'逡逑Segmentation,灥邋fegmentat丨0n逡逑'JSr邋Body-action逡逑,,Unit逡逑Fisher邋Vectors逡逑h-a邋ton逡逑H邋ki邋ton逡逑—Concatenate逡逑. ̄邋-邐,r—..njrrfHTl逡逑圖2-1邋Li#l工作中的視頻特征提取方法圖示逡逑非端對端的方法一般固定一部分方法基礎(chǔ)上,實(shí)現(xiàn)另一部分的最優(yōu),但是并不能保逡逑證是總體模型的最優(yōu)解。所以為了讓特征提取和距離度量學(xué)習(xí)能夠有效的進(jìn)行聯(lián)合優(yōu)化,逡逑獲得整體行人再識別算法的最優(yōu)識別率
和度量學(xué)習(xí)融合在一個模型中,,實(shí)現(xiàn)端對端的訓(xùn)練,不僅讓兩個步驟的優(yōu)化更加協(xié)調(diào),逡逑同時可以實(shí)現(xiàn)整體模型的最優(yōu)。McLaughlin等人a的工作是典型的基于深度學(xué)習(xí)的端對逡逑端模型,由圖2-2所示。逡逑Ident.邋Cost邋Siamese邋Cost邋Ident.邋Cost逡逑t邐ft邋i邋-....邋V逡逑Seq.邋Feature邋邐邋邐邋Seq.邋Feature逡逑t邐t逡逑Temporal邋Pooling邐Temporal邋Pooling逡逑t邋t邋t邐t邋t邋t逡逑RNN邋-?邋RNN邋-?fRNN^邐|邋RNN邋^邋RNN邋k邋RNN逡逑 ̄t ̄ ̄邋 ̄r ̄邋 ̄i ̄邐 ̄ ̄r ̄邋 ̄ ̄r ̄邋 ̄r ̄逡逑CNN邋CNN邋i邋|邋CNN邋[邐[邋CNN邋CNN邋CNN逡逑h邐9邐h邐it邐if邐m逡逑圖2-2端對端模型示例逡逑在此方法中,CNN和RNN是特征提取的部分,而損失函數(shù)的設(shè)計則包含了距離度量學(xué)習(xí)逡逑在其中,最終的測試階段,只需要比較特征間的歐式距離就可以得到行人匹配的結(jié)果。逡逑以目前的研究情況而言,這種基于深度學(xué)習(xí)的端對端模型一般都取得了比傳統(tǒng)非端對端逡逑模型更好的行人再識別的準(zhǔn)確率,同時基于深度學(xué)習(xí)的端對端模型也是當(dāng)下行人再識別逡逑問題的熱點(diǎn)研究方向。逡逑2.3行人再識別算法的評價方法逡逑隨著越來越多的行人再識別算法的涌規(guī),如何評價這些方法的好壞,即如何量化的逡逑評定行人再識別的準(zhǔn)確率,也是研究行人再識別算法中的重要一環(huán)。一般而言,通過在逡逑幾個被認(rèn)可的公開數(shù)據(jù)庫上獲得的識別指標(biāo)的數(shù)值高低
【學(xué)位授予單位】:山東大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2018
【分類號】:TP391.41;TN948.6
【相似文獻(xiàn)】
相關(guān)期刊論文 前2條
1 林麗玉;翁祖茂;;基于改進(jìn)的BRNN網(wǎng)絡(luò)的二級結(jié)構(gòu)預(yù)測[J];儀器儀表學(xué)報;2006年S1期
2 林麗玉;黃高昂;左瑞娟;;改進(jìn)的新BRNN網(wǎng)絡(luò)集成及其二級結(jié)構(gòu)預(yù)測的研究[J];計算機(jī)與應(yīng)用化學(xué);2008年08期
相關(guān)碩士學(xué)位論文 前1條
1 喻曉東;基于BRNN和注意力機(jī)制的視頻行人再識別方法研究[D];山東大學(xué);2018年
本文編號:2664907
本文鏈接:http://sikaile.net/kejilunwen/wltx/2664907.html
最近更新
教材專著