基于孿生全卷積網(wǎng)絡的單目標跟蹤方法研究
發(fā)布時間:2021-03-28 15:56
目標跟蹤是視覺系統(tǒng)的基礎技術之一,在視頻監(jiān)控、自動駕駛和人機交互等領域有重要應用;趯\生全卷積網(wǎng)絡的跟蹤方法因其簡潔的架構和良好的性能而成為目標跟蹤的重要方法之一。這類方法先用卷積神經(jīng)網(wǎng)絡進行特征提取,然后用特征進行目標的定位。早期的孿生全卷積網(wǎng)絡跟蹤器都采用淺層的卷積神經(jīng)網(wǎng)絡進行特征提取。這種網(wǎng)絡提取的特征判別力有限,在復雜情況下無法區(qū)分出目標。另外,孿生全卷積網(wǎng)絡跟蹤器需要大量標注的視頻圖像幀進行訓練。圖像中關注的目標只有一個,那么標注數(shù)據(jù)中就會有大量的負樣本產(chǎn)生,而且普通的損失函數(shù)不易學習困難樣本。針對這些問題,本研究進行了如下兩方面的研究:1.針對淺層卷積神經(jīng)網(wǎng)絡特征判別力不足的問題,本研究基于可復用各層特征的稠密連接網(wǎng)絡設計了新的孿生全卷積網(wǎng)絡架構。為了適應跟蹤任務,本研究首先分析了主干卷積神經(jīng)網(wǎng)絡中會影響跟蹤結果的因素,然后對原始稠密連接網(wǎng)絡進行了改進,加入了中心裁剪操作去掉卷積填充對跟蹤的影響。另外,結合特征感受野對跟蹤器的影響控制了網(wǎng)絡的輸出特征圖尺寸。多個測試數(shù)據(jù)集上的實驗表明,基于孿生稠密連接網(wǎng)絡改進的跟蹤器取得了更好的跟蹤準確度和魯棒性。2.針對訓練數(shù)據(jù)集中正負...
【文章來源】:重慶郵電大學重慶市
【文章頁數(shù)】:73 頁
【學位級別】:碩士
【部分圖文】:
AlexNet網(wǎng)絡結構
最大
重慶郵電大學碩士學位論文第2章孿生全卷積網(wǎng)絡跟蹤方法的相關理論11圖2.4單隱藏層的神經(jīng)網(wǎng)絡在圖2.4所示的單隱藏層的神經(jīng)網(wǎng)絡中,輸入和輸出個數(shù)分別為3和2,中間的隱藏層中包含了4個隱藏單元(hiddenunit)。由于輸入層不涉及計算,該神經(jīng)網(wǎng)絡的層數(shù)為2。由圖2.4可見,隱藏層中的神經(jīng)元和輸入層中各個輸入完全連接,輸出層中的神經(jīng)元和隱藏層中的各個神經(jīng)元也完全連接。因此,該神經(jīng)網(wǎng)絡中的隱藏層和輸出層都是全連接層。假設有一批輸入樣本∈×,樣本個數(shù)為,每個樣本的輸入特征數(shù)為。單隱藏層神經(jīng)網(wǎng)絡中,隱藏層單元個數(shù)記為,記隱藏層的輸出為,則有∈×。由于隱藏層和輸出層都是全連接層,可以設隱藏層的權重和偏差參數(shù)分別為∈×和∈×,輸出層的權重和偏差參數(shù)分別為∈×和∈×。該神經(jīng)網(wǎng)絡的輸出可以由公式(2.2)和公式(2.3)得到。=+(2.2)=+(2.3)式中,∈×——單隱藏層神經(jīng)網(wǎng)絡輸出值聯(lián)立公式(2.2)和公式(2.3)可以得到計算輸出的公式(2.4)。=++(2.4)從聯(lián)立后的公式可以看出,引入隱藏層的全連接神經(jīng)網(wǎng)絡依然等價于一個單層的神經(jīng)網(wǎng)絡。即便引入更多的隱藏層,這樣的全連接神經(jīng)網(wǎng)絡依然等價于一個線性變換。整個神經(jīng)網(wǎng)絡的表征能力并沒有加強。4.激活函數(shù)卷積層和全連接層都只是對輸入進行了線性變換,多層的線性變換等價于單層的線性變換。這讓網(wǎng)絡的深度成為了無用的指標。為了讓網(wǎng)絡能疊加得更深,從而獲得更強的表征能力,網(wǎng)絡就必須加入非線性變換。池化層可以起到非線性變化的作用,但是這會成倍增加網(wǎng)絡的參數(shù),過多的池化層也會讓網(wǎng)絡丟失更多細節(jié)信息。
【參考文獻】:
期刊論文
[1]視覺目標跟蹤方法研究綜述[J]. 葛寶義,左憲章,胡永江. 中國圖象圖形學報. 2018(08)
[2]深度學習研究綜述[J]. 張榮,李偉平,莫同. 信息與控制. 2018(04)
[3]基于深度學習的視覺跟蹤算法研究綜述[J]. 賈靜平,覃亦華. 計算機科學. 2017(S1)
本文編號:3105836
【文章來源】:重慶郵電大學重慶市
【文章頁數(shù)】:73 頁
【學位級別】:碩士
【部分圖文】:
AlexNet網(wǎng)絡結構
最大
重慶郵電大學碩士學位論文第2章孿生全卷積網(wǎng)絡跟蹤方法的相關理論11圖2.4單隱藏層的神經(jīng)網(wǎng)絡在圖2.4所示的單隱藏層的神經(jīng)網(wǎng)絡中,輸入和輸出個數(shù)分別為3和2,中間的隱藏層中包含了4個隱藏單元(hiddenunit)。由于輸入層不涉及計算,該神經(jīng)網(wǎng)絡的層數(shù)為2。由圖2.4可見,隱藏層中的神經(jīng)元和輸入層中各個輸入完全連接,輸出層中的神經(jīng)元和隱藏層中的各個神經(jīng)元也完全連接。因此,該神經(jīng)網(wǎng)絡中的隱藏層和輸出層都是全連接層。假設有一批輸入樣本∈×,樣本個數(shù)為,每個樣本的輸入特征數(shù)為。單隱藏層神經(jīng)網(wǎng)絡中,隱藏層單元個數(shù)記為,記隱藏層的輸出為,則有∈×。由于隱藏層和輸出層都是全連接層,可以設隱藏層的權重和偏差參數(shù)分別為∈×和∈×,輸出層的權重和偏差參數(shù)分別為∈×和∈×。該神經(jīng)網(wǎng)絡的輸出可以由公式(2.2)和公式(2.3)得到。=+(2.2)=+(2.3)式中,∈×——單隱藏層神經(jīng)網(wǎng)絡輸出值聯(lián)立公式(2.2)和公式(2.3)可以得到計算輸出的公式(2.4)。=++(2.4)從聯(lián)立后的公式可以看出,引入隱藏層的全連接神經(jīng)網(wǎng)絡依然等價于一個單層的神經(jīng)網(wǎng)絡。即便引入更多的隱藏層,這樣的全連接神經(jīng)網(wǎng)絡依然等價于一個線性變換。整個神經(jīng)網(wǎng)絡的表征能力并沒有加強。4.激活函數(shù)卷積層和全連接層都只是對輸入進行了線性變換,多層的線性變換等價于單層的線性變換。這讓網(wǎng)絡的深度成為了無用的指標。為了讓網(wǎng)絡能疊加得更深,從而獲得更強的表征能力,網(wǎng)絡就必須加入非線性變換。池化層可以起到非線性變化的作用,但是這會成倍增加網(wǎng)絡的參數(shù),過多的池化層也會讓網(wǎng)絡丟失更多細節(jié)信息。
【參考文獻】:
期刊論文
[1]視覺目標跟蹤方法研究綜述[J]. 葛寶義,左憲章,胡永江. 中國圖象圖形學報. 2018(08)
[2]深度學習研究綜述[J]. 張榮,李偉平,莫同. 信息與控制. 2018(04)
[3]基于深度學習的視覺跟蹤算法研究綜述[J]. 賈靜平,覃亦華. 計算機科學. 2017(S1)
本文編號:3105836
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3105836.html
最近更新
教材專著