判別遷移學習下的跨視角動作識別方法
本文關鍵詞:判別遷移學習下的跨視角動作識別方法
【摘要】:視頻中的人體動作識別是計算機視覺和模式識別領域的熱點問題,在人機交互、智能監(jiān)控、視頻檢索、虛擬現(xiàn)實等方面都擁有廣闊的應用前景。傳統(tǒng)的動作識別方法大多基于同一視角的假設,在固定的視角下提取動作特征并構(gòu)建識別模型。然而,在真實的應用場景中,隨著拍攝角度的變化,同一動作的人體形態(tài)和運動軌跡均會發(fā)生激變,相應的數(shù)據(jù)分布和所在的特征空間也會發(fā)生改變。這種視角的變動對于傳統(tǒng)的動作識別算法是一個極大的挑戰(zhàn),將導致特定視角下訓練得到的模型難以適應新視角中的動作識別。本文提出了一種有效的跨視角動作識別方法,能夠處理不同視角下處于不同特征空間的動作樣本。結(jié)合遷移學習的思想,通過尋找一個具有判別力的公共子空間,將源視角和目標視角進行橋連。利用兩個不同的特征映射矩陣,分別將不同視角下的所有動作數(shù)據(jù)投影到這個隱含的公共子空間中,使得相同類別動作的相似度最大化,不同類別動作的相似度最小化。由于不同的特征空間通常擁有不同的數(shù)據(jù)分布,本文在構(gòu)建公共子空間的過程中加入了分布差異約束,有效減小了不同視角間的數(shù)據(jù)分布差異。同時,本文提出了局部保持約束,在映射的過程中保持了樣本原有的局部流形結(jié)構(gòu)。這樣的線性變換可以被很容易地擴展到相應的核空間,而動作樣本通過非線性函數(shù)映射到高維核空間中所表現(xiàn)出的數(shù)據(jù)特性,能夠進一步增強公共子空間所具有的判別能力。本文提出的方法不依賴于任何視角間的樣本對應關系,也不局限于特定的動作表示,能夠在很大程度上滿足不同應用場景的需求。實驗結(jié)果證明了該方法的有效性。鑒于單源視角提供的信息可能相對片面,本文提出了一種融合多個源視角信息的多源遷移學習方法。該方法能夠同時利用多個源視角中大量的標注樣本,將其中包含的所有動作信息進行融合,通過知識遷移共同作用于目標視角下的動作識別過程,有效處理目標視角中標注樣本不足甚至缺失的情況。實驗結(jié)果表明,融合多個源視角信息的多源遷移學習方法能夠有效地提高跨視角動作識別準確率。
【關鍵詞】:跨視角動作識別 遷移學習 判別分析
【學位授予單位】:北京理工大學
【學位級別】:碩士
【學位授予年份】:2016
【分類號】:TP391.41
【目錄】:
- 摘要5-6
- Abstract6-10
- 第1章 緒論10-13
- 1.1 研究意義10-11
- 1.2 研究內(nèi)容11-12
- 1.3 論文結(jié)構(gòu)12-13
- 第2章 研究現(xiàn)狀13-22
- 2.1 引言13
- 2.2 跨視角動作識別13-17
- 2.3 遷移學習17-22
- 2.3.1 同構(gòu)遷移學習18-19
- 2.3.2 異構(gòu)遷移學習19-22
- 第3章 單源知識遷移的跨視角動作識別22-42
- 3.1 引言22-24
- 3.2 異構(gòu)空間下的線性判別分析24-28
- 3.2.1 總散度矩陣25
- 3.2.2 類間散度矩陣25-26
- 3.2.3 分布差異約束26
- 3.2.4 局部保持約束26-27
- 3.2.5 模型求解27-28
- 3.3 異構(gòu)空間下的核判別分析28-31
- 3.3.1 總散度矩陣29
- 3.3.2 類間散度矩陣29-30
- 3.3.3 分布差異約束30
- 3.3.4 局部保持約束30-31
- 3.3.5 模型求解31
- 3.4 實驗31-41
- 3.4.1 數(shù)據(jù)庫31-33
- 3.4.2 實驗設置33-35
- 3.4.3 實驗結(jié)果35-41
- 3.5 小結(jié)41-42
- 第4章 多源知識遷移的跨視角動作識別42-51
- 4.1 引言42
- 4.2 多源知識遷移42-47
- 4.2.1 總散度矩陣44-45
- 4.2.2 類間散度矩陣45-46
- 4.2.3 分布差異約束46
- 4.2.4 局部保持約束46
- 4.2.5 模型求解46-47
- 4.3 實驗47-50
- 4.3.1 數(shù)據(jù)庫47
- 4.3.2 實驗設置47-48
- 4.3.3 實驗結(jié)果48-50
- 4.4 小結(jié)50-51
- 總結(jié)與展望51-53
- 工作總結(jié)51-52
- 未來展望52-53
- 參考文獻53-59
- 攻讀學位期間發(fā)表論文與研究成果清單59-60
- 致謝60
【相似文獻】
中國期刊全文數(shù)據(jù)庫 前10條
1 胡雅琴;;動作識別技術(shù)及其發(fā)展[J];電視技術(shù);2013年S2期
2 倪世宏,史忠科,謝川,王彥鴻;軍用戰(zhàn)機機動飛行動作識別知識庫的建立[J];計算機仿真;2005年04期
3 程祥;;人體動作識別的研究[J];電腦知識與技術(shù);2006年20期
4 黃飛躍;徐光yP;;視角無關的動作識別[J];軟件學報;2008年07期
5 徐光yP;曹媛媛;;動作識別與行為理解綜述[J];中國圖象圖形學報;2009年02期
6 黃麗鴻;高智勇;劉海華;;基于脈沖神經(jīng)網(wǎng)絡的人體動作識別[J];現(xiàn)代科學儀器;2012年02期
7 周艷青;王磊;;基于視覺的人體動作識別綜述[J];山東輕工業(yè)學院學報(自然科學版);2012年01期
8 曹琨;;基于檢索表的實時動作識別技術(shù)研究[J];中外企業(yè)家;2014年05期
9 劉博;安建成;;基于關鍵姿勢的人體動作識別[J];電視技術(shù);2014年05期
10 王燕;張紹武;凌志剛;潘泉;;基于圖嵌入線性拓展方法的人體動作識別研究[J];計算機仿真;2008年10期
中國重要會議論文全文數(shù)據(jù)庫 前7條
1 袁飛;程韜波;周松斌;肖先文;;基于加速度特征的可拓動作識別方法[A];廣州市儀器儀表學會2009年學術(shù)年會論文集[C];2010年
2 黃飛躍;徐光yP;;自然的人體動作識別[A];第三屆和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2007)論文集[C];2007年
3 葉喜勇;陶霖密;王國建;邸慧軍;;視角無關的人體軀干動作識別[A];第六屆和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2010)、第19屆全國多媒體學術(shù)會議(NCMT2010)、第6屆全國人機交互學術(shù)會議(CHCI2010)、第5屆全國普適計算學術(shù)會議(PCC2010)論文集[C];2010年
4 黃艷歡;葉少珍;;連續(xù)動作分割綜述[A];第十四屆全國圖象圖形學學術(shù)會議論文集[C];2008年
5 董力賡;陶霖密;徐光yP;;頭部姿態(tài)和動作的識別與理解[A];第三屆和諧人機環(huán)境聯(lián)合學術(shù)會議(HHME2007)論文集[C];2007年
6 朱巖;趙旭;劉允才;;基于稀疏編碼和局部時空特征的人體動作識別[A];第十五屆全國圖象圖形學學術(shù)會議論文集[C];2010年
7 席旭剛;金燕;朱海港;高云園;;基于小波包熵和支持向量機的手部肌電信號動作識別[A];2013年中國智能自動化學術(shù)會議論文集(第五分冊)[C];2013年
中國重要報紙全文數(shù)據(jù)庫 前2條
1 本報記者 陳丹;人與機器的“對話”[N];科技日報;2010年
2 ;凌空敲鍵盤?無線計算機手套問世[N];中國計算機報;2004年
中國博士學位論文全文數(shù)據(jù)庫 前10條
1 諶先敢;現(xiàn)實環(huán)境下的人體動作識別[D];武漢大學;2012年
2 陳淵博;視頻序列中的人體動作識別[D];北京郵電大學;2015年
3 劉翠微;視頻中人的動作分析與理解[D];北京理工大學;2015年
4 陳萌;基于李代數(shù)高斯表示的動作識別方法研究[D];華中科技大學;2016年
5 李擬s,
本文編號:986990
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/986990.html