天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

基于遷移學(xué)習(xí)的跨領(lǐng)域行為識別研究

發(fā)布時(shí)間:2017-03-29 07:10

  本文關(guān)鍵詞:基于遷移學(xué)習(xí)的跨領(lǐng)域行為識別研究,由筆耕文化傳播整理發(fā)布。


【摘要】:行為識別是近些年計(jì)算機(jī)視覺的一個(gè)熱門研究領(lǐng)域,受到很多學(xué)者的關(guān)注。行為識別可以應(yīng)用在視頻監(jiān)控、視頻檢索、人機(jī)交互、軍事、安防、醫(yī)療診斷、工業(yè)檢測、交通管理、運(yùn)動分析、生物學(xué)等眾多領(lǐng)域,具有非常廣闊的應(yīng)用前景及經(jīng)濟(jì)價(jià)值。傳統(tǒng)的分類方法通常需要保證測試樣本和訓(xùn)練樣本具有相同的分布,而且在訓(xùn)練樣本充足的情況下才能訓(xùn)練出一個(gè)可靠的分類模型。對于一個(gè)訓(xùn)練樣本數(shù)量較少的新的領(lǐng)域,傳統(tǒng)的分類方法無法獲得良好的分類模型。這就需要利用遷移學(xué)習(xí)的方法,通過相關(guān)源領(lǐng)域的知識來輔助目標(biāo)領(lǐng)域提升分類系統(tǒng)的性能。但是,不同領(lǐng)域的數(shù)據(jù)通常具有不同的分布,因此需要通過從源領(lǐng)域中選取接近目標(biāo)領(lǐng)域數(shù)據(jù)的樣本,或者將不同領(lǐng)域數(shù)據(jù)的特征映射到同一個(gè)空間,才能進(jìn)行下一步的分類訓(xùn)練。為了解決不同領(lǐng)域數(shù)據(jù)的特征分布不同的問題,本文提出了基于協(xié)同矩陣分解聯(lián)合拉普拉斯正則項(xiàng)的跨領(lǐng)域行為識別方法。首先,利用協(xié)同矩陣分解技術(shù)將源領(lǐng)域和目標(biāo)領(lǐng)域數(shù)據(jù)的特征映射至一個(gè)共同的潛在的語義空間,然后為了使語義表示更具鑒別能力,通過利用領(lǐng)域間的標(biāo)簽一致性以及每個(gè)領(lǐng)域的局部結(jié)構(gòu)信息,增加了拉普拉斯正則項(xiàng)。該算法在獲得語義空間的同時(shí),也能學(xué)習(xí)到兩個(gè)線性映射矩陣以及一個(gè)線性分類器。對于一個(gè)測試樣本,可以通過相應(yīng)的線性映射矩陣直接得到其語義表示,并通過線性分類器獲得其類別信息。為了驗(yàn)證算法的性能,實(shí)驗(yàn)選取UCF-101數(shù)據(jù)集作為目標(biāo)領(lǐng)域,HMDB51數(shù)據(jù)集作為源領(lǐng)域,實(shí)驗(yàn)結(jié)果驗(yàn)證了所提出方法的有效性。
【關(guān)鍵詞】:行為識別 遷移學(xué)習(xí) 協(xié)同矩陣分解 拉普拉斯正則項(xiàng) 分類器
【學(xué)位授予單位】:安徽大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP391.41
【目錄】:
  • 摘要3-4
  • Abstract4-8
  • 第一章 緒論8-14
  • 1.1 課題研究背景及意義8-9
  • 1.2 課題的研究現(xiàn)狀9-11
  • 1.2.1 國外研究現(xiàn)狀9-10
  • 1.2.2 國內(nèi)研究現(xiàn)狀10-11
  • 1.3 本文研究內(nèi)容與組織結(jié)構(gòu)11-14
  • 1.3.1 本文研究內(nèi)容11-12
  • 1.3.2 本文組織結(jié)構(gòu)12-14
  • 第二章 行為識別方法研究14-26
  • 2.1 引言14
  • 2.2 行為識別的特征提取及表示14-19
  • 2.2.1 全局特征15-17
  • 2.2.2 局部特征17-19
  • 2.3 行為識別的方法19-24
  • 2.3.1 直接分類法19-20
  • 2.3.2 狀態(tài)空間法20-21
  • 2.3.3 字典學(xué)習(xí)方法21-24
  • 2.4 行為識別過程中的難點(diǎn)問題24-25
  • 2.5 本章小結(jié)25-26
  • 第三章 遷移學(xué)習(xí)26-34
  • 3.1 引言26-27
  • 3.2 遷移學(xué)習(xí)的劃分27-29
  • 3.3 遷移學(xué)習(xí)的三種方法29-33
  • 3.3.1 基于實(shí)例的遷移學(xué)習(xí)方法29-30
  • 3.3.2 基于特征選擇的遷移學(xué)習(xí)方法30-31
  • 3.3.3 基于特征映射的遷移學(xué)習(xí)方法31-33
  • 3.4 本章小結(jié)33-34
  • 第四章 基于協(xié)同矩陣分解聯(lián)合拉普拉斯正則項(xiàng)的跨領(lǐng)域行為識別算法34-48
  • 4.1 引言34-35
  • 4.2 CMFGLR算法35-40
  • 4.2.1 重建誤差35-36
  • 4.2.2 線性映射誤差36
  • 4.2.3 拉普拉斯正則項(xiàng)36-38
  • 4.2.4 分類誤差38
  • 4.2.5 整體目標(biāo)函數(shù)38-40
  • 4.3 數(shù)據(jù)集介紹40-42
  • 4.4 實(shí)驗(yàn)結(jié)果與分析42-47
  • 4.5 本章小結(jié)47-48
  • 第五章 總結(jié)與展望48-50
  • 5.1 總結(jié)48-49
  • 5.2 展望49-50
  • 參考文獻(xiàn)50-55
  • 致謝55-56
  • 攻讀碩士學(xué)位期間發(fā)表的論文和參加的科研項(xiàng)目56

【相似文獻(xiàn)】

中國期刊全文數(shù)據(jù)庫 前10條

1 李寧;須德;傅曉英;袁玲;;結(jié)合人體運(yùn)動特征的行為識別[J];北京交通大學(xué)學(xué)報(bào);2009年02期

2 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測模型的多人行為識別[J];清華大學(xué)學(xué)報(bào)(自然科學(xué)版);2009年07期

3 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識別與理解研究綜述[J];計(jì)算機(jī)應(yīng)用與軟件;2011年11期

4 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識別算法[J];光電子.激光;2013年08期

5 鄭胤;陳權(quán)崎;章毓晉;;深度學(xué)習(xí)及其在目標(biāo)和行為識別中的新進(jìn)展[J];中國圖象圖形學(xué)報(bào);2014年02期

6 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識別的新方法[J];昆明理工大學(xué)學(xué)報(bào)(理工版);2009年06期

7 谷軍霞;丁曉青;王生進(jìn);;基于人體行為3D模型的2D行為識別[J];自動化學(xué)報(bào);2010年01期

8 李英杰;尹怡欣;鄧飛;;一種有效的行為識別視頻特征[J];計(jì)算機(jī)應(yīng)用;2011年02期

9 王新旭;;基于視覺的人體行為識別研究[J];中國新通信;2012年21期

10 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動用戶行為識別中的應(yīng)用[J];北京郵電大學(xué)學(xué)報(bào);2014年S1期

中國重要會議論文全文數(shù)據(jù)庫 前7條

1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識別技術(shù)研究[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年

2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識別[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年

3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識別[A];2007中國控制與決策學(xué)術(shù)年會論文集[C];2007年

4 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡單人物行為識別研究[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年

5 安國成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動歷史圖的異常行為識別算法[A];第八屆中國智能交通年會優(yōu)秀論文集——智能交通與安全[C];2013年

6 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動用戶行為識別中的應(yīng)用研究[A];2013年全國通信軟件學(xué)術(shù)會議論文集[C];2013年

7 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會行為自動日志[A];第18屆全國多媒體學(xué)術(shù)會議(NCMT2009)、第5屆全國人機(jī)交互學(xué)術(shù)會議(CHCI2009)、第5屆全國普適計(jì)算學(xué)術(shù)會議(PCC2009)論文集[C];2009年

中國重要報(bào)紙全文數(shù)據(jù)庫 前4條

1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日報(bào);2001年

2 農(nóng)發(fā)行鹿邑支行黨支部書記 行長 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日報(bào);2007年

3 東林;行為識別新技術(shù)讓監(jiān)控沒有“死角”[N];人民公安報(bào);2007年

4 田凱 徐蕊 李政育 信木祥;博物館安全的國際經(jīng)驗(yàn)[N];中國文物報(bào);2014年

中國博士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 邵延華;基于計(jì)算機(jī)視覺的人體行為識別研究[D];重慶大學(xué);2015年

2 仝鈺;基于條件隨機(jī)場的智能家居行為識別研究[D];大連海事大學(xué);2015年

3 馮銀付;多模態(tài)人體行為識別技術(shù)研究[D];浙江大學(xué);2015年

4 姜新波;基于三維骨架序列的人體行為識別研究[D];山東大學(xué);2015年

5 韓姍姍;基于視覺的運(yùn)動人體特征描述與行為識別研究[D];浙江工業(yè)大學(xué);2015年

6 何衛(wèi)華;人體行為識別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年

7 吳秋霞;復(fù)雜場景下的人體行為識別[D];華南理工大學(xué);2012年

8 于成龍;基于視頻的人體行為識別關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2014年

9 王亮;基于判別模式學(xué)習(xí)的人體行為識別方法研究[D];哈爾濱工業(yè)大學(xué);2011年

10 付朝霞;基于視頻流的人體目標(biāo)檢測與行為識別研究[D];中北大學(xué);2013年

中國碩士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 唐小琴;基于全局和局部運(yùn)動模式的人體行為識別研究[D];西南大學(xué);2015年

2 胡秋揚(yáng);可穿戴式個(gè)人室內(nèi)位置和行為監(jiān)測系統(tǒng)[D];浙江大學(xué);2015年

3 陳鈺昕;基于時(shí)空特性的人體行為識別研究[D];燕山大學(xué);2015年

4 任亮;智能車環(huán)境下車輛典型行為識別方法研究[D];長安大學(xué);2015年

5 金澤豪;并行化的人體行為識別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年

6 王呈;穿戴式多傳感器人體日;顒颖O(jiān)測系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年

7 王露;基于稀疏時(shí)空特征的人體行為識別研究[D];蘇州大學(xué);2015年

8 于靜;基于物品信息和人體深度信息的行為識別研究[D];山東大學(xué);2015年

9 章瑜;人體運(yùn)動行為識別相關(guān)方法研究[D];南京師范大學(xué);2015年

10 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年


  本文關(guān)鍵詞:基于遷移學(xué)習(xí)的跨領(lǐng)域行為識別研究,由筆耕文化傳播整理發(fā)布。

,

本文編號:273901

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/273901.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶37b05***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com