天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于深度遷移學(xué)習(xí)的動作識別研究

發(fā)布時間:2021-06-08 06:54
  動作識別是指根據(jù)輸入視頻內(nèi)容判斷出其動作類別標(biāo)簽的視頻分類任務(wù)。動作識別作為視頻理解中橫跨感知與認知的研究領(lǐng)域,在異常檢測、人機交互、視頻檢索等任務(wù)中都充當(dāng)著不可替代的角色。而由于視頻中人類動作本身運動速度、起止時間、外觀姿態(tài)的不確定性,以及光照、視角、人物遮擋等物理因素的干擾,使得要對人類運動進行良好的時空建模成為了一項非常具有挑戰(zhàn)性的任務(wù)。在主流動作識別數(shù)據(jù)集的構(gòu)建中,類別的選取具有隨意性,導(dǎo)致同一數(shù)據(jù)集中類別重復(fù)、類別之間視覺相似性迥異的情況時有發(fā)生。時空卷積模型的高冗余性和標(biāo)注樣本數(shù)量的缺乏,使得類別可分性不均衡問題在動作識別任務(wù)中對分類性能的干擾尤為嚴重,F(xiàn)有的動作識別方法主要偏重于如何提取精準(zhǔn)且高效的運動時空特征,而忽略了任務(wù)本身定義的合理性。小樣本任務(wù)的提出旨在使得機器學(xué)習(xí)緩解其大樣本依賴問題,與人類一樣能夠有效利用過去所學(xué)的知識,從而在只擁有少量標(biāo)記樣本的新任務(wù)場景中具有快速學(xué)習(xí)的能力。視頻內(nèi)容的多樣性和動作本身的抽象性使得小樣本任務(wù)中的運動特征極難抽取,F(xiàn)有小樣本動作分類方法通過引入時序特征融合模塊以增加視頻特征的準(zhǔn)確性,但依舊缺乏對類內(nèi)特征分布的顯式約束。本文針對動... 

【文章來源】:中國科學(xué)院大學(xué)(中國科學(xué)院大學(xué)人工智能學(xué)院)北京市

【文章頁數(shù)】:71 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于深度遷移學(xué)習(xí)的動作識別研究


圖1.1動作識別示例??Figure?1.1?An?example?of?action?recognition??動作識別作為計算機視覺中承上啟下的關(guān)鍵性研宄領(lǐng)域,既需要以底層的光??

實例圖,實例,邊緣概率,數(shù)據(jù)特征


基于關(guān)系的??遷移。由于本文涉及到的方法主要是基于特征和模型的遷移,所以其他方法就不??一一贅述了。??2.2.?2.1基于特征的遷移學(xué)習(xí)??基于特征的迀移學(xué)習(xí)方法通常通過縮小源領(lǐng)域和目標(biāo)領(lǐng)域數(shù)據(jù)特征分布之??間的差異以達到特征遷移的目的。數(shù)據(jù)特征分布之間的差異主要體現(xiàn)在特征空間、??邊緣概率分布或者條件概率分布的三個層面。邊緣概率體現(xiàn)在數(shù)據(jù)特征整體分布??不同,用于表示領(lǐng)域之間的相似性;而條件分布體現(xiàn)在具體到各個類別里的數(shù)據(jù)??分布不同,用于表示任務(wù)之間的相似性。兩者的差異如圖2.1所示。???,暴:馨則屬??目標(biāo)域數(shù)據(jù):?H標(biāo)域數(shù)據(jù):??wmns?邊緣概率分布不同?條件概率分布不同??圖2.1實例特征分布差異叫??Figure?2.1?The?distribution?difference?of?the?source?and?the?target?domain??instances?丨36?丨??在傳統(tǒng)的遷移學(xué)習(xí)中被廣泛使用的遷移成分分析|37]假設(shè)存在某種映射,可以??使得映射后的數(shù)據(jù)邊緣分布相似。最大均值差異(Maximum?Mean?Discrepancy,??MMD)?Ml通過在再生希爾伯特空間的樣本平均值的差異來量化兩個分布之間的??差異,在遷移學(xué)習(xí)中被廣泛使用,也是TCA使用的度量方法。其形式化定義如??公式2.1所示:??MMD(XS,XT)?lllf?...?(2.1)??近年來的很多方法開始將其擴展到深度網(wǎng)絡(luò)中。文獻[39]在AlexNet的最后??一個全連接層之前引入自適應(yīng)層和附加的MMD損失函數(shù),來最小化不同領(lǐng)域之??間的距離。文獻[40]通過MMD的改進版本——多核MMD來對

架構(gòu)圖,架構(gòu),時序,視頻


別性能雖然得到了提升,但是光流只能表示相鄰視頻幀之間的運動變化,簡單的??雙流架構(gòu)并不具有抓取長時間運動信息的能力。??Video?Snippets?Temporal?Segment?Networks??■露二二??HgjU—BSSSi—卜?\??卜—丨》丨丨I丨I酬\??■'I?肀■:?、徽??mm?*?fj?????J?W??m?...?,?n.???..n?mm,?-?■■■?.mi.?■iim.i?...?■?m—?■■i?—??i■■?"■?■■■?i?m■■i?m…??圖2.?2時序分割網(wǎng)絡(luò)架構(gòu)[6]??Figure?2.2?The?framework?of?temporal?segment?network1”??對于視頻來說,相鄰幀信息高度過剩,以往的密集采樣并不是必須;所以王??利民于16年提出TSN161對所輸入的視頻幀進行稀疏的全局采樣,以盡可能保留??每個階段的運動特征。其網(wǎng)絡(luò)架構(gòu)如圖2.2所示,首先將視頻分成固定數(shù)目的片??13??


本文編號:3217902

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3217902.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶64d4a***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com