基于分布式深度學習系統(tǒng)的視頻動作識別
本文關(guān)鍵詞:基于分布式深度學習系統(tǒng)的視頻動作識別 出處:《中國科學技術(shù)大學》2017年碩士論文 論文類型:學位論文
更多相關(guān)文章: 分布式 深度學習 卷積 神經(jīng)網(wǎng)絡 遞 歸 神經(jīng)網(wǎng)絡 視頻動作識 別
【摘要】:視頻動作識別是指視頻中人物動作的識別,它是解決視頻監(jiān)控、人機交互、視頻情感分析等問題的基礎(chǔ),也是深度學習研究的熱門領(lǐng)域。隨著視頻動作識別需求的日益增長,如何構(gòu)建一個高效快捷的大規(guī)模視頻動作識別框架、設計一個具有更好效果的視頻動作識別模型在現(xiàn)階段顯得尤為重要,而且這兩種情況至今都沒有統(tǒng)一的解決方案。針對以上的兩種問題,本文進行了深入的研究,實現(xiàn)了基于遠程GPU調(diào)用的分布式深度學習系統(tǒng),提出了改進的視頻動作識別模型。最終利用分布式深度學習系統(tǒng)訓練改進的視頻動作識別模型分別驗證兩者的可行性和有效性。本文的主要研究內(nèi)容如下:1.利用API重定向的虛擬化方法構(gòu)建遠程GPU調(diào)用,并在此基礎(chǔ)上實現(xiàn)深度神經(jīng)網(wǎng)絡的加速訓練。在ZeroMQ構(gòu)建的分布式系統(tǒng)上實現(xiàn)多個GPU遠程調(diào)用,形成基于多個GPU遠程調(diào)用的分布式深度學習系統(tǒng),并在深度學習庫cuDNN、P2P、網(wǎng)絡通信等方面實現(xiàn)改進。這種方法構(gòu)建的分布式深度學習系統(tǒng)可以用來做大規(guī)模視頻動作識別框架,其最大的好處為單機多GPU的代碼不需要修改或者只需要少量修改就可以實現(xiàn)快速的分布式拓展。2.改進傳統(tǒng)的視頻動作方法,設計不需要手動設計特征的新模型iRCN。該模型利用全局的采樣特征,將視頻分成不同的時間階段進行圖片采樣。利用3D_CNN提取視頻每個階段的運動特征。然后利用biLSTM獲得所有運動特征在時間域上的相關(guān)性,最后把Softmax作為損失函數(shù)。最終iRCN模型在數(shù)據(jù)集UCF-101和HDMB-51上分別獲得85.6%和56.6%的正確率。這是目前為止,在所有不借助手動設計特征的視頻動作識別方法中最高的正確率。3.在分布式深度學習系統(tǒng)上可以實現(xiàn)數(shù)據(jù)并行和模型并行的快速分布式拓展。利用分布式深度學習系統(tǒng)對改進的視頻動作識別模型進行有效的訓練,訓練內(nèi)容主要包括兩個方面,分別為基于改進MapReduce的視頻特征提取和完整模型的分布式訓練。分布式深度學習系統(tǒng)可以有效的提高視頻特征的提取速度,實驗同時可以驗證分布式深度學習系統(tǒng)和改進視頻動作識R%模型的可行性和有效性。最后利用模型并行的分布式拓展說明分布式深度學習系統(tǒng)的優(yōu)缺點。
[Abstract]:Video action recognition is the recognition of characters in video, which is the basis of video monitoring, human-computer interaction, video emotional analysis and so on. With the increasing demand of video motion recognition, how to construct an efficient and fast large-scale video motion recognition framework. The design of a better video action recognition model is particularly important at this stage, and there is no unified solution for these two situations. In this paper, a distributed deep learning system based on remote GPU call is implemented. An improved video action recognition model is proposed. Finally, the improved video action recognition model is trained by distributed depth learning system to verify the feasibility and effectiveness of the two models. The main contents of this paper are as follows:. 1.Building remote GPU calls using the virtualization method of API redirection. On the basis of this, the accelerated training of deep neural network is realized, and multiple GPU remote calls are realized on the distributed system built by ZeroMQ. A distributed deep learning system based on multiple GPU remote calls is formed and a P2P system is built in the deep learning library cuDNNs. The distributed depth learning system constructed by this method can be used to make large-scale video motion recognition framework. The biggest benefit is that the code of single machine with multiple GPU need not be modified or only need a small amount of modification to achieve a fast distributed extension. 2. Improve the traditional video action method. A new model, iRCNs, that does not require manual design features is designed. The model utilizes global sampling features. The video is divided into different time stages for image sampling. 3D biLSTM is used to extract the motion features of each stage of the video. Then biLSTM is used to obtain the correlation of all the motion features in the time domain. Finally, Softmax is taken as the loss function. Finally, the accuracy of the iRCN model on the dataset UCF-101 and HDMB-51 is 85.6% and 56.6% respectively. Stop. In all the video action recognition methods without manual design features, the highest correct rate. 3. In the distributed depth learning system, data parallelism and model parallelism can be implemented in a fast distributed extension. The improved video motion recognition model is trained effectively by the degree learning system. The training content mainly includes two aspects. Video feature extraction based on improved MapReduce and distributed training of complete model. Distributed depth learning system can effectively improve the speed of video feature extraction. The experiments can also verify the feasibility and effectiveness of the distributed depth learning system and improve the video motion recognition R% model. Finally, the advantages and disadvantages of the distributed depth learning system are illustrated by parallel distributed extension of the model.
【學位授予單位】:中國科學技術(shù)大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:TP391.41
【參考文獻】
相關(guān)期刊論文 前10條
1 楊經(jīng)緯;馬凱;龍翔;;面向集群環(huán)境的虛擬化GPU計算平臺[J];北京航空航天大學學報;2016年11期
2 薛鵬飛;胡榮貴;胡勁松;;基于ZeroMQ的分布式系統(tǒng)通信方法[J];計算機應用;2015年S2期
3 楊寧;;基于多GPU并行框架的DNN語音識別研究[J];南京曉莊學院學報;2015年06期
4 張玉潔;呂相文;張云洲;;GPU虛擬化環(huán)境下的數(shù)據(jù)通信策略研究[J];計算機技術(shù)與發(fā)展;2015年08期
5 顧乃杰;趙增;呂亞飛;張致江;;基于多GPU的深度神經(jīng)網(wǎng)絡訓練算法[J];小型微型計算機系統(tǒng);2015年05期
6 夏飛;;一種真實場景下的防火墻TCP參數(shù)調(diào)優(yōu)方法[J];網(wǎng)絡安全技術(shù)與應用;2015年05期
7 馬浩然;;基于NS3的分布式消息系統(tǒng)Kafka的仿真實現(xiàn)[J];軟件;2015年01期
8 賈世杰;楊東坡;劉金環(huán);;基于卷積神經(jīng)網(wǎng)絡的商品圖像精細分類[J];山東科技大學學報(自然科學版);2014年06期
9 盛沖沖;胡新明;李佳佳;吳百鋒;;面向節(jié)點異構(gòu)GPU集群的編程框架[J];計算機工程;2015年02期
10 王剛;唐杰;武港山;;基于多GPU集群的編程框架[J];計算機技術(shù)與發(fā)展;2014年01期
相關(guān)博士學位論文 前2條
1 駱濤;面向大數(shù)據(jù)處理的并行計算模型及性能優(yōu)化[D];中國科學技術(shù)大學;2015年
2 石林;GPU通用計算虛擬化方法研究[D];湖南大學;2012年
相關(guān)碩士學位論文 前7條
1 吳杰;基于卷積神經(jīng)網(wǎng)絡的行為識別研究[D];電子科技大學;2015年
2 張玉潔;基于多GPGPU并行計算的虛擬化技術(shù)研究[D];南京航空航天大學;2015年
3 鄭帥;基于Socket的游戲服務器的設計與實現(xiàn)[D];北京交通大學;2014年
4 高曉婷;基于AMQP的信息發(fā)布與訂閱[D];浙江工業(yè)大學;2013年
5 朱民新;基于Zeromq的分布式存儲系統(tǒng)設計[D];復旦大學;2013年
6 徐超;大型互聯(lián)網(wǎng)公司分布式消息系統(tǒng)的設計與實施[D];復旦大學;2013年
7 夏業(yè)添;虛擬化環(huán)境下的隱蔽信道研究[D];上海交通大學;2013年
,本文編號:1428149
本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/1428149.html