天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 碩博論文 > 信息類博士論文 >

基于序列深度學(xué)習(xí)的視頻分析:建模表達(dá)與應(yīng)用

發(fā)布時(shí)間:2018-09-01 11:47
【摘要】:近年來,視頻數(shù)據(jù)呈現(xiàn)爆炸式增長。如此大量的視頻數(shù)據(jù)在存儲(chǔ)、識別、共享、編輯、生成等過程中都需要精準(zhǔn)的視頻語義分析技術(shù)。深度學(xué)習(xí)自從2012年以來極大地推動(dòng)了計(jì)算機(jī)視覺領(lǐng)域向前發(fā)展,使得大規(guī)模視頻數(shù)據(jù)的分析成為可能。因此,利用深度學(xué)習(xí)進(jìn)行視頻語義分析的研究也就成為了必然的選擇。目前基于深度學(xué)習(xí)的視頻語義分析基本上分為兩大步:1)利用卷積神經(jīng)網(wǎng)絡(luò)提取出各幀的視覺特征表達(dá);2)利用長短時(shí)遞歸神經(jīng)網(wǎng)絡(luò)(LSTM)對該特征序列進(jìn)行學(xué)習(xí),并表達(dá)為相應(yīng)的語義類別或語義描述。本文在對現(xiàn)有視頻語義分析技術(shù)進(jìn)行全面調(diào)研和總結(jié)的基礎(chǔ)之上,對視頻語義分類和視頻語義描述兩種任務(wù)深度學(xué)習(xí)模型中存在的經(jīng)典問題進(jìn)行了充分的研究。從視頻幀的視覺特征表達(dá)的角度,分別提出了連續(xù)Dropout算法、參數(shù)對圖像變換穩(wěn)健的卷積神經(jīng)網(wǎng)絡(luò)、結(jié)構(gòu)對圖像變換穩(wěn)健的卷積神經(jīng)網(wǎng)絡(luò).從特征融合、特征提取的關(guān)鍵角度進(jìn)一步改善現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)的性能。與此同時(shí),針對序列學(xué)習(xí)中多層遞歸神經(jīng)網(wǎng)絡(luò)訓(xùn)練難、訓(xùn)練慢的問題,提出了以無監(jiān)督逐層貪婪式學(xué)習(xí)的方式進(jìn)行預(yù)訓(xùn)練,有效提升模型性能和模型的訓(xùn)練效率。更進(jìn)一步地,針對現(xiàn)有視頻序列到單詞序列的單向映射框架的局限性,創(chuàng)造性地提出了基于潛在語義表征的多向序列學(xué)習(xí)算法,為基于視頻和句子序列的分析提供了新的視角。本文的主要工作和創(chuàng)新點(diǎn)總結(jié)如下:連續(xù)Dropout Dropout已經(jīng)被證明是一種有效的訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)的算法,其主要的思想為通過在一個(gè)大規(guī)模的卷積神經(jīng)網(wǎng)絡(luò)中屏蔽一些原子,可以同時(shí)訓(xùn)練多個(gè)弱分類器,在預(yù)測階段.可以將這些弱分類器的結(jié)果綜合起來,有效提升卷積神經(jīng)網(wǎng)絡(luò)的性能。人腦中的神經(jīng)元的突觸的信號傳遞強(qiáng)度是連續(xù)隨機(jī)的而不是離散隨機(jī)的,受這種現(xiàn)象的啟發(fā),我們將傳統(tǒng)的二進(jìn)制Dropout擴(kuò)展到連續(xù)Dropout。一方面,連續(xù)Dropout比傳統(tǒng)的二進(jìn)制Dropout更接近人腦中神經(jīng)元的激活特性。另一方面,我們證明連續(xù)Dropout具有避免特征檢測器共同適應(yīng)的特性。這表明我們可以在預(yù)測階段融合更多的獨(dú)立特征檢測器提取出來的特征,從而得到更好的結(jié)果。參數(shù)穩(wěn)健的卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)(CNN)已經(jīng)在許多視覺任務(wù)上獲得了最好的結(jié)果,目前幾乎所有的視覺信息都要用到卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行處理。然而,目前的CNN模型仍然表現(xiàn)出對圖像空間變換的穩(wěn)健性比較差。直觀地,具有有足夠的層數(shù)和參數(shù)卷積神經(jīng)網(wǎng)絡(luò)通過卷積(矩陣乘法和非線性激活)和池操作的分層組合應(yīng)該能夠?qū)W習(xí)從變換輸人圖像到變換不變表示的魯棒映射。我們提出在訓(xùn)練階段隨機(jī)變換(旋轉(zhuǎn)、縮放和平移)CNN的特征圖。這可以降低CNN模型對訓(xùn)練圖像的特定旋轉(zhuǎn),縮放和平移的依賴。相反,每個(gè)卷積核將學(xué)習(xí)到對于其輸人特征圖的多種變換組合中不變的特征。這樣,我們不需要對優(yōu)化過程和訓(xùn)練圖像添加任何額外的監(jiān)督信息或?qū)斎雸D像進(jìn)行修改。通過實(shí)驗(yàn)進(jìn)一步驗(yàn)證了通過隨機(jī)變換進(jìn)行學(xué)習(xí)的CNN對于輸入圖像的變換更加不敏感,在小規(guī)模圖像識別,大規(guī)模圖像識別和圖像檢索上都提升了現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)的性能。結(jié)構(gòu)穩(wěn)健的卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)(CNN)已經(jīng)在許多視覺識別任務(wù)中展現(xiàn)了最好的性能。然而,卷積和池化操作的組合對輸人中有意義目標(biāo)的局部位置變化只顯示出較小的不變性。有時(shí).一些網(wǎng)絡(luò)使用數(shù)據(jù)增強(qiáng)(Data augmentation)的方法來訓(xùn)練網(wǎng)絡(luò),以將這種不變性編碼到網(wǎng)絡(luò)參數(shù)中,但這限制了模型學(xué)習(xí)目標(biāo)內(nèi)容的能力。一種更有效的方式是將對平移或旋轉(zhuǎn)的不變性添加到網(wǎng)絡(luò)架構(gòu)中,從而減輕了模型對參數(shù)學(xué)習(xí)的需要。為了使模型能夠?qū)W⒂趯W(xué)習(xí)其所描述的對象,而不受其位置等影響,我們提出在特征響應(yīng)圖中,通過對局部區(qū)塊進(jìn)行排序,然后再輸入進(jìn)下一層中。當(dāng)區(qū)塊重排序結(jié)合卷積和池操作時(shí),我們對于處于不同位置的輸入圖像中的目標(biāo),獲得了一致的表達(dá)。我們證明了所提出的區(qū)塊排序模塊可以提高CNN對許多基準(zhǔn)任務(wù)的性能,包括MNIST數(shù)字識別、大規(guī)模圖像識別和圖像檢索等。序列的深層遞歸神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)遞歸神經(jīng)網(wǎng)絡(luò)(RNNs)特別是視頻分析中常用的長短時(shí)記憶網(wǎng)絡(luò)(LSTM)的最新發(fā)展已經(jīng)顯示出其對序列數(shù)據(jù)進(jìn)行建模的潛力,特別是在計(jì)算機(jī)視覺和自然語言處理領(lǐng)域。然而,對擁有多層LSTM的深層網(wǎng)絡(luò)的訓(xùn)練效果相對于淺層網(wǎng)絡(luò)并沒有得到期望的提升,同時(shí)收斂速度也比較慢。這種困難源于LSTM的初始化方法,其中基于梯度的優(yōu)化通常會(huì)收斂于較差的局部解。針對此問題,我們探討了無監(jiān)督的LSTM初始化預(yù)訓(xùn)練機(jī)制,充分利用無監(jiān)督預(yù)訓(xùn)練的作用,指導(dǎo)后續(xù)的監(jiān)督訓(xùn)練。在本文中,我們提出了一種新穎的基于編碼器-解碼器的學(xué)習(xí)框架,以貪婪式的逐層訓(xùn)練的方式初始化多層LSTM,其中每個(gè)新增的LSTM層被訓(xùn)練以保留上一層得到的表示中的主要信息。使用我們的預(yù)訓(xùn)練方法訓(xùn)練的多層LSTM勝過隨機(jī)初始化訓(xùn)練的的LSTM,在回歸(加法問題),手寫數(shù)字識別(MNIST),視頻分類(UCF-101)和機(jī)器翻譯WMT'14)等任務(wù)上都取得了更好的效果。此外,使用貪婪的逐層訓(xùn)練方法還將多層LSTM的收斂速度提高了 4倍;诠蚕黼[表征的序列到序列學(xué)習(xí)序列學(xué)習(xí)是深度學(xué)習(xí)的流行研究領(lǐng)域,如視頻字幕和語音識別。現(xiàn)有方法通過首先將輸入序列編碼為固定大小的向量.然后從向量解碼目標(biāo)序列來將該學(xué)習(xí)建模為映射過程。雖然簡單直觀,但是這種映射模型是任務(wù)相關(guān)(task-specific)的,不能直接用于不同的任務(wù)。在本文中,我們?yōu)橥ㄓ煤挽`活的序列到序列學(xué)習(xí)提出了一個(gè)星狀框架,其中不同類型的媒體內(nèi)容(外圍節(jié)點(diǎn))可以被編碼到共享隱表征(sharedlatent represention,SLR),即中央節(jié)點(diǎn)中。這是受到人腦可以以不同的方式學(xué)習(xí)和表達(dá)抽象概念的啟發(fā)。SLR的媒介不變屬性可以被視為中間向量的高級正則化,強(qiáng)制它不僅捕獲每個(gè)單個(gè)媒體內(nèi)的隱式表示,如自動(dòng)編碼器,而且還可以像映射模型一樣進(jìn)行轉(zhuǎn)換。此外,SLR模型是內(nèi)容相關(guān)(content-specific)的,這意味著它只需要對數(shù)據(jù)集進(jìn)行一次訓(xùn)練,同時(shí)用于不同的任務(wù)。我們展示了如何通過dropout訓(xùn)練SLR模型,并將其用于不同的序列到序列任務(wù)。我們的SLR模型在Youtube2Text和MSR-VTT數(shù)據(jù)集上得到驗(yàn)證,實(shí)現(xiàn)了視頻到語句任務(wù)的顯著效果提升,以及首次實(shí)現(xiàn)句子到視頻的結(jié)果。
[Abstract]:In recent years, video data has been explosively growing. Such a large number of video data in the storage, identification, sharing, editing, generation and other processes need accurate video semantic analysis technology. At present, video semantic analysis based on depth learning can be divided into two steps: 1) extracting the visual feature expression of each frame by convolution neural network; 2) learning the feature sequence by using long-short term recurrent neural network (LSTM) and tabulating it. On the basis of a comprehensive survey and summary of existing video semantic analysis techniques, the classical problems in video semantic classification and video semantic description task depth learning models are fully studied. A continuous Dropout algorithm is proposed, which is a convolution neural network whose parameters are robust to image transformation and a convolution neural network whose structure is robust to image transformation. To solve this problem, an unsupervised layer-by-layer greedy learning approach is proposed to improve the model performance and training efficiency. Furthermore, in view of the limitations of the existing one-way mapping framework from video sequences to word sequences, a novel multi-way sequence learning algorithm based on latent semantic representation is proposed creatively. The main work and innovations of this paper are summarized as follows: Continuous Dropout Dropout has been proved to be an effective algorithm for training deep convolutional neural networks. Its main idea is that by shielding some atoms in a large-scale convolutional neural network, it can train more than one atom at a time. Enlightened by this phenomenon, we extend the traditional binary Dropout to continuous Dropout. On the one hand, continuous Dropout is closer to the activation of neurons in the human brain than traditional binary Dropout. On the other hand, we show that continuous Dropout has the property of avoiding the common adaptation of feature detectors. Results. The convolution neural network (CNN) with robust parameters has achieved the best results in many visual tasks. At present, almost all visual information is processed by convolution neural network. However, the current CNN model still shows poor robustness in image spatial transformation. The layered and parametric convolution neural networks based on the combination of convolution (matrix multiplication and nonlinear activation) and pool operation should be able to learn robust mapping from transformed input images to transformed invariant representations. On the contrary, each convolution kernel will learn invariant features in a variety of combinations of transformations for its input feature graph. Thus, we do not need to add any additional supervisory information to the optimization process and training image or modify the input image. CNN learning by machine transformation is more insensitive to the transformation of the input image. In small-scale image recognition, large-scale image recognition and image retrieval, the performance of the existing convolution neural network is improved. The robust convolution neural network convolution neural network (CNN) has shown the best performance in many visual recognition tasks. However, the combination of convolution and pooling operations shows little invariance to the local location of meaningful targets in the input. Sometimes, some networks use data augmentation to train the network to encode this invariance into network parameters, but this limits the ability of the model to learn the target content. In order to make the model concentrate on learning the object it describes, and not be affected by its position, we propose sorting the local blocks in the feature response graph, and then input them in. In the next layer, when block reordering combines convolution and pool operations, we obtain a consistent representation of targets in input images at different locations. We demonstrate that the proposed block reordering module can improve the performance of CNN for many benchmark tasks, including MNIST digital recognition, large-scale image recognition and image retrieval. Recent developments in sequential deep recurrent neural networks learning recurrent neural networks (RNNs), especially the long-and short-term memory networks (LSTMs) commonly used in video analysis, have shown their potential for modeling sequential data, especially in the areas of computer vision and natural language processing. Compared with the shallow network, the effect is not improved and the convergence speed is slow. This difficulty arises from the LSTM initialization method, in which the gradient-based optimization usually converges to the worse local solution. In this paper, we propose a novel encoder-decoder-based learning framework to initialize multi-layer LSTM in a greedy layer-by-layer training manner, in which each new LSTM layer is trained to retain the main information from the upper layer. Practicing multi-layer LSTM outperforms randomly initialized LSTM in terms of regression (additive problem), handwritten numeral recognition (MNIST), video classification (UCF-101) and machine translation (WMT'14). In addition, using greedy layer-by-layer training method, the convergence speed of multi-layer LSTM is increased by four times. Sequence-to-sequence learning sequence learning is a popular area of in-depth learning, such as video caption and speech recognition. Existing methods model the learning process by first encoding the input sequence into a fixed-size vector and then decoding the target sequence from the vector. Although simple and intuitive, this mapping model is task-dependent. In this paper, we propose a star-like framework for generic and flexible sequence-to-sequence learning in which different types of media content (peripheral nodes) can be encoded into shared latent representations (SLRs), or central nodes. The media-invariant properties of SLR can be viewed as high-level regularization of intermediate vectors, forcing it not only to capture implicit representations within each single medium, such as automatic encoders, but also to transform as a mapping model. In addition, the SLR model is content-specific. Our SLR model was validated on YouTube2Text and MSR-VTT datasets to achieve significant results for video-to-statement tasks. Upgrade, and first achieve sentence to video results.
【學(xué)位授予單位】:中國科學(xué)技術(shù)大學(xué)
【學(xué)位級別】:博士
【學(xué)位授予年份】:2017
【分類號】:TP391.41

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 楊曉帥 ,付玫;神經(jīng)網(wǎng)絡(luò)技術(shù)讓管理更輕松[J];軟件世界;2000年11期

2 云中客;新的神經(jīng)網(wǎng)絡(luò)來自于仿生學(xué)[J];物理;2001年10期

3 唐春明,高協(xié)平;進(jìn)化神經(jīng)網(wǎng)絡(luò)的研究進(jìn)展[J];系統(tǒng)工程與電子技術(shù);2001年10期

4 李智;一種基于神經(jīng)網(wǎng)絡(luò)的煤炭調(diào)運(yùn)優(yōu)化方法[J];長沙鐵道學(xué)院學(xué)報(bào);2003年02期

5 程科,王士同,楊靜宇;新型模糊形態(tài)神經(jīng)網(wǎng)絡(luò)及其應(yīng)用研究[J];計(jì)算機(jī)工程與應(yīng)用;2004年21期

6 王凡,孟立凡;關(guān)于使用神經(jīng)網(wǎng)絡(luò)推定操作者疲勞的研究[J];人類工效學(xué);2004年03期

7 周麗暉;從統(tǒng)計(jì)角度看神經(jīng)網(wǎng)絡(luò)[J];統(tǒng)計(jì)教育;2005年06期

8 趙奇 ,劉開第 ,龐彥軍;灰色補(bǔ)償神經(jīng)網(wǎng)絡(luò)及其應(yīng)用研究[J];微計(jì)算機(jī)信息;2005年14期

9 袁婷;;神經(jīng)網(wǎng)絡(luò)在股票市場預(yù)測中的應(yīng)用[J];軟件導(dǎo)刊;2006年05期

10 尚晉;楊有;;從神經(jīng)網(wǎng)絡(luò)的過去談科學(xué)發(fā)展觀[J];重慶三峽學(xué)院學(xué)報(bào);2006年03期

相關(guān)會(huì)議論文 前10條

1 徐春玉;;基于泛集的神經(jīng)網(wǎng)絡(luò)的混沌性[A];1996中國控制與決策學(xué)術(shù)年會(huì)論文集[C];1996年

2 周樹德;王巖;孫增圻;孫富春;;量子神經(jīng)網(wǎng)絡(luò)[A];2003年中國智能自動(dòng)化會(huì)議論文集(上冊)[C];2003年

3 羅山;張琳;范文新;;基于神經(jīng)網(wǎng)絡(luò)和簡單規(guī)劃的識別融合算法[A];2009系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)會(huì)議論文集[C];2009年

4 郭愛克;馬盡文;丁康;;序言(二)[A];1999年中國神經(jīng)網(wǎng)絡(luò)與信號處理學(xué)術(shù)會(huì)議論文集[C];1999年

5 鐘義信;;知識論:神經(jīng)網(wǎng)絡(luò)的新機(jī)遇——紀(jì)念中國神經(jīng)網(wǎng)絡(luò)10周年[A];1999年中國神經(jīng)網(wǎng)絡(luò)與信號處理學(xué)術(shù)會(huì)議論文集[C];1999年

6 許進(jìn);保錚;;神經(jīng)網(wǎng)絡(luò)與圖論[A];1999年中國神經(jīng)網(wǎng)絡(luò)與信號處理學(xué)術(shù)會(huì)議論文集[C];1999年

7 金龍;朱詩武;趙成志;陳寧;;數(shù)值預(yù)報(bào)產(chǎn)品的神經(jīng)網(wǎng)絡(luò)釋用預(yù)報(bào)應(yīng)用[A];1999年中國神經(jīng)網(wǎng)絡(luò)與信號處理學(xué)術(shù)會(huì)議論文集[C];1999年

8 田金亭;;神經(jīng)網(wǎng)絡(luò)在中學(xué)生創(chuàng)造力評估中的應(yīng)用[A];第十二屆全國心理學(xué)學(xué)術(shù)大會(huì)論文摘要集[C];2009年

9 唐墨;王科俊;;自發(fā)展神經(jīng)網(wǎng)絡(luò)的混沌特性研究[A];2009年中國智能自動(dòng)化會(huì)議論文集(第七分冊)[南京理工大學(xué)學(xué)報(bào)(增刊)][C];2009年

10 張廣遠(yuǎn);萬強(qiáng);曹海源;田方濤;;基于遺傳算法優(yōu)化神經(jīng)網(wǎng)絡(luò)的故障診斷方法研究[A];第十二屆全國設(shè)備故障診斷學(xué)術(shù)會(huì)議論文集[C];2010年

相關(guān)重要報(bào)紙文章 前10條

1 美國明尼蘇達(dá)大學(xué)社會(huì)學(xué)博士 密西西比州立大學(xué)國家戰(zhàn)略規(guī)劃與分析研究中心資深助理研究員 陳心想;維護(hù)好創(chuàng)新的“神經(jīng)網(wǎng)絡(luò)硬件”[N];中國教師報(bào);2014年

2 盧業(yè)忠;腦控電腦 驚世駭俗[N];計(jì)算機(jī)世界;2001年

3 葛一鳴 路邊文;人工神經(jīng)網(wǎng)絡(luò)將大顯身手[N];中國紡織報(bào);2003年

4 中國科技大學(xué)計(jì)算機(jī)系 邢方亮;神經(jīng)網(wǎng)絡(luò)挑戰(zhàn)人類大腦[N];計(jì)算機(jī)世界;2003年

5 記者 孫剛;“神經(jīng)網(wǎng)絡(luò)”:打開復(fù)雜工藝“黑箱”[N];解放日報(bào);2007年

6 本報(bào)記者 劉霞;美用DNA制造出首個(gè)人造神經(jīng)網(wǎng)絡(luò)[N];科技日報(bào);2011年

7 健康時(shí)報(bào)特約記者  張獻(xiàn)懷;干細(xì)胞移植:修復(fù)受損的神經(jīng)網(wǎng)絡(luò)[N];健康時(shí)報(bào);2006年

8 劉力;我半導(dǎo)體神經(jīng)網(wǎng)絡(luò)技術(shù)及應(yīng)用研究達(dá)國際先進(jìn)水平[N];中國電子報(bào);2001年

9 ;神經(jīng)網(wǎng)絡(luò)和模糊邏輯[N];世界金屬導(dǎo)報(bào);2002年

10 鄒麗梅 陳耀群;江蘇科大神經(jīng)網(wǎng)絡(luò)應(yīng)用研究通過鑒定[N];中國船舶報(bào);2006年

相關(guān)博士學(xué)位論文 前10條

1 楊旭華;神經(jīng)網(wǎng)絡(luò)及其在控制中的應(yīng)用研究[D];浙江大學(xué);2004年

2 李素芳;基于神經(jīng)網(wǎng)絡(luò)的無線通信算法研究[D];山東大學(xué);2015年

3 石艷超;憶阻神經(jīng)網(wǎng)絡(luò)的混沌性及幾類時(shí)滯神經(jīng)網(wǎng)絡(luò)的同步研究[D];電子科技大學(xué);2014年

4 王新迎;基于隨機(jī)映射神經(jīng)網(wǎng)絡(luò)的多元時(shí)間序列預(yù)測方法研究[D];大連理工大學(xué);2015年

5 付愛民;極速學(xué)習(xí)機(jī)的訓(xùn)練殘差、穩(wěn)定性及泛化能力研究[D];中國農(nóng)業(yè)大學(xué);2015年

6 李輝;基于粒計(jì)算的神經(jīng)網(wǎng)絡(luò)及集成方法研究[D];中國礦業(yè)大學(xué);2015年

7 王衛(wèi)蘋;復(fù)雜網(wǎng)絡(luò)幾類同步控制策略研究及穩(wěn)定性分析[D];北京郵電大學(xué);2015年

8 張海軍;基于云計(jì)算的神經(jīng)網(wǎng)絡(luò)并行實(shí)現(xiàn)及其學(xué)習(xí)方法研究[D];華南理工大學(xué);2015年

9 李艷晴;風(fēng)速時(shí)間序列預(yù)測算法研究[D];北京科技大學(xué);2016年

10 陳輝;多維超精密定位系統(tǒng)建模與控制關(guān)鍵技術(shù)研究[D];東南大學(xué);2015年

相關(guān)碩士學(xué)位論文 前10條

1 章穎;混合不確定性模塊化神經(jīng)網(wǎng)絡(luò)與高校效益預(yù)測的研究[D];華南理工大學(xué);2015年

2 賈文靜;基于改進(jìn)型神經(jīng)網(wǎng)絡(luò)的風(fēng)力發(fā)電系統(tǒng)預(yù)測及控制研究[D];燕山大學(xué);2015年

3 李慧芳;基于憶阻器的渦卷混沌系統(tǒng)及其電路仿真[D];西南大學(xué);2015年

4 陳彥至;神經(jīng)網(wǎng)絡(luò)降維算法研究與應(yīng)用[D];華南理工大學(xué);2015年

5 董哲康;基于憶阻器的組合電路及神經(jīng)網(wǎng)絡(luò)研究[D];西南大學(xué);2015年

6 武創(chuàng)舉;基于神經(jīng)網(wǎng)絡(luò)的遙感圖像分類研究[D];昆明理工大學(xué);2015年

7 李志杰;基于神經(jīng)網(wǎng)絡(luò)的上證指數(shù)預(yù)測研究[D];華南理工大學(xué);2015年

8 陳少吉;基于神經(jīng)網(wǎng)絡(luò)血壓預(yù)測研究與系統(tǒng)實(shí)現(xiàn)[D];華南理工大學(xué);2015年

9 張韜;幾類時(shí)滯神經(jīng)網(wǎng)絡(luò)穩(wěn)定性分析[D];渤海大學(xué);2015年

10 邵雪瑩;幾類時(shí)滯不確定神經(jīng)網(wǎng)絡(luò)的穩(wěn)定性分析[D];渤海大學(xué);2015年

,

本文編號:2217109

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/2217109.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶68fdf***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com