天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

神經(jīng)網(wǎng)絡的權(quán)值規(guī)范化研究

發(fā)布時間:2018-02-23 20:16

  本文關(guān)鍵詞: 神經(jīng)網(wǎng)絡 權(quán)值規(guī)范 過擬合 出處:《吉林大學》2017年碩士論文 論文類型:學位論文


【摘要】:人工神經(jīng)網(wǎng)絡(Artificial Neural Network)通常又被稱為神經(jīng)網(wǎng)絡,是將多個信息處理單元相互連接模擬生物學中細胞對信息的處理過程,該模型起源于1943年,由沃倫麥卡洛克和邏輯學家沃爾特共同提出,但在當時并未引起學術(shù)界的廣泛關(guān)注。60年代當時神經(jīng)網(wǎng)絡的研究人員以及研究成果少的可憐。90年代由于深層網(wǎng)絡梯度消失問題的發(fā)現(xiàn)和CNN反向傳播問題的解決,神經(jīng)網(wǎng)絡曾有過短暫的繁榮。而現(xiàn)今,神經(jīng)網(wǎng)絡以及其演化的深度學習領(lǐng)域無疑是當下最熱的課題之一,數(shù)以萬計的科研工作者以及工程人員正投身于其中,神經(jīng)網(wǎng)絡又重新回到人們的視野中,這都得益于神經(jīng)網(wǎng)絡在圖片識別,人工智能,商業(yè)推薦方面的卓越表現(xiàn)。神經(jīng)網(wǎng)絡同其他機器學習算法一樣,在訓練中存在過擬合問題,過擬合現(xiàn)象產(chǎn)生的原因主要是訓練樣本過少,導致網(wǎng)絡并沒有學習到樣本的整體分布規(guī)律,從另一角度來看說明網(wǎng)絡模型過于復雜,擬合了數(shù)據(jù)集中的噪聲數(shù)據(jù),而不是只從正確的數(shù)據(jù)進行學習。針對該問題不少學者,提出了一些防止網(wǎng)絡過擬合的技術(shù),其中應用最為廣泛的要數(shù)規(guī)范化技術(shù)。神經(jīng)網(wǎng)絡的權(quán)值規(guī)范化通過增加對權(quán)重的懲罰相,防止在有限的訓練數(shù)據(jù)下產(chǎn)生過于復雜的網(wǎng)絡,能夠有效地在非人工干預的情形下減弱模型的過擬合現(xiàn)象。尋找一個合適有效地規(guī)范化方法,對于網(wǎng)絡的泛化效果有著重要的意義。當前神經(jīng)網(wǎng)絡規(guī)范化方法主要有兩類,一類是基于權(quán)重空間發(fā)散程度的方法。例如L2規(guī)范化方法是尋找歐幾里得空間內(nèi)最快衰減方向,而L1規(guī)范化方法是在線性空間內(nèi)尋找最快的衰減方向。更普遍的講,當目標函數(shù)是凸函數(shù)時,網(wǎng)絡的收斂速度與規(guī)范化方法相一致。L2方法約束的網(wǎng)絡,其網(wǎng)絡權(quán)重的收斂速度是二次非線性的,L1方法約束的網(wǎng)絡,其權(quán)重的收斂是線性方式。另一種應用較廣的權(quán)值規(guī)范化方法是dropout技術(shù)。這種約束方法并不采用顯示的權(quán)重懲罰相,而是采用更加積極的方式,直接將某些權(quán)重連接抹去,從而抑制網(wǎng)絡的過擬合。無論是現(xiàn)在廣泛應用的L1還是L2規(guī)范化方法,從其定義形式中可以看出,他們都是基于網(wǎng)絡全局的權(quán)重約束,L2規(guī)范化是在權(quán)重向量每個分量平方和之后求平方根,當限制L2規(guī)范化結(jié)果很小時,每一個權(quán)值都會很小。同樣L1也存在類似的情況。不同的是,在L1約束下部分權(quán)值會為0。若能有一種有效基于局部的權(quán)值規(guī)范化方法。會對神經(jīng)網(wǎng)絡的研究有著重要的推動作用。本文深入探討了影響神經(jīng)網(wǎng)絡性能的諸多指標,包括權(quán)重的初始化方法,損失函數(shù)的形式,激活神經(jīng)元的類型;诓黄胶饩W(wǎng)絡的特點,和線性神經(jīng)元調(diào)節(jié)特性,著力提出一種基于傳播路徑的局部規(guī)范化方法,一個神經(jīng)元的權(quán)重規(guī)范化值,取決于與其相連接的前向節(jié)點代價,和后一層相連接的節(jié)點代價值,基于線性神經(jīng)元比例調(diào)節(jié)不變的性質(zhì),在L2規(guī)范化思想的基礎(chǔ)上,加入了局部懲罰的規(guī)范化權(quán)值更新。本文實驗部分在MINST數(shù)據(jù)集上分別對網(wǎng)絡無規(guī)范化時、采用L1規(guī)范化方法、L2規(guī)范化方法、棄權(quán)技術(shù)方法時給出了對比結(jié)果。實驗結(jié)果顯示本文提出的基于傳播路徑的局部權(quán)值規(guī)范化算法,對防止網(wǎng)絡過擬合,提高分類準確具有積極的意義。
[Abstract]:Artificial neural network (Artificial Neural Network) is also known as neural network, is a plurality of information processing units connected simulation process in biology of cell information, the model originated in 1943, jointly proposed by Warren MacCulloch and logician Walter, but at that time did not cause widespread concern in the academic researchers at.60 the neural network and the research results of little.90's as a result of the deep web to solve the problem of finding and gradient disappeared CNN back-propagation neural network problems, there had been a boom. However, deep learning neural network field and its evolution is undoubtedly one of the most hot topic at the moment, tens of thousands of scientists and engineers is engaged in the neural network back to people's vision, this is due to the neural network in image recognition, Artificial intelligence, business excellence. The recommended neural network with other machine learning algorithm, has the overfitting problem in training, causes the over fitting phenomenon is mainly the training sample is too small, and did not learn to lead the network distribution of the whole sample, from another point of view that the network model is too complex, fitting the noise data in data set, not only from the correct data for the study. Many scholars put forward some problems, to prevent over fitting network technology, which is most widely applied to the number of standardized technology. The weights of neural network standardization by increasing the weight of punishment, to prevent the generation of complex network when the training data is limited, can effectively reduce the phenomenon of over fitting model in non manual intervention situations. Looking for a suitable effective standardization method for Is of great significance to the network generalization effect. The neural network standardization method mainly has two kinds, one is the method of weight space based on the degree of divergence. For example the L2 standard method is to find the fastest in the Euclidean space attenuation direction, while the L1 standard method is to find the direction of attenuation of the fastest in the linear space. More generally, when the objective function is a convex function, the convergence speed and the standardized method of network.L2 is consistent in the constrained network, the network convergence speed is two times the weight of the nonlinear L1 method, constrained network convergence, its weight is linear. The weight normalization method for another application Guangzhou is dropout technology. This method is not constrained by weight penalty shows, but with a more positive way, directly to the certain weight connection erased, thereby inhibiting the over fitting of the network. It is now widely The application of the L1 or L2 standard method, from the definition of the form can be seen, they are the weight constraint network based on global L2 standard is the square root of the weight vector of each component square and after standardized results when restricted to L2 hours, each weight will be very small. Also L1 there is a similar situation. The difference is, under L1 constraint for 0. part weight if there is an effective method based on local standard weights. The study of neural network plays an important role. This paper discusses the influence of many indicators of the performance of the neural network, including the initialization method of weight loss the form of the function, types of activated neurons. Based on the unbalanced network characteristics, and linear neural regulation characteristics, puts forward a method based on the local standard propagation path, a neuron's weight normalized value, depending on the Connected to the first node cost, and connected after a layer node generation value, adjust the proportion of invariant linear neurons based on the nature, based on L2 standard idea, adding weights specification updates. Local punishment in the part of experiment on MINST data set is divided into no standardization of network L1, the standard method, L2 standard method, technology and methods are given waiver results. Experimental results show that the proposed algorithm based on local weights standard propagation path, to prevent network overfitting, is of positive significance to improve the classification accuracy.

【學位授予單位】:吉林大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:TP18

【相似文獻】

相關(guān)期刊論文 前10條

1 楊曉帥 ,付玫;神經(jīng)網(wǎng)絡技術(shù)讓管理更輕松[J];軟件世界;2000年11期

2 云中客;新的神經(jīng)網(wǎng)絡來自于仿生學[J];物理;2001年10期

3 唐春明,高協(xié)平;進化神經(jīng)網(wǎng)絡的研究進展[J];系統(tǒng)工程與電子技術(shù);2001年10期

4 李智;一種基于神經(jīng)網(wǎng)絡的煤炭調(diào)運優(yōu)化方法[J];長沙鐵道學院學報;2003年02期

5 程科,王士同,楊靜宇;新型模糊形態(tài)神經(jīng)網(wǎng)絡及其應用研究[J];計算機工程與應用;2004年21期

6 王凡,孟立凡;關(guān)于使用神經(jīng)網(wǎng)絡推定操作者疲勞的研究[J];人類工效學;2004年03期

7 周麗暉;從統(tǒng)計角度看神經(jīng)網(wǎng)絡[J];統(tǒng)計教育;2005年06期

8 趙奇 ,劉開第 ,龐彥軍;灰色補償神經(jīng)網(wǎng)絡及其應用研究[J];微計算機信息;2005年14期

9 袁婷;;神經(jīng)網(wǎng)絡在股票市場預測中的應用[J];軟件導刊;2006年05期

10 尚晉;楊有;;從神經(jīng)網(wǎng)絡的過去談科學發(fā)展觀[J];重慶三峽學院學報;2006年03期

相關(guān)會議論文 前10條

1 徐春玉;;基于泛集的神經(jīng)網(wǎng)絡的混沌性[A];1996中國控制與決策學術(shù)年會論文集[C];1996年

2 周樹德;王巖;孫增圻;孫富春;;量子神經(jīng)網(wǎng)絡[A];2003年中國智能自動化會議論文集(上冊)[C];2003年

3 羅山;張琳;范文新;;基于神經(jīng)網(wǎng)絡和簡單規(guī)劃的識別融合算法[A];2009系統(tǒng)仿真技術(shù)及其應用學術(shù)會議論文集[C];2009年

4 郭愛克;馬盡文;丁康;;序言(二)[A];1999年中國神經(jīng)網(wǎng)絡與信號處理學術(shù)會議論文集[C];1999年

5 鐘義信;;知識論:神經(jīng)網(wǎng)絡的新機遇——紀念中國神經(jīng)網(wǎng)絡10周年[A];1999年中國神經(jīng)網(wǎng)絡與信號處理學術(shù)會議論文集[C];1999年

6 許進;保錚;;神經(jīng)網(wǎng)絡與圖論[A];1999年中國神經(jīng)網(wǎng)絡與信號處理學術(shù)會議論文集[C];1999年

7 金龍;朱詩武;趙成志;陳寧;;數(shù)值預報產(chǎn)品的神經(jīng)網(wǎng)絡釋用預報應用[A];1999年中國神經(jīng)網(wǎng)絡與信號處理學術(shù)會議論文集[C];1999年

8 田金亭;;神經(jīng)網(wǎng)絡在中學生創(chuàng)造力評估中的應用[A];第十二屆全國心理學學術(shù)大會論文摘要集[C];2009年

9 唐墨;王科俊;;自發(fā)展神經(jīng)網(wǎng)絡的混沌特性研究[A];2009年中國智能自動化會議論文集(第七分冊)[南京理工大學學報(增刊)][C];2009年

10 張廣遠;萬強;曹海源;田方濤;;基于遺傳算法優(yōu)化神經(jīng)網(wǎng)絡的故障診斷方法研究[A];第十二屆全國設(shè)備故障診斷學術(shù)會議論文集[C];2010年

相關(guān)重要報紙文章 前10條

1 美國明尼蘇達大學社會學博士 密西西比州立大學國家戰(zhàn)略規(guī)劃與分析研究中心資深助理研究員 陳心想;維護好創(chuàng)新的“神經(jīng)網(wǎng)絡硬件”[N];中國教師報;2014年

2 盧業(yè)忠;腦控電腦 驚世駭俗[N];計算機世界;2001年

3 葛一鳴 路邊文;人工神經(jīng)網(wǎng)絡將大顯身手[N];中國紡織報;2003年

4 中國科技大學計算機系 邢方亮;神經(jīng)網(wǎng)絡挑戰(zhàn)人類大腦[N];計算機世界;2003年

5 記者 孫剛;“神經(jīng)網(wǎng)絡”:打開復雜工藝“黑箱”[N];解放日報;2007年

6 本報記者 劉霞;美用DNA制造出首個人造神經(jīng)網(wǎng)絡[N];科技日報;2011年

7 健康時報特約記者  張獻懷;干細胞移植:修復受損的神經(jīng)網(wǎng)絡[N];健康時報;2006年

8 劉力;我半導體神經(jīng)網(wǎng)絡技術(shù)及應用研究達國際先進水平[N];中國電子報;2001年

9 ;神經(jīng)網(wǎng)絡和模糊邏輯[N];世界金屬導報;2002年

10 鄒麗梅 陳耀群;江蘇科大神經(jīng)網(wǎng)絡應用研究通過鑒定[N];中國船舶報;2006年

相關(guān)博士學位論文 前10條

1 楊旭華;神經(jīng)網(wǎng)絡及其在控制中的應用研究[D];浙江大學;2004年

2 李素芳;基于神經(jīng)網(wǎng)絡的無線通信算法研究[D];山東大學;2015年

3 石艷超;憶阻神經(jīng)網(wǎng)絡的混沌性及幾類時滯神經(jīng)網(wǎng)絡的同步研究[D];電子科技大學;2014年

4 王新迎;基于隨機映射神經(jīng)網(wǎng)絡的多元時間序列預測方法研究[D];大連理工大學;2015年

5 付愛民;極速學習機的訓練殘差、穩(wěn)定性及泛化能力研究[D];中國農(nóng)業(yè)大學;2015年

6 李輝;基于粒計算的神經(jīng)網(wǎng)絡及集成方法研究[D];中國礦業(yè)大學;2015年

7 王衛(wèi)蘋;復雜網(wǎng)絡幾類同步控制策略研究及穩(wěn)定性分析[D];北京郵電大學;2015年

8 張海軍;基于云計算的神經(jīng)網(wǎng)絡并行實現(xiàn)及其學習方法研究[D];華南理工大學;2015年

9 李艷晴;風速時間序列預測算法研究[D];北京科技大學;2016年

10 陳輝;多維超精密定位系統(tǒng)建模與控制關(guān)鍵技術(shù)研究[D];東南大學;2015年

相關(guān)碩士學位論文 前10條

1 章穎;混合不確定性模塊化神經(jīng)網(wǎng)絡與高校效益預測的研究[D];華南理工大學;2015年

2 賈文靜;基于改進型神經(jīng)網(wǎng)絡的風力發(fā)電系統(tǒng)預測及控制研究[D];燕山大學;2015年

3 李慧芳;基于憶阻器的渦卷混沌系統(tǒng)及其電路仿真[D];西南大學;2015年

4 陳彥至;神經(jīng)網(wǎng)絡降維算法研究與應用[D];華南理工大學;2015年

5 董哲康;基于憶阻器的組合電路及神經(jīng)網(wǎng)絡研究[D];西南大學;2015年

6 武創(chuàng)舉;基于神經(jīng)網(wǎng)絡的遙感圖像分類研究[D];昆明理工大學;2015年

7 李志杰;基于神經(jīng)網(wǎng)絡的上證指數(shù)預測研究[D];華南理工大學;2015年

8 陳少吉;基于神經(jīng)網(wǎng)絡血壓預測研究與系統(tǒng)實現(xiàn)[D];華南理工大學;2015年

9 張韜;幾類時滯神經(jīng)網(wǎng)絡穩(wěn)定性分析[D];渤海大學;2015年

10 邵雪瑩;幾類時滯不確定神經(jīng)網(wǎng)絡的穩(wěn)定性分析[D];渤海大學;2015年

,

本文編號:1527462

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/1527462.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶c68dd***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com
国自产拍偷拍福利精品图片| 国产熟女一区二区精品视频| 日韩av欧美中文字幕| 日韩中文字幕狠狠人妻| 午夜福利在线观看免费| 国产欧美一区二区久久| 成人免费观看视频免费| 欧美日韩三区在线观看| 十八禁日本一区二区三区| 精品al亚洲麻豆一区| 亚洲做性视频在线播放| 中字幕一区二区三区久久蜜桃| 国产午夜福利不卡片在线观看| 91亚洲精品国产一区| 亚洲国产精品一区二区毛片| 日本人妻的诱惑在线观看| 好东西一起分享老鸭窝| 日韩中文字幕视频在线高清版| 日本在线高清精品人妻| 丝袜诱惑一区二区三区| 中文字字幕在线中文乱码二区| 亚洲专区中文字幕视频| 精品欧美日韩一区二区三区| 熟女乱一区二区三区丝袜| 日韩精品免费一区二区三区| 日韩国产传媒在线精品| 亚洲视频一级二级三级| 精品人妻一区二区三区在线看| 精品国产亚洲区久久露脸| 观看日韩精品在线视频| 最近中文字幕高清中文字幕无| 热情的邻居在线中文字幕| 日本高清一区免费不卡| 国产水滴盗摄一区二区| 国产亚洲精品香蕉视频播放| 日韩在线欧美一区二区| 久久精品亚洲精品国产欧美| 日本高清二区视频久二区| 精品亚洲av一区二区三区| 国产原创激情一区二区三区| 亚洲精品一区三区三区|