基于學(xué)習(xí)率衰減的深度學(xué)習(xí)超參數(shù)優(yōu)化方法的研究
【文章頁數(shù)】:79 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1:生物神經(jīng)元??人工神經(jīng)元(Artificial?Neuron)是神經(jīng)網(wǎng)絡(luò)的基本單元,它是一種模擬生物神??經(jīng)元的結(jié)構(gòu)和特性的數(shù)學(xué)模型,其作用是通過接收一組輸入信號經(jīng)過一系列變換并??
碩士學(xué)位論文??MASTER'S?THESIS??第2章深度神經(jīng)網(wǎng)絡(luò)??深度學(xué)習(xí)中的’_深度”說明了輸入數(shù)據(jù)經(jīng)過不同的深度神經(jīng)網(wǎng)絡(luò)層進(jìn)行非線性??變換的次數(shù),這些網(wǎng)絡(luò)層由許多的神經(jīng)元組成,其中非線性變換主要來源于激活函??數(shù),它們在一起構(gòu)成了前饋神經(jīng)網(wǎng)絡(luò)。本章介紹了深度學(xué)習(xí)中的前....
圖2-3:?Sigmoid函數(shù)曲線??
zSm碩士學(xué)位論文??MASTER'S?THESIS???'??—^===^??—?Sigmoid??0.8?/?-??0.6?-?/??S??0.4?■??0.2?■?/??〇.〇?I??^Z??1???-10?-50?5?10??z??圖2-3:?Sigmoid函數(shù)曲線??1....
圖2 ̄4:?Tanh函數(shù)曲線??
以看出,它對輸入進(jìn)行了歸一化操作,輸出值在[〇,1]區(qū)間,不同于??Sigmoid函數(shù)的是,Softmax函數(shù)常用于多元分類(Multiclass?Classification)問題,??常用于多分類網(wǎng)絡(luò)的最后一層。??10.?????I?-?A??一?ReLU??—Leaky?....
圖2-5:?ReLU函數(shù)曲線??
奸學(xué)位論文??MASTER'S?THESIS??2.3前饋神經(jīng)網(wǎng)絡(luò)??'??Input?Layer?£?R5?Hidden?Layer?£?R10?Hidden?Layer?£?R10?Hidden?Layer?G?R10?Output?Layer?£?R2??圖2-6:前饋神經(jīng)....
本文編號:3961346
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3961346.html