深度學(xué)習(xí)在計算流體力學(xué)中的應(yīng)用
【文章頁數(shù)】:49 頁
【部分圖文】:
圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)
東北師范大學(xué)碩士學(xué)位論文圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)。左:輸入層到隱層的權(quán)系數(shù)均為常值1;右:輸入層到隱層直接帶入圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)也會存在兩個糾結(jié)的問題,一是隱層的節(jié)點(diǎn)中用什么樣的激活函數(shù),二是隱層中設(shè)置多少個節(jié)點(diǎn)。在之前的逼近中,擬合效果會不....
圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)
東北師范大學(xué)碩士學(xué)位論文圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)。左:輸入層到隱層的權(quán)系數(shù)均為常值1;右:輸入層到隱層直接帶入圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)也會存在兩個糾結(jié)的問題,一是隱層的節(jié)點(diǎn)中用什么樣的激活函數(shù),二是隱層中設(shè)置多少個節(jié)點(diǎn)。在之前的逼近中,擬合效果會不....
圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)
東北師范大學(xué)碩士學(xué)位論文圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)∑=11()。用極小化損失函數(shù)求網(wǎng)絡(luò)中的權(quán)系數(shù)0,0和1,這神經(jīng)網(wǎng)絡(luò)的參數(shù)變量求解過程叫做訓(xùn)練或者學(xué)習(xí)。網(wǎng)絡(luò)學(xué)習(xí)中的隱層節(jié)點(diǎn)數(shù)n是需要損失函數(shù)不斷調(diào)參的。根據(jù)萬能逼近定理,只要隱層節(jié)點(diǎn)數(shù)足夠多,該網(wǎng)絡(luò)所表....
圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)
東北師范大學(xué)碩士學(xué)位論文圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)∑=11()。用極小化損失函數(shù)求網(wǎng)絡(luò)中的權(quán)系數(shù)0,0和1,這神經(jīng)網(wǎng)絡(luò)的參數(shù)變量求解過程叫做訓(xùn)練或者學(xué)習(xí)。網(wǎng)絡(luò)學(xué)習(xí)中的隱層節(jié)點(diǎn)數(shù)n是需要損失函數(shù)不斷調(diào)參的。根據(jù)萬能逼近定理,只要隱層節(jié)點(diǎn)數(shù)足夠多,該網(wǎng)絡(luò)所表....
本文編號:3996680
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3996680.html