基于不同神經(jīng)網(wǎng)絡(luò)對(duì)已加固剛架拱橋靜力有限元模型的參數(shù)識(shí)別及修正
發(fā)布時(shí)間:2021-08-17 00:40
當(dāng)前行業(yè)內(nèi),針對(duì)加固后的橋梁,由于各種簡(jiǎn)化和假定,依據(jù)設(shè)計(jì)資料建立的橋梁初始有限元模型的計(jì)算結(jié)果與試驗(yàn)測(cè)量結(jié)果之間往往存在不同程度的差異。本文在前人有限元模型修正研究工作的基礎(chǔ)上,因遺傳算法和神經(jīng)網(wǎng)絡(luò)在處理復(fù)雜非線性問(wèn)題時(shí)極具優(yōu)勢(shì),將遺傳算法與BP神經(jīng)網(wǎng)絡(luò)結(jié)合提出了一種集成式的神經(jīng)網(wǎng)絡(luò),引入并改造生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)(Generative Adversarial Networks,GANs),分別將其用于橋梁結(jié)構(gòu)靜力有限元模型的參數(shù)識(shí)別與修正中。1、對(duì)有限元模型參數(shù)識(shí)別修正技術(shù)及神經(jīng)網(wǎng)絡(luò)在其中的應(yīng)用、研究意義及現(xiàn)狀進(jìn)行了闡述。對(duì)有限元模型參數(shù)識(shí)別基本機(jī)理、有限元模型修正的不同類別、待修正參數(shù)的篩選、修正效果的評(píng)估、目標(biāo)函數(shù)的構(gòu)造作了介紹。2、引入神經(jīng)網(wǎng)絡(luò)。首先,對(duì)本文的兩種神經(jīng)網(wǎng)絡(luò)基模型BP神經(jīng)網(wǎng)絡(luò)的機(jī)理進(jìn)行了介紹,其次結(jié)合遺傳算法與神經(jīng)網(wǎng)絡(luò)的各自優(yōu)點(diǎn),建立集成神經(jīng)網(wǎng)絡(luò);基于當(dāng)前在圖像、語(yǔ)音領(lǐng)域應(yīng)用效果顯著的生成式對(duì)抗神經(jīng)網(wǎng)絡(luò),構(gòu)造適用于本文的生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)。3、使用Python語(yǔ)言中的機(jī)器學(xué)習(xí)算法庫(kù)和深度學(xué)習(xí)算法庫(kù),搭建集成神經(jīng)網(wǎng)絡(luò)和生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)。結(jié)合設(shè)計(jì)資料,搭建有限元模型...
【文章來(lái)源】:長(zhǎng)安大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:103 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
有限元模型修正流程圖
第三章 不同神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)原理3.1.1 BP 網(wǎng)絡(luò)模型結(jié)構(gòu)BP 網(wǎng)絡(luò)一般由至少 3 層神經(jīng)元組成,其中包括一層輸入、輸出神經(jīng)元和至少一層隱藏神經(jīng)元。相鄰層的神經(jīng)元互連,層內(nèi)及跨層間的神經(jīng)元不能連接。張立明[51]就該結(jié)構(gòu)進(jìn)行了詳細(xì)的闡述,并就其原理及應(yīng)用作了介紹。前一層節(jié)點(diǎn)的輸出作為下一層節(jié)點(diǎn)的輸入。本層輸入值由前一層輸出值在叉乘函數(shù)處理而得,再由激活函數(shù)處理成為其輸出值。以一般常見的三層神經(jīng)網(wǎng)絡(luò)為例,結(jié)構(gòu)如圖 3.1。當(dāng)數(shù)據(jù)進(jìn)入輸入層時(shí),經(jīng)輸入至隱層、隱層至輸出的各層權(quán)值,激活函數(shù)的處理形成最終輸出值,即為前向傳播。然后根據(jù)輸出值與實(shí)際目標(biāo)變量的誤差,再進(jìn)行梯度反向傳播。當(dāng)給定一批數(shù)據(jù)時(shí),可由單個(gè)數(shù)據(jù)或一組數(shù)據(jù)進(jìn)行權(quán)值更新,直至誤差滿足要求或模型誤差無(wú)明顯改進(jìn)時(shí),停止更新。
適當(dāng)擬合 過(guò)擬合圖 3.2 模型擬合效果示意圖3.1.3 BP 神經(jīng)網(wǎng)絡(luò)原理令訓(xùn)練集如下 D={( ), ( ),…., ( )}, ,則當(dāng)前輸入數(shù)據(jù)由 d 維特征,輸出數(shù)據(jù)為 l 維的數(shù)據(jù)。則根據(jù)圖 3.1 的示例,該網(wǎng)絡(luò)包含 d 個(gè)輸入神經(jīng)元,q 個(gè)隱層神經(jīng)元,l 個(gè)輸出神經(jīng)元。令輸出層第 j 個(gè)神經(jīng)元的閾值為ˋ ,隱藏層第 h 個(gè)神經(jīng)元的閾值為 。輸入層第 i 個(gè)神經(jīng)元與隱藏層第 h 個(gè)神經(jīng)元的連接權(quán)值為 ,隱藏層第 h 個(gè)神經(jīng)元與輸出層第 j 個(gè)神經(jīng)元的連接權(quán)值為 。則令隱層第 h個(gè)神經(jīng)元接收的輸入為 =щ ,輸出層第 j 個(gè)神經(jīng)元的輸入為 =щ ,其中 為隱層第 h 個(gè)神經(jīng)元的輸出。假設(shè)隱層和輸出層的激活函數(shù)都為同一類激活函數(shù) f(x)。
本文編號(hào):3346708
【文章來(lái)源】:長(zhǎng)安大學(xué)陜西省 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:103 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
有限元模型修正流程圖
第三章 不同神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)原理3.1.1 BP 網(wǎng)絡(luò)模型結(jié)構(gòu)BP 網(wǎng)絡(luò)一般由至少 3 層神經(jīng)元組成,其中包括一層輸入、輸出神經(jīng)元和至少一層隱藏神經(jīng)元。相鄰層的神經(jīng)元互連,層內(nèi)及跨層間的神經(jīng)元不能連接。張立明[51]就該結(jié)構(gòu)進(jìn)行了詳細(xì)的闡述,并就其原理及應(yīng)用作了介紹。前一層節(jié)點(diǎn)的輸出作為下一層節(jié)點(diǎn)的輸入。本層輸入值由前一層輸出值在叉乘函數(shù)處理而得,再由激活函數(shù)處理成為其輸出值。以一般常見的三層神經(jīng)網(wǎng)絡(luò)為例,結(jié)構(gòu)如圖 3.1。當(dāng)數(shù)據(jù)進(jìn)入輸入層時(shí),經(jīng)輸入至隱層、隱層至輸出的各層權(quán)值,激活函數(shù)的處理形成最終輸出值,即為前向傳播。然后根據(jù)輸出值與實(shí)際目標(biāo)變量的誤差,再進(jìn)行梯度反向傳播。當(dāng)給定一批數(shù)據(jù)時(shí),可由單個(gè)數(shù)據(jù)或一組數(shù)據(jù)進(jìn)行權(quán)值更新,直至誤差滿足要求或模型誤差無(wú)明顯改進(jìn)時(shí),停止更新。
適當(dāng)擬合 過(guò)擬合圖 3.2 模型擬合效果示意圖3.1.3 BP 神經(jīng)網(wǎng)絡(luò)原理令訓(xùn)練集如下 D={( ), ( ),…., ( )}, ,則當(dāng)前輸入數(shù)據(jù)由 d 維特征,輸出數(shù)據(jù)為 l 維的數(shù)據(jù)。則根據(jù)圖 3.1 的示例,該網(wǎng)絡(luò)包含 d 個(gè)輸入神經(jīng)元,q 個(gè)隱層神經(jīng)元,l 個(gè)輸出神經(jīng)元。令輸出層第 j 個(gè)神經(jīng)元的閾值為ˋ ,隱藏層第 h 個(gè)神經(jīng)元的閾值為 。輸入層第 i 個(gè)神經(jīng)元與隱藏層第 h 個(gè)神經(jīng)元的連接權(quán)值為 ,隱藏層第 h 個(gè)神經(jīng)元與輸出層第 j 個(gè)神經(jīng)元的連接權(quán)值為 。則令隱層第 h個(gè)神經(jīng)元接收的輸入為 =щ ,輸出層第 j 個(gè)神經(jīng)元的輸入為 =щ ,其中 為隱層第 h 個(gè)神經(jīng)元的輸出。假設(shè)隱層和輸出層的激活函數(shù)都為同一類激活函數(shù) f(x)。
本文編號(hào):3346708
本文鏈接:http://sikaile.net/kejilunwen/jiaotonggongchenglunwen/3346708.html
最近更新
教材專著