天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 力學(xué)論文 >

基于卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)格質(zhì)量判別技術(shù)研究

發(fā)布時(shí)間:2021-10-16 01:35
  隨著計(jì)算機(jī)性能的不斷提高,計(jì)算流體力學(xué)(CFD)在實(shí)際工程應(yīng)用中發(fā)揮著越來越重要的作用。CFD網(wǎng)格質(zhì)量決定著模擬仿真數(shù)據(jù)的準(zhǔn)確性。因此網(wǎng)格質(zhì)量檢測(cè)過程就顯得尤為重要,間接決定著后期計(jì)算工作的準(zhǔn)確性。網(wǎng)格質(zhì)量的判別檢測(cè)過程始終擺脫不了人工參與,現(xiàn)階段無法實(shí)現(xiàn)網(wǎng)格質(zhì)量的自動(dòng)判別,這也將制約下一階段高質(zhì)量CFD網(wǎng)格自動(dòng)生成技術(shù)的發(fā)展。圍繞網(wǎng)格質(zhì)量自動(dòng)判別技術(shù),本文首先在研究網(wǎng)格質(zhì)量判定標(biāo)準(zhǔn)和卷積神經(jīng)網(wǎng)絡(luò)技術(shù)的基礎(chǔ)上,設(shè)計(jì)了基于卷積神經(jīng)網(wǎng)絡(luò)的CFD網(wǎng)格質(zhì)量判別技術(shù)方案,確定了實(shí)現(xiàn)網(wǎng)格質(zhì)量自動(dòng)判別的流程。然后通過對(duì)卷積神經(jīng)網(wǎng)絡(luò)框架搭建技術(shù)的研究,確定了一套適合CFD網(wǎng)格數(shù)據(jù)訓(xùn)練識(shí)別優(yōu)化策略。最后基于TensorFlow機(jī)器學(xué)習(xí)框架,采用Python編程語(yǔ)言開發(fā)了CFD網(wǎng)格質(zhì)量自動(dòng)判別程序,實(shí)現(xiàn)了二維翼型網(wǎng)格質(zhì)量判別自動(dòng)化。本文將卷積神經(jīng)網(wǎng)絡(luò)識(shí)別分類方法用于網(wǎng)格質(zhì)量智能判別,研究開發(fā)出梯度網(wǎng)格數(shù)據(jù)自動(dòng)生成程序以及網(wǎng)格質(zhì)量特征提取工具,將原始網(wǎng)格數(shù)據(jù)制作成可以進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練的數(shù)據(jù)集,對(duì)構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,獲得可對(duì)CFD網(wǎng)格質(zhì)量進(jìn)行判斷識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)模型。最終分析結(jié)果表明,該... 

【文章來源】:西南科技大學(xué)四川省

【文章頁(yè)數(shù)】:63 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)格質(zhì)量判別技術(shù)研究


網(wǎng)格類型(c)混合網(wǎng)格

框架圖,框架圖


以深度學(xué)習(xí)為代表的人工智能技術(shù)正在悄然地改變著世界,改變著人們的活動(dòng)方式與認(rèn)知方式。深度學(xué)習(xí)具有獨(dú)特的多層結(jié)構(gòu)算法,以各類數(shù)據(jù)集為最終訓(xùn)練數(shù)據(jù),判別篩選數(shù)據(jù)集內(nèi)數(shù)據(jù)特征,經(jīng)過參數(shù)反復(fù)更新訓(xùn)練,最終獲得了提取抽象概念的能力[12]。理論研究表明,具有多層隱節(jié)點(diǎn)的卷積神經(jīng)網(wǎng)絡(luò)模型,其設(shè)計(jì)包含由多層非線性算子構(gòu)成的深度結(jié)構(gòu),可以在根據(jù)數(shù)據(jù)結(jié)構(gòu)學(xué)習(xí)到表示高層次抽象特征,建立相應(yīng)復(fù)雜函數(shù)。設(shè)計(jì)結(jié)構(gòu)上的優(yōu)越性,使得卷積神經(jīng)網(wǎng)絡(luò)分類和預(yù)測(cè)的準(zhǔn)確性較高[13-14]。深度學(xué)習(xí)領(lǐng)域科研工作者受動(dòng)物光學(xué)檢測(cè)細(xì)胞工作機(jī)制啟發(fā),構(gòu)建了深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)(CNN)。首先出現(xiàn)的是卷積神經(jīng)網(wǎng)絡(luò)的前期發(fā)展版本—神經(jīng)認(rèn)知機(jī)。到 1986 年提出誤差反向傳播算法,而后在多層神經(jīng)網(wǎng)絡(luò)中得到應(yīng)用[15],最后直到 1998年 LeCun 提出 LeNet-5 模型,其各層組成如圖 1-4 所示,此時(shí)卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)雛形基本完成。2006 年,著名卷積神經(jīng)網(wǎng)絡(luò)研究者 Hinton 在《科學(xué)》雜志上發(fā)表文章,卷積神經(jīng)網(wǎng)絡(luò)的研究熱潮再度回歸,并取得快速發(fā)展。Hinton 指出神經(jīng)網(wǎng)絡(luò)具有多隱層,因此其特征學(xué)習(xí)能力高于傳統(tǒng)神經(jīng)網(wǎng)絡(luò),并且可以通過各層重置使訓(xùn)練難度顯著降低[16]。對(duì)于訓(xùn)練深度CNN的問題,人們?cè)O(shè)計(jì)提出了很多種訓(xùn)練方法,其中著名學(xué)者 Krizhevsky構(gòu)建的經(jīng)典 CNN 結(jié)構(gòu) AlexNet,并在圖像識(shí)別任務(wù)上取得了重大突破[17]。

框架圖,框架圖


第一章 緒論在 2012 年的 ImageNet 大賽中獲得令人矚目的成績(jī)使得深度學(xué)習(xí)得以爆炸式成長(zhǎng)。CNN 在 ImageNet 競(jìng)賽中的優(yōu)異表現(xiàn)直接奠定了它的重要地位,2013 年底顏水成老師提出了 NIN 結(jié)構(gòu)[58]。隨后據(jù)此 Google 提出了 GoogLeNet,并隨后改進(jìn)出 Inception V3和 V4,研發(fā)出 20 層的 VGG 模型。DeepFace、DeepID 模型的建立,使人臉識(shí)別、人臉認(rèn)證的正確率得到突破性增長(zhǎng),有力的支持了人工智能在某些領(lǐng)域代替人類的工作的設(shè)想。基于以上卷積神經(jīng)網(wǎng)絡(luò)取得的突破性進(jìn)展和耀眼成績(jī),許多公司開始將深度學(xué)習(xí)應(yīng)用在他們的核心服務(wù)上,F(xiàn)acebook、Google、Amazon、Pinterest、Instagram 等等一系列國(guó)際知名公司將神經(jīng)網(wǎng)絡(luò)應(yīng)用到自動(dòng)標(biāo)注算法、圖片搜索、主頁(yè)個(gè)性化信息流、產(chǎn)品推薦服務(wù)、圖像搜索架構(gòu)等各個(gè)領(lǐng)域。


本文編號(hào):3438899

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/lxlw/3438899.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶44afe***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com