基于深度學(xué)習(xí)的多模態(tài)智能問(wèn)答技術(shù)研究
【文章頁(yè)數(shù)】:70 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1激活函數(shù)sigmoid和tanh的圖像對(duì)比
第二章多模態(tài)智能問(wèn)答基礎(chǔ)還有一種類似的函數(shù)是雙曲正切(tanh)函數(shù),其定義如下:tanh(x)=exexex+ex.(2-4)事實(shí)上,tanh函數(shù)與sigmoid函數(shù)之間有著緊密的關(guān)系。如果我們把sigmoid函數(shù)放大并平移,就能得到tanh函數(shù):tanh(x)=2σ(2x)1....
圖2-2ReLU函數(shù)的圖像
電子科技大學(xué)碩士學(xué)位論文圖2-2ReLU函數(shù)的圖像。2.1.2前饋神經(jīng)網(wǎng)絡(luò)前饋神經(jīng)網(wǎng)絡(luò),亦稱多層感知器(MultilayerPerceptron,MLP),誕生時(shí)間最早,結(jié)構(gòu)也比較簡(jiǎn)單,它的神經(jīng)元之間不構(gòu)成環(huán),與循環(huán)神經(jīng)網(wǎng)絡(luò)相區(qū)分。前饋神經(jīng)網(wǎng)絡(luò)中,信息單向傳播,從輸入結(jié)點(diǎn)出發(fā),經(jīng)....
圖2-3ILSVRC競(jìng)賽歷代冠軍模型的錯(cuò)誤率和層數(shù)比較
電子科技大學(xué)碩士學(xué)位論文圖2-3ILSVRC競(jìng)賽歷代冠軍模型的錯(cuò)誤率和層數(shù)比較。假設(shè)對(duì)堆疊的層使用一個(gè)殘差映射比直接映射要更容易,即圖2-4所示的殘差塊(residualblock)。ResNet的完整架構(gòu)和VGG19等網(wǎng)絡(luò)的對(duì)比如圖2-5所示。實(shí)驗(yàn)圖2-4一個(gè)殘差塊的圖示[49....
圖2-4一個(gè)殘差塊的圖示[49]
電子科技大學(xué)碩士學(xué)位論文圖2-3ILSVRC競(jìng)賽歷代冠軍模型的錯(cuò)誤率和層數(shù)比較。假設(shè)對(duì)堆疊的層使用一個(gè)殘差映射比直接映射要更容易,即圖2-4所示的殘差塊(residualblock)。ResNet的完整架構(gòu)和VGG19等網(wǎng)絡(luò)的對(duì)比如圖2-5所示。實(shí)驗(yàn)圖2-4一個(gè)殘差塊的圖示[49....
本文編號(hào):3893587
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3893587.html