基于深度學(xué)習(xí)的醫(yī)療文本信息抽取
【文章頁數(shù)】:77 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.2本文工作內(nèi)容
杭州師范大學(xué)碩士學(xué)位論文緒論自然語言處理的基本任務(wù),針對醫(yī)療文本的自然語言處理也叫醫(yī)療語言處理(MedicalLanguageProcessing,MLP)[17],該任務(wù)大致可分為兩個部分。第一部分是基礎(chǔ)研究,該部分主要涉及到自然語言處理的基本問題,如中文分詞、命名實體識別....
圖2.1簡單的前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
DeepLearning,DL)是機器學(xué)習(xí)的一種方法,是euralNetwork,ANN)為基本架構(gòu),對數(shù)據(jù)進行特,它大量借鑒了人們關(guān)于人腦、統(tǒng)計學(xué)和應(yīng)用數(shù)更加強大的計算機、海量的數(shù)據(jù)和更深層的神經(jīng)及程度和實用性都有巨大的發(fā)展。本節(jié)將對深度網(wǎng)絡(luò)絡(luò)(FeedforwardNeu....
圖2.2sigmoid函數(shù)圖像
換(affinetransformation),多層神經(jīng)網(wǎng)絡(luò)的仿射變換的疊加。而激活函數(shù)的作用是在每一個仿射變換后引入非線性變換網(wǎng)絡(luò)輸出值應(yīng)用非線性函數(shù)改變其值(這一過程稱為激活)下一層的輸入。的激活函數(shù)有Sigmoid、ReLU、Tanh等。oid函數(shù)oid函數(shù)可以將變....
圖2.3ReLU函數(shù)圖像
圖2.3ReLU函數(shù)圖像采用ReLU激活函數(shù)的神經(jīng)元只需要進行加法、乘法和大小比較操作更加高效。另外,在優(yōu)化方面,ReLU激活函數(shù)為左飽和函數(shù),且在數(shù)為1,相對于sigmoid型函數(shù)的兩端飽和,ReLU函數(shù)在一定程度上經(jīng)網(wǎng)絡(luò)中可能會出現(xiàn)的梯度消失問題,并加速反....
本文編號:3969143
本文鏈接:http://sikaile.net/yixuelunwen/yiyuanguanlilunwen/3969143.html