基于深度神經(jīng)網(wǎng)絡的無袖帶血壓建模方法研究
發(fā)布時間:2021-07-06 21:15
連續(xù)血壓的監(jiān)測對于高血壓人群的診斷和管理具有重要的意義,進而對于某些特定人群如心律失;颊叩闹卮蠹膊★L險也具有調(diào)控和預警作用。袖帶式血壓計間歇式測量的方式,無法滿足血壓連續(xù)和長期監(jiān)測的需要,F(xiàn)存的無創(chuàng)血壓方法需要人工提取特征,由于個體化差異過大往往導致模型的精度不足或適用范圍有限,難以滿足不同人群血壓監(jiān)測的需求。已有的少量文章顯示了深度學習在這一領域的潛力和可行性,憑借其自動化的特征學習和表達能力,有望實現(xiàn)對更廣泛人群血壓的精準估計,還可為可穿戴設備的血壓測量功能提供理論基礎和原型;DNN(Deep Neural Network,深度神經(jīng)網(wǎng)絡)不同維度的特征表達,也從模型的角度為揭示體表生理信號與人體內(nèi)部有創(chuàng)血壓之間的內(nèi)在聯(lián)系提供了新的可能。針對上述問題,本文研究基于深度神經(jīng)網(wǎng)絡的血壓估計方法,分別針對MIMIC-III公共數(shù)據(jù)庫(Medical Information Mart for Intensive Care III,重癥監(jiān)護醫(yī)學信息數(shù)據(jù)庫III)和阜外醫(yī)院心律失;颊呤中g前采集的數(shù)據(jù)建立了血壓估計模型。本論文主要內(nèi)容包括以下幾方面:1.提出了基于深度神經(jīng)網(wǎng)絡的穿戴式連續(xù)血壓建...
【文章來源】:中國科學院大學(中國科學院深圳先進技術研究院)廣東省
【文章頁數(shù)】:63 頁
【學位級別】:碩士
【部分圖文】:
CNAP連續(xù)血壓測量裝置
PTT與PWV的測量[9]
基于深度神經(jīng)網(wǎng)絡的無袖帶血壓建模方法研究10ReLU(x)=max(0,)...........................................................(2.3)Sigmoid函數(shù)對于0附近的數(shù)值變化敏感,值域在[0,1]區(qū)間。Tanh函數(shù)與Sigmoid函數(shù)類似,但其值域擴展到了[-1,1]區(qū)間,易知Tanh(x)=2·Sigmoid(x)1............................................(2.4)ReLU函數(shù)(RectifierLinearFunction)意為整流器線性函數(shù),公式(2.3)中的max意為取兩者之間的最大值。當輸入值小于等于0時,輸出值為0,當輸入值大于0時,輸出值等于輸入值,導數(shù)恒等于1。相比前兩者,ReLU函數(shù)計算簡單,便于求導,廣泛用于各類深度網(wǎng)絡。2.1.2反向傳播與優(yōu)化算法在前饋(FeedForward)網(wǎng)絡中,信息由輸入層開始,層層向前傳遞至輸出層,直至輸出預測值與目標的偏差,獲得損失函數(shù)(LossFunction)的值。模型訓練的目的即是使損失函數(shù)的值減小,直至逼近其最小值,而使模型的輸出無限接近目標。其梯度下降的方向,即是損失函數(shù)減小的方向,而直接對其求導只能獲得損失函數(shù)相對于輸出層權重的梯度,需要通過鏈式求導法則一步一步求出之前每一層權重的梯度,直至求出損失函數(shù)相對于網(wǎng)絡所有權重的梯度,這個過程稱為反向傳播(Backpropagation)[25]。在反向傳播的基礎上,以一定的學習率(LearningRate)不斷更新模型的權重,使其梯度不斷下降,損失函數(shù)的值不斷減小,稱為模型的優(yōu)化(Optimization)。常見的優(yōu)化算法包括SGD(StochasticGradientDescent,隨機梯度下降算法)[26],AdaGrad(AdaptiveGradient,自適應梯度算法)[27],+221133+激活函數(shù)圖2.2神經(jīng)元Figure2.2Neuron
本文編號:3268984
【文章來源】:中國科學院大學(中國科學院深圳先進技術研究院)廣東省
【文章頁數(shù)】:63 頁
【學位級別】:碩士
【部分圖文】:
CNAP連續(xù)血壓測量裝置
PTT與PWV的測量[9]
基于深度神經(jīng)網(wǎng)絡的無袖帶血壓建模方法研究10ReLU(x)=max(0,)...........................................................(2.3)Sigmoid函數(shù)對于0附近的數(shù)值變化敏感,值域在[0,1]區(qū)間。Tanh函數(shù)與Sigmoid函數(shù)類似,但其值域擴展到了[-1,1]區(qū)間,易知Tanh(x)=2·Sigmoid(x)1............................................(2.4)ReLU函數(shù)(RectifierLinearFunction)意為整流器線性函數(shù),公式(2.3)中的max意為取兩者之間的最大值。當輸入值小于等于0時,輸出值為0,當輸入值大于0時,輸出值等于輸入值,導數(shù)恒等于1。相比前兩者,ReLU函數(shù)計算簡單,便于求導,廣泛用于各類深度網(wǎng)絡。2.1.2反向傳播與優(yōu)化算法在前饋(FeedForward)網(wǎng)絡中,信息由輸入層開始,層層向前傳遞至輸出層,直至輸出預測值與目標的偏差,獲得損失函數(shù)(LossFunction)的值。模型訓練的目的即是使損失函數(shù)的值減小,直至逼近其最小值,而使模型的輸出無限接近目標。其梯度下降的方向,即是損失函數(shù)減小的方向,而直接對其求導只能獲得損失函數(shù)相對于輸出層權重的梯度,需要通過鏈式求導法則一步一步求出之前每一層權重的梯度,直至求出損失函數(shù)相對于網(wǎng)絡所有權重的梯度,這個過程稱為反向傳播(Backpropagation)[25]。在反向傳播的基礎上,以一定的學習率(LearningRate)不斷更新模型的權重,使其梯度不斷下降,損失函數(shù)的值不斷減小,稱為模型的優(yōu)化(Optimization)。常見的優(yōu)化算法包括SGD(StochasticGradientDescent,隨機梯度下降算法)[26],AdaGrad(AdaptiveGradient,自適應梯度算法)[27],+221133+激活函數(shù)圖2.2神經(jīng)元Figure2.2Neuron
本文編號:3268984
本文鏈接:http://sikaile.net/shoufeilunwen/mpalunwen/3268984.html
最近更新
教材專著