基于深度學習的股骨分割
【學位單位】:西安郵電大學
【學位級別】:碩士
【學位年份】:2019
【中圖分類】:TP18;TP391.41;R318
【部分圖文】:
1 1 26 7 8453 2 12 3 401Max pooling2*2 filtersStride 236 84圖 2.3 池化操作)來表示池化層的運算:1( ( ) )l l l lj j j jy down y b 的第 j 張?zhí)卣鲌D, 是指激活函數(shù),lj 是指本層的乘性ljb 是指本層的加性偏置。常作為最后一層,被用來編碼位置相關(guān)的信息和更全局經(jīng)網(wǎng)絡的連接方式一樣,前后層所有節(jié)點兩兩連接到一一起形成全局特征做特征映射,轉(zhuǎn)化為一維特征向量,對應相加,最后用分類器或回歸的方法取得最終的結(jié)果。
圖 3.5 Sigmoid 函數(shù)圖像 圖 3.6 Tanh 函數(shù)圖像圖 3.7 ReLU 函數(shù)圖像在激活區(qū)域( x 0),ReLU 導數(shù)為 1,在非激活區(qū)域( x 0),導數(shù)是以不會在錯誤信號傳遞時將其改變,對于激活函數(shù)來說,這似乎是一個奇怪的選為它在 0 處是不可微的。實際上,在零點處的不可微是無關(guān)緊要的,因為神經(jīng)網(wǎng)在實數(shù)中工作的,它在任何時刻都不太可能正好處在 x =0處,在 處的導數(shù)我
圖 3.5 Sigmoid 函數(shù)圖像 圖 3.6 Tanh 函數(shù)圖像圖 3.7 ReLU 函數(shù)圖像在激活區(qū)域( x 0),ReLU 導數(shù)為 1,在非激活區(qū)域( x 0),導數(shù)是以不會在錯誤信號傳遞時將其改變,對于激活函數(shù)來說,這似乎是一個奇怪的選為它在 0 處是不可微的。實際上,在零點處的不可微是無關(guān)緊要的,因為神經(jīng)網(wǎng)在實數(shù)中工作的,它在任何時刻都不太可能正好處在 x =0處,在 處的導數(shù)我
【相似文獻】
相關(guān)期刊論文 前10條
1 胡悅;;金融市場中的神經(jīng)網(wǎng)絡拐點預測法[J];金融經(jīng)濟;2017年18期
2 李青華;李翠平;張靜;陳紅;王紹卿;;深度神經(jīng)網(wǎng)絡壓縮綜述[J];計算機科學;2019年09期
3 遲惠生;陳珂;;1995年世界神經(jīng)網(wǎng)絡大會述評[J];國際學術(shù)動態(tài);1996年01期
4 吳立可;;脈沖神經(jīng)網(wǎng)絡和行為識別[J];通訊世界;2018年12期
5 林嘉應;鄭柏倫;劉捷;;基于卷積神經(jīng)網(wǎng)絡的船舶分類模型[J];信息技術(shù)與信息化;2019年02期
6 俞頌華;;卷積神經(jīng)網(wǎng)絡的發(fā)展與應用綜述[J];信息通信;2019年02期
7 韓真;凱文·哈特尼特;;為神經(jīng)網(wǎng)絡的通用理論建造基石[J];世界科學;2019年04期
8 鮑偉強;陳娟;熊濤;;基于進化神經(jīng)網(wǎng)絡的短期電力負荷預測研究[J];電工技術(shù);2019年11期
9 陳曉燕;;淺析簡單神經(jīng)網(wǎng)絡的發(fā)展及簡單模型[J];數(shù)字技術(shù)與應用;2019年05期
10 王麗華;楊秀萍;王皓;高崢翔;;智能雙輪平衡車的設計研究[J];數(shù)字技術(shù)與應用;2018年04期
相關(guān)會議論文 前10條
1 孫軍田;張U
本文編號:2822144
本文鏈接:http://sikaile.net/yixuelunwen/swyx/2822144.html