分布式深度學(xué)習(xí)平臺DisPyTorch
【文章頁數(shù)】:75 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.2:單隱層前饋網(wǎng)絡(luò)??
?第一章緒論???輸出??1?I?1??輸出層?p...廠)…r)??/?\??隱層?〇?-?〇■?■〇???〇??、X?'、、y?,??pK??輸入層?()__?()?■?()??V?Y?Y??輸入??圖1.2:單隱層前饋網(wǎng)絡(luò)??表U:常見CNN的參數(shù)大小??模型?|層數(shù)|??....
圖1.3:?BP算法中的變量??
?第一章緒論???入爲(wèi)知。那么,對于訓(xùn)練數(shù)據(jù)(Xfc,yfc),令h為神經(jīng)網(wǎng)絡(luò)的輸出,則??神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)(Xfc,yfc)上的誤差表示為£^?=?Ljyfc,;^)。令對為輸出層第j個??神經(jīng)元的輸出,我們根據(jù)這個訓(xùn)練數(shù)據(jù),可以利用BP算法,求得£;fc關(guān)于??和u^}的梯度,....
圖1.4:數(shù)據(jù)并行??
?第一章緒論???!模型m?i?!模型m?;?!模型m?i??i曜?i囑?:w;???]...??!?^B;?!?^S;?!?^9;??節(jié)點1?節(jié)點2?節(jié)點p??圖1.4:數(shù)據(jù)并行??每個節(jié)點分別負(fù)責(zé)不同數(shù)據(jù)上的計算量,將多個節(jié)點上求得的梯度通過網(wǎng)??絡(luò)通信來進(jìn)行模型參數(shù)的更新。....
圖1.5:模型并行??
?第一章緒論???丨節(jié)點p??L=t=l???I?■??■?■?■?I?■??■?■??:r-4—\???■■?i節(jié)點2??■■丨節(jié)點l??!?;??圖1.5:模型并行??通過模型并行構(gòu)成多機(jī)流水線,就可以訓(xùn)練非常大的神經(jīng)網(wǎng)絡(luò),克服了單??機(jī)無法保存大模型的困難[4]。一方面,在....
本文編號:3959104
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3959104.html