深度學(xué)習(xí)處理器基準(zhǔn)測(cè)試程序的設(shè)計(jì)與實(shí)現(xiàn)
【文章頁(yè)數(shù)】:97 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.2同步數(shù)據(jù)并行訓(xùn)練和異步數(shù)據(jù)并行訓(xùn)練??采用隨機(jī)梯度下降法(stochastic?gradient?descent,SGD)[14】訓(xùn)練時(shí),加速SGD過(guò)??程最簡(jiǎn)單的方法就是在多個(gè)設(shè)備上并行實(shí)現(xiàn)梯度計(jì)算
TensorFlow的數(shù)據(jù)流圖模型能夠很好地應(yīng)用于計(jì)算密集型網(wǎng)絡(luò)在大規(guī)模數(shù)??據(jù)集上的訓(xùn)練加速過(guò)程,主要包括數(shù)據(jù)并行訓(xùn)練和模型并行訓(xùn)練,其中,數(shù)據(jù)??并行訓(xùn)練又分為同步和異步兩種方式,具體實(shí)現(xiàn)過(guò)程如圖2.2所示。當(dāng)網(wǎng)絡(luò)模型??11??
圖3.3目標(biāo)檢測(cè)領(lǐng)域的深度學(xué)習(xí)算法??,
傳線方法?傳法方法?AtexNe;?ZfNet?V06?GoogLeNer?SrTCcprion_v2lncepl'〇n_v3?Rc.sN?t?|nc<;pti〇n_y4?KeiM?X?t?StNsr??■tops豬誤s?■網(wǎng)綰壤&??圖3.2主流分類網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集....
圖3.4基于中髙級(jí)語(yǔ)義的圖像分割方法??注:黑色、紫色、橙色、紅色字體分別代表基于圖論的分割方法、基于像素聚類??的分割方法、基于候選區(qū)域的語(yǔ)義分割方法、基于端到端的語(yǔ)義分割方法??
傳線方法?傳法方法?AtexNe;?ZfNet?V06?GoogLeNer?SrTCcprion_v2lncepl'〇n_v3?Rc.sN?t?|nc<;pti〇n_y4?KeiM?X?t?StNsr??■tops豬誤s?■網(wǎng)綰壤&??圖3.2主流分類網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集....
圖3.5卷積神經(jīng)網(wǎng)絡(luò)一遍前向的MACCs??連接層而言較高,全連接層對(duì)網(wǎng)絡(luò)的MACCs影響力度被隱藏
H。和W。表示卷積層的輸出特征圖尺寸,和表示卷積核尺寸,??和,分別表示輸入通道數(shù)和輸出通道數(shù),均和叫表示輸入特征圖的尺寸。??圖3.5給出了所選網(wǎng)絡(luò)在單樣本輸入時(shí)一次前向過(guò)程的卷積層和全連接層的乘加??操作次數(shù),即網(wǎng)絡(luò)的一次前向計(jì)算量。??Conu_M>4CCs??0(/f0?....
本文編號(hào):3911788
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/3911788.html