天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 軟件論文 >

面向邊緣計算的卷積神經網絡壓縮方法研究

發(fā)布時間:2021-10-06 21:21
  隨著物聯(lián)網(Internet of Things,IoT)逐步地對傳統(tǒng)行業(yè)進行智能化升級,深度學習技術不斷被應用到可穿戴設備、智能家居、無人數(shù)字工廠、無人物流運輸和智慧醫(yī)療等方面。然而,如今性能強大的大型卷積神經網絡(Convolution Neural Network,CNN)模型仍然難以在FPGA(Field Programmable Gate Array)和嵌入式等硬件資源非常有限的邊緣設備上部署使用。所以,亟需對CNN模型進行有效地壓縮,從而使網絡模型滿足邊緣設備部署應用的要求。目前,在CNN模型壓縮算法方面已有許多的工作,學者們使用不同的方式來降低網絡的冗余。然而,現(xiàn)有的這類方法在解決邊緣計算的需求時仍然面臨許多挑戰(zhàn)。在當前的CNN模型壓縮方法中,都存在著局限于小型的數(shù)據(jù)集和網絡模型、僅考慮某一方面的要求和只針對GPU處理器實現(xiàn)加速推理等問題,難以滿足實際任務的大型CNN模型在邊緣部署應用的要求。因此,針對現(xiàn)有上述邊緣設備的限制和CNN模型壓縮的問題,提出面向邊緣設備的壓縮方法。為了滿足既CNN模型在實際任務中精確率的要求,也要滿足模型的部署需求,因此針對CNN模型存在的中多... 

【文章來源】:廣東工業(yè)大學廣東省

【文章頁數(shù)】:63 頁

【學位級別】:碩士

【部分圖文】:

面向邊緣計算的卷積神經網絡壓縮方法研究


典型低秩分解方法

數(shù)學模型,函數(shù),浮點,模型訓練


圖 2-1 神經元的生物及及數(shù)學模型Figure 2-1 Biological and mathematical models of neuron如圖 2-2 所示,當 x 0時,則 f ( x ) 0;而 x 0時,則 f ( x )x。因此,ReLU的輸出值范圍是[0, + ],與 sigmoid 函數(shù)和 tanh 函數(shù)有極大區(qū)別。并且由于不需要復雜的浮點預算操作,因此計算速度極快。同時,由于 ReLU 為正數(shù)時是線性的,并沒飽區(qū)間。因此它避免了模型訓練時候梯度消失問題。圖 2-2 ReLU 激活函數(shù)

激活函數(shù),函數(shù),模型訓練,計算速度


f ( x ) max (0, x )圖 2-1 神經元的生物及及數(shù)學模型re 2-1 Biological and mathematical models of neuro當 x 0時,則 f ( x ) 0;而 x 0時,則 f ( x ) + ],與 sigmoid 函數(shù)和 tanh 函數(shù)有極大區(qū)別。作,因此計算速度極快。同時,由于 ReLU 為正它避免了模型訓練時候梯度消失問題。

【參考文獻】:
期刊論文
[1]《中國人工智能發(fā)展報告2018》正式發(fā)布[J]. 張涵.  中國國情國力. 2018(08)



本文編號:3420766

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/3420766.html


Copyright(c)文論論文網All Rights Reserved | 網站地圖 |

版權申明:資料由用戶f8959***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com