面向CUDA程序的線程放置優(yōu)化策略研究
發(fā)布時間:2022-01-08 17:15
GPU具備強大的數(shù)據(jù)并行處理與浮點計算能力,因而被越來越廣泛地應(yīng)用于數(shù)值模擬和科學(xué)計算等領(lǐng)域。提高GPU上程序開發(fā)效率以及程序的性能就顯得尤為重要,線程放置策略是其中重要的一環(huán)。本文在程序信息基礎(chǔ)上,使用機器學(xué)習(xí)算法建立了CUDA程序線程放置優(yōu)化模型。本文首先在運行時信息采集環(huán)節(jié)做了改進(jìn),只保留了其中與程序性能相關(guān)的核心信息。接著,提出并實現(xiàn)了基于LLVM的靜態(tài)信息替代運行時信息的方法,進(jìn)一步降低了信息采集環(huán)節(jié)的時間。此外,提出了全新的設(shè)置標(biāo)簽算法。綜合上述改進(jìn),最終確定了采用支持向量機算法、借助網(wǎng)格搜索方法擇優(yōu)的模型。本文在公開程序集上選擇與已有模型在同等條件下展開測試,結(jié)果表明本文的模型比現(xiàn)有模型在時間上更具優(yōu)勢,并獲得了更高的訓(xùn)練準(zhǔn)確率。
【文章來源】:智能計算機與應(yīng)用. 2020,10(02)
【文章頁數(shù)】:5 頁
【部分圖文】:
基于LLVM對CUDA程序線程分配優(yōu)化模型的改進(jìn)
圖2 分析pass的指令信息統(tǒng)計的實現(xiàn)
在測試分析部分,本文與已有的Connors[4]模型進(jìn)行了相同訓(xùn)練數(shù)據(jù)下的訓(xùn)練時間、訓(xùn)練精度對比分析。2個模型運行時間的對比結(jié)果如圖3所示,2個模型在充足訓(xùn)練集下的訓(xùn)練準(zhǔn)確率的對比結(jié)果則如圖4所示。圖4 與已有模型的訓(xùn)練準(zhǔn)確率對比
【參考文獻(xiàn)】:
期刊論文
[1]基于CUPTI接口的典型GPU程序負(fù)載特征分析[J]. 鄭禎,翟季冬,李焱,陳文光. 計算機研究與發(fā)展. 2016(06)
本文編號:3576957
【文章來源】:智能計算機與應(yīng)用. 2020,10(02)
【文章頁數(shù)】:5 頁
【部分圖文】:
基于LLVM對CUDA程序線程分配優(yōu)化模型的改進(jìn)
圖2 分析pass的指令信息統(tǒng)計的實現(xiàn)
在測試分析部分,本文與已有的Connors[4]模型進(jìn)行了相同訓(xùn)練數(shù)據(jù)下的訓(xùn)練時間、訓(xùn)練精度對比分析。2個模型運行時間的對比結(jié)果如圖3所示,2個模型在充足訓(xùn)練集下的訓(xùn)練準(zhǔn)確率的對比結(jié)果則如圖4所示。圖4 與已有模型的訓(xùn)練準(zhǔn)確率對比
【參考文獻(xiàn)】:
期刊論文
[1]基于CUPTI接口的典型GPU程序負(fù)載特征分析[J]. 鄭禎,翟季冬,李焱,陳文光. 計算機研究與發(fā)展. 2016(06)
本文編號:3576957
本文鏈接:http://sikaile.net/kejilunwen/jisuanjikexuelunwen/3576957.html
最近更新
教材專著