多GPU并行計算及其在粒子模擬中的應(yīng)用
發(fā)布時間:2017-07-15 19:19
本文關(guān)鍵詞:多GPU并行計算及其在粒子模擬中的應(yīng)用
更多相關(guān)文章: Multi-GPUs 統(tǒng)一內(nèi)存 CUDA 粒子模擬
【摘要】:粒子模擬(particle-in-cell,PIC)方法是研究帶電粒子運動規(guī)律的重要方法。伴隨著計算機技術(shù)的高速發(fā)展,PIC方法自誕生以來便受到國內(nèi)外諸多研究機構(gòu)青睞,應(yīng)用領(lǐng)域十分廣泛,已然成為一種重要的研究手段。但隨著科學(xué)計算的發(fā)展,計算規(guī)模急劇增大,傳統(tǒng)的基于中央處理器(Central Processing Unit,CPU)的計算機受制于物理結(jié)構(gòu)和能耗等問題,已經(jīng)無法滿足計算要求。與CPU不同,圖形處理器(Graphics Processor Unit,GPU)采用眾核結(jié)構(gòu),內(nèi)部多達幾千個計算核心,每個計算核心都相當(dāng)于一個單核處理器,這使得GPU擁有強大的計算能力。隨著GPU的快速發(fā)展,其應(yīng)用領(lǐng)域延伸到高性能計算(High Performance Compute,HPC)領(lǐng)域。如何將CPU和GPU結(jié)合起來,發(fā)揮各自優(yōu)秀的計算能力,已然成為HPC領(lǐng)域共同研究的關(guān)鍵點,圍繞GPU設(shè)計的加速核心算法的執(zhí)行逐漸成為HPC領(lǐng)域一個重要的發(fā)展趨勢。論文主要是在個人計算機中研究Multi-GPUs并行計算技術(shù),并基于Multi-GPUs實現(xiàn)激光與等離子體互作用物理過程的并行模擬,為實現(xiàn)GPU集群模擬奠定前期的實踐基礎(chǔ)。文中主要研究了基于GPU組成的不同計算架構(gòu)系統(tǒng)應(yīng)用優(yōu)勢,及其在粒子模擬的并行化應(yīng)用。闡述了國內(nèi)外對采用GPU技術(shù)的粒子模擬研究的最新成果,總結(jié)了CUDA的技術(shù)要點及其在不同GPU計算系統(tǒng)中的技術(shù)優(yōu)勢。論文中進一步基于激光與等離子體互作用的數(shù)理模型和實驗室開發(fā)的LPICMCC++求解器軟件和串行實現(xiàn)算法,總結(jié)和提煉Multi-GPUs并行實現(xiàn)算法。采用業(yè)內(nèi)最新推出的Uuified Memory(統(tǒng)一內(nèi)存)技術(shù),對LPICMCC++求解器不同模塊的代碼進行改寫,移植到并行計算環(huán)境中進行加速計算。論文最后將激光與等離子互作用的整個物理過程在Multi-GPUs并行環(huán)境下進行了模擬驗證,以串行LPICMCC++求解器的結(jié)果為參照數(shù)據(jù),對整個過程中不同周期的數(shù)據(jù)進行的對比,以驗證Multi-GPUs并行實現(xiàn)的正確性。通過對不同粒子狀態(tài)下的計算時間和結(jié)果,總結(jié)Multi-GPUs并行實現(xiàn)的加速比,并說明結(jié)果中的產(chǎn)生誤差的原因。
【關(guān)鍵詞】:Multi-GPUs 統(tǒng)一內(nèi)存 CUDA 粒子模擬
【學(xué)位授予單位】:電子科技大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2016
【分類號】:TP338.6
【目錄】:
- 摘要5-6
- ABSTRACT6-10
- 第一章 緒論10-16
- 1.1 論文選題背景及意義10-11
- 1.2 GPU技術(shù)的發(fā)展現(xiàn)狀11-13
- 1.3 粒子模擬的并行發(fā)展現(xiàn)狀13-14
- 1.4 本文的主要工作與創(chuàng)新14
- 1.5 本論文的結(jié)構(gòu)安排14-16
- 第二章 GPU并行計算技術(shù)16-29
- 2.1 早期的GPGPU編程16
- 2.2 CUDA的誕生與發(fā)展16-21
- 2.2.1 CUDA基本介紹16-18
- 2.2.2 CUDA尋址技術(shù)的發(fā)展18-21
- 2.3 單GPU異構(gòu)編程系統(tǒng)21-24
- 2.3.1 單GPU異構(gòu)編程物理結(jié)構(gòu)21-22
- 2.3.2 單GPU CUDA編程模型22-24
- 2.4 Multi-GPUs異構(gòu)編程系統(tǒng)24-28
- 2.4.1 Multi-GPUs異構(gòu)編程物理結(jié)構(gòu)24-25
- 2.4.2 Multi-GPUs CUDA編程模型25-28
- 2.5 本章小結(jié)28-29
- 第三章 LPICMCC++及其并行實現(xiàn)方案介紹29-40
- 3.1 LPICMCC++求解器及數(shù)理模型概述29-31
- 3.1.1 LPICMCC++求解器概述29
- 3.1.2 LPICMCC++求解器數(shù)理模型29-31
- 3.2 LPICMCC++串行程序?qū)崿F(xiàn)31-33
- 3.2.1 PIC/MCC模擬流程31-32
- 3.2.2 LPICMCC++程序熱點剖析32-33
- 3.2.3 改進后的程序數(shù)據(jù)結(jié)構(gòu)33
- 3.3 LPICMCC++的單GPU并行程序概述33-36
- 3.3.1 單GPU并行模擬流程33-34
- 3.3.2 單GPU并行調(diào)用模式34-35
- 3.3.3 單GPU并行模式分析35-36
- 3.4 LPICMCC++的Multi-GPUs并行的實現(xiàn)36-39
- 3.4.1 Multi-GPUs并行模擬流程36-37
- 3.4.2 Multi-GPUs模式下數(shù)據(jù)調(diào)用37
- 3.4.3 Multi-GPUs模式下程序執(zhí)行模式37-39
- 3.5 本章小結(jié)39-40
- 第四章 LPICMCC++的Multi-GPUs并行實現(xiàn)40-47
- 4.1 引言40
- 4.2 粒子加速模塊并行實現(xiàn)40-42
- 4.2.1 CPU粒子加速模塊模擬算法40-42
- 4.2.2 粒子加速模塊Multi-GPUs并行實現(xiàn)42
- 4.3 場模塊并行實現(xiàn)42-46
- 4.3.1 場模塊模擬算法42-45
- 4.3.2 場模塊Multi-GPUs并行實現(xiàn)45-46
- 4.4 本章小結(jié)46-47
- 第五章 并行實現(xiàn)與結(jié)果分析47-59
- 5.1 實驗平臺和實驗參數(shù)設(shè)定47-49
- 5.1.1 實驗平臺介紹47-48
- 5.1.2 實驗參數(shù)設(shè)定48-49
- 5.2 結(jié)果驗證與對比49-56
- 5.2.1 不同周期下的結(jié)果驗證49-55
- 5.2.2 誤差分析55-56
- 5.3 加速比56-58
- 5.3.1 粒子加速模塊的加速比56-57
- 5.3.2 場模塊的加速比57-58
- 5.4 本章小結(jié)58-59
- 第六章 總結(jié)59-60
- 致謝60-61
- 參考文獻61-64
【相似文獻】
中國期刊全文數(shù)據(jù)庫 前10條
1 何牧君;郭力;嚴(yán)歷;;大規(guī)模并行粒子模擬系統(tǒng)通信性能優(yōu)化研究與分析[J];計算機與應(yīng)用化學(xué);2008年09期
2 郭衛(wèi)衛(wèi);郭力;;大規(guī)模粒子模擬并行前處理系統(tǒng)的設(shè)計與實現(xiàn)[J];計算機與應(yīng)用化學(xué);2010年12期
3 褚曉銳;;電子回旋脈塞等離子體的粒子模擬[J];山西大學(xué)學(xué)報(自然科學(xué)版);2009年03期
4 劉大剛;周俊;楊超;;粒子模擬中的電磁場算法[J];強激光與粒子束;2010年06期
5 廖臣;劉大剛;劉盛綱;;三維電磁粒子模擬并行計算的研究[J];物理學(xué)報;2009年10期
6 卓紅斌,常文蔚,徐涵,馬燕云;低密度等離子體融斷開關(guān)的粒子模擬研究[J];強激光與粒子束;2001年04期
7 錢波;褚曉銳;施智雄;楊中海;;電子回旋脈塞等離子體粒子模擬的理論研究[J];山西大學(xué)學(xué)報(自然科學(xué)版);2009年01期
8 劉大剛;祝大軍;周俊;胡e,
本文編號:545377
本文鏈接:http://sikaile.net/kejilunwen/jisuanjikexuelunwen/545377.html
最近更新
教材專著