混合w-facets成像并行算法研究
發(fā)布時(shí)間:2021-06-26 18:24
大視場(chǎng)成像是低頻射電干涉陣列數(shù)據(jù)處理的核心技術(shù),也是實(shí)現(xiàn)未來(lái)平方公里陣射電望遠(yuǎn)鏡(square kilometre array, SKA)宏偉科學(xué)目標(biāo)的基礎(chǔ)手段。為了改善uv-faceting和w-projection這兩種大視場(chǎng)成像算法,研究了它們之間的混合算法(稱為w-facets);此外,為了加速該混合算法,提出基于多核CPU和GPU的并行算法。驗(yàn)證性實(shí)驗(yàn)表明,與uv-faceting算法相比,該混合算法每束光能降低4 mJy噪聲水平,圖像的動(dòng)態(tài)范圍最高提升2.34 dB;并且,在圖像質(zhì)量最好時(shí),與目前在澳大利亞默奇森寬視場(chǎng)陣列(Murchison widefield array, MWA)項(xiàng)目數(shù)據(jù)處理中廣泛使用的w-stacking算法的結(jié)果基本一致。性能測(cè)試結(jié)果表明,基于多核CPU的并行算法在一定線程數(shù)范圍內(nèi),具有良好的可拓展性,當(dāng)分面數(shù)與線程數(shù)相等時(shí),加速效果最佳;基于GPU的并行算法加速比高達(dá)201.8倍,是多核CPU的并行方法最佳結(jié)果的8.9倍左右。這些研究成果能夠?yàn)榧磳㈤_(kāi)展的大視場(chǎng)成像相關(guān)科學(xué)任務(wù),提供有力的技術(shù)支撐和參考價(jià)值。
【文章來(lái)源】:天文學(xué)進(jìn)展. 2020,38(04)北大核心CSCD
【文章頁(yè)數(shù)】:15 頁(yè)
【部分圖文】:
基于GPU的混合w-facets成像并行算法流程
如圖2和圖3所示,分別為基于GPU的混合算法的成像結(jié)果和使用w-stacking算法的成像結(jié)果。為了便于比較,我們截取出距離原始圖像較遠(yuǎn)位置的射電源,并得到如圖2b)中和圖3b)中的兩個(gè)圖像。圖2b)圖像的峰值為每束光309.5 m Jy,RM S值為每束光23.7 m Jy。圖3b)圖像的峰值為每束光311.9 m Jy,RM S值為每束光21.8 m Jy。結(jié)合表2與整個(gè)圖像的對(duì)比,表明本文的GPU混合算法能夠?qū)嚯x較遠(yuǎn)的射電源成圖,且成圖結(jié)果與w-stacking獲得的結(jié)果基本一致;诙嗪薈PU的混合算法結(jié)果與GPU混合算法結(jié)果相同,這里不作展示。圖3 w-stacking成像結(jié)果
w-stacking成像結(jié)果
【參考文獻(xiàn)】:
期刊論文
[1]uv-faceting成像并行算法研究[J]. 勞保強(qiáng),安濤,于昂,郭紹光. 天文學(xué)報(bào). 2019(02)
本文編號(hào):3251846
【文章來(lái)源】:天文學(xué)進(jìn)展. 2020,38(04)北大核心CSCD
【文章頁(yè)數(shù)】:15 頁(yè)
【部分圖文】:
基于GPU的混合w-facets成像并行算法流程
如圖2和圖3所示,分別為基于GPU的混合算法的成像結(jié)果和使用w-stacking算法的成像結(jié)果。為了便于比較,我們截取出距離原始圖像較遠(yuǎn)位置的射電源,并得到如圖2b)中和圖3b)中的兩個(gè)圖像。圖2b)圖像的峰值為每束光309.5 m Jy,RM S值為每束光23.7 m Jy。圖3b)圖像的峰值為每束光311.9 m Jy,RM S值為每束光21.8 m Jy。結(jié)合表2與整個(gè)圖像的對(duì)比,表明本文的GPU混合算法能夠?qū)嚯x較遠(yuǎn)的射電源成圖,且成圖結(jié)果與w-stacking獲得的結(jié)果基本一致;诙嗪薈PU的混合算法結(jié)果與GPU混合算法結(jié)果相同,這里不作展示。圖3 w-stacking成像結(jié)果
w-stacking成像結(jié)果
【參考文獻(xiàn)】:
期刊論文
[1]uv-faceting成像并行算法研究[J]. 勞保強(qiáng),安濤,于昂,郭紹光. 天文學(xué)報(bào). 2019(02)
本文編號(hào):3251846
本文鏈接:http://sikaile.net/kejilunwen/tianwen/3251846.html
最近更新
教材專著