一種基于GPU的快速半全局優(yōu)化深度圖計(jì)算方法
本文選題:維重建 + 平面掃描; 參考:《工程科學(xué)與技術(shù)》2017年06期
【摘要】:由于圖像集規(guī)模巨大、匹配信息豐富,快速精準(zhǔn)多視圖立體匹配受計(jì)算效率嚴(yán)重制約。針對(duì)該問題,提出一種基于GPU的快速半全局優(yōu)化深度圖計(jì)算方法。首先,在CPU上通過平面掃描方法計(jì)算單張圖像初始匹配代價(jià)。然后,提出GPU半全局優(yōu)化并行計(jì)算架構(gòu),對(duì)匹配代價(jià)進(jìn)行聚合,其核心算法為:在全局進(jìn)行各方向聚合任務(wù)流并行以提升眾核處理器的利用率;在局部通過將各像素計(jì)算任務(wù)準(zhǔn)確分配到各線程塊內(nèi)實(shí)現(xiàn)并行處理,且注重GPU上數(shù)據(jù)重用以避免帶寬限制。再通過GPU濾波剔除突變點(diǎn)進(jìn)行圖像增強(qiáng)。最后,將3維空間點(diǎn)在各深度圖像上的一致性作為異常值檢測和優(yōu)化的約束條件。在多組數(shù)據(jù)集上測試結(jié)果顯示,該方法計(jì)算速度最高為多核CPU系統(tǒng)中開啟2線程實(shí)現(xiàn)方法的22.41倍,為開啟8線程實(shí)現(xiàn)方法的9.13倍,且與兩者精度相當(dāng);與同類深度圖計(jì)算方法比較結(jié)果表明,該方法在重建過程中加速效果均為其他算法的5倍及以上;通過使用開源點(diǎn)云比較軟件在標(biāo)準(zhǔn)測試數(shù)據(jù)集上與其他算法比較,驗(yàn)證了該方法能有效提高重建結(jié)果的精度和完整度。
[Abstract]:Because of the large scale of image set and abundant matching information, fast and accurate multi-view stereo matching is seriously restricted by computational efficiency. To solve this problem, a fast semi-global optimization depth map calculation method based on GPU is proposed. Firstly, the initial matching cost of single image is calculated by plane scanning method on CPU. Then, the GPU semi-global optimization parallel computing architecture is proposed to aggregate the matching costs. The core algorithms are as follows: the global aggregation of task flows in different directions parallel to improve the utilization of the core processor; In order to avoid bandwidth limitation, parallel processing is realized by assigning each pixel computing task to each thread block accurately, and the data reuse on GPU is emphasized. Then GPU filter is used to eliminate the mutation point for image enhancement. Finally, the consistency of 3D spatial points on each depth image is taken as the constraint of outliers detection and optimization. The test results on multiple data sets show that the maximum computing speed of this method is 22.41 times that of the two-thread implementation method in the multi-core CPU system and 9.13 times of that of the 8-thread open implementation method, and the accuracy of the method is similar to that of the two methods. The results of comparison with similar depth map calculation methods show that the acceleration effect of this method is 5 times or more than that of other algorithms in the reconstruction process, and the open source point cloud comparison software is used to compare with other algorithms on the standard test data set. It is verified that this method can effectively improve the accuracy and integrity of the reconstruction results.
【作者單位】: 四川大學(xué)計(jì)算機(jī)學(xué)院;
【基金】:國家自然科學(xué)基金資助項(xiàng)目(61571313) 四川省科技創(chuàng)新苗子工程資助項(xiàng)目(2016017)
【分類號(hào)】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 左一帆;安平;張兆楊;;基于圖割的高質(zhì)量深度圖獲取方法[J];電視技術(shù);2011年15期
2 張艷;安平;張秋聞;王奎;張兆楊;;恰可察覺深度差異模型的深度圖優(yōu)化方法[J];光電子.激光;2012年07期
3 左宇鵬;;基于深度圖壓縮的邊界自適應(yīng)上采樣方案[J];計(jì)算機(jī)與現(xiàn)代化;2014年05期
4 楊超;安平;何宛文;王健鑫;張兆楊;;一種用于深度圖編碼的虛擬視失真估計(jì)模型[J];光電子.激光;2014年07期
5 溫宇強(qiáng),李德華;多視角深度圖融合方法綜述[J];計(jì)算機(jī)與數(shù)字工程;2003年04期
6 葉長明;蔣建國;詹曙;S.Ando;;不同姿態(tài)人臉深度圖識(shí)別的研究[J];電子測量與儀器學(xué)報(bào);2011年10期
7 左一帆;安平;馬然;沈禮權(quán);張兆楊;;深度圖時(shí)域一致性增強(qiáng)[J];光電子.激光;2014年01期
8 朱波;蔣剛毅;張?jiān)?郁梅;;面向虛擬視點(diǎn)圖像繪制的深度圖編碼算法[J];光電子.激光;2010年05期
9 周娟;李勇平;黃躍峰;;基于強(qiáng)度圖和深度圖的多模態(tài)人臉識(shí)別[J];計(jì)算機(jī)工程與應(yīng)用;2012年25期
10 李思宇;李勝;王衡;汪國平;;利用深度圖優(yōu)化的自然光束體構(gòu)建與繪制[J];計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào);2011年07期
相關(guān)會(huì)議論文 前5條
1 陳東;楊生鵬;莊嚴(yán);王偉;;基于視覺信息的三維激光點(diǎn)云渲染與深度圖構(gòu)建[A];第二十九屆中國控制會(huì)議論文集[C];2010年
2 劉偉鋒;張卓;王延江;;基于光線衰減的深度獲取方法[A];中國自動(dòng)化學(xué)會(huì)控制理論專業(yè)委員會(huì)B卷[C];2011年
3 張帥;付宏杰;;基于Kinect的多點(diǎn)觸控系統(tǒng)研究與實(shí)現(xiàn)[A];第六屆全國信號(hào)和智能信息處理與應(yīng)用學(xué)術(shù)會(huì)議論文集[C];2012年
4 孫揚(yáng)鑣;;多目標(biāo)模糊全局優(yōu)化設(shè)計(jì)方法和軟件[A];土木工程計(jì)算機(jī)應(yīng)用文集——中國土木工程學(xué)會(huì)計(jì)算機(jī)應(yīng)用學(xué)會(huì)第五屆年會(huì)論文集[C];1993年
5 夏青;岳利群;;基于GPU編程的海浪仿真技術(shù)研究[A];2007系統(tǒng)仿真技術(shù)及其應(yīng)用學(xué)術(shù)會(huì)議論文集[C];2007年
,本文編號(hào):1967109
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1967109.html