基于旋轉(zhuǎn)投影二進(jìn)制描述符的空間目標(biāo)位姿估計
本文選題:空間目標(biāo) 切入點:位姿估計 出處:《光學(xué)精密工程》2017年11期 論文類型:期刊論文
【摘要】:為了實現(xiàn)基于點云的空間目標(biāo)相對位姿快速估計,提出一種旋轉(zhuǎn)投影二進(jìn)制描述符(BRoPH)。該描述符首先建立特征點處的局部參考坐標(biāo)系,然后通過旋轉(zhuǎn)投影局部點云生成不同視角下的密度圖像塊和深度圖像塊,最后根據(jù)圖像塊生成特征點的多尺度二進(jìn)制字符串。針對位姿估計對實時性的要求,在分析BRoPH Hamming距離分布的基礎(chǔ)上,提出了基于Hamming距離閾值的特征匹配策略,用于剔除潛在的錯誤配對,加快位姿估計收斂速度。最后,在基于局部特征描述符位姿估計框架下分別與SHOT描述符和FPFH描述符進(jìn)行了比較。結(jié)果表明:BRoPH描述符在僅需要SHOT和FPFH平均內(nèi)存1/80的基礎(chǔ)上,得到了遠(yuǎn)高于SHOT和FPFH的平均位姿估計精度,其平均姿態(tài)誤差小于0.1°,平均位置誤差小于1/180 R。此外,基于Hamming距離閾值的特征匹配策略使得BRoPH的位姿粗估計速度加快了7倍,總體位姿估計頻率超過7Hz,比SHOT和FPFH分別快3~6.8倍。該方法具有占用內(nèi)存小、計算速度快、位姿估計精度高和抗干擾能力強(qiáng)等優(yōu)點,滿足基于點云的空間目標(biāo)位姿估計實時性要求。
[Abstract]:In order to estimate the relative position and orientation of spatial objects based on point cloud, a rotating projection binary descriptor (BRoPHG) is proposed. The local reference coordinate system at the feature points is established in the descriptor. Then the density image block and depth image block under different angle of view are generated by rotating projection local point cloud. Finally, the multi-scale binary string of feature points is generated according to the image block. Based on the analysis of BRoPH Hamming distance distribution, a feature matching strategy based on Hamming distance threshold is proposed to eliminate potential error pairs and speed up the convergence of pose estimation. Compared with SHOT descriptor and FPFH descriptor under the framework of local feature descriptor position and pose estimation, the result shows that the SHOT and FPFH average memory 1/80 are only needed in the SHOT descriptor. The average attitude error is less than 0. 1 擄and the average position error is less than 1/180 R. in addition, the feature matching strategy based on Hamming distance threshold accelerates the coarse estimation speed of BRoPH position and pose by 7 times. The total pose estimation frequency is more than 7 Hz, which is 36.8 times faster than SHOT and FPFH, respectively. This method has the advantages of small memory, fast computing speed, high precision of pose estimation and strong anti-interference ability. It can meet the real-time requirements of spatial target pose estimation based on point cloud.
【作者單位】: 清華大學(xué)自動化系;清華大學(xué)深圳研究生院;
【基金】:廣東省自然科學(xué)基金資助項目(No.2014A030310318,No.2015A030313881) 深圳基礎(chǔ)研究資金資助項目(No.JCYJ20140509172959962,No.JCYJ20160301153317415,No.JCYJ20160301100921349)
【分類號】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 許允喜;蔣云良;陳方;;基于點和直線段對應(yīng)的擴(kuò)展正交迭代位姿估計算法[J];光學(xué)學(xué)報;2009年11期
2 徐蕭蕭;王智靈;陳宗海;;視頻序列中基于頭肩分割的人體位姿估計算法[J];中國圖象圖形學(xué)報;2010年12期
3 張政;張小虎;傅丹;;一種高精度魯棒的基于直線對應(yīng)的位姿估計迭代算法[J];計算機(jī)應(yīng)用;2008年02期
4 許允喜;蔣云良;陳方;;多攝像機(jī)系統(tǒng)位姿估計的廣義正交迭代算法[J];光學(xué)學(xué)報;2009年01期
5 許允喜;蔣云良;陳方;劉勇;;基于點線對應(yīng)的多攝像機(jī)全局位姿估計迭代算法[J];光子學(xué)報;2010年10期
6 郭軍;董新民;王龍;;綜合重構(gòu)與正交迭代位姿估計算法[J];應(yīng)用科學(xué)學(xué)報;2011年06期
7 馬文娟;;結(jié)合分支定界法和線性規(guī)劃的攝像機(jī)位姿估計[J];中國圖象圖形學(xué)報;2012年05期
8 朱楓;秦麗娟;談大龍;;量化誤差對直線位姿估計精度影響的研究[J];機(jī)器人;2007年04期
9 王曉劍;潘順良;邱力為;沈為群;宋子善;;基于雙平行線特征的位姿估計解析算法[J];儀器儀表學(xué)報;2008年03期
10 劉昶;朱楓;歐錦軍;;基于三條相互垂直直線的單目位姿估計[J];模式識別與人工智能;2012年05期
相關(guān)會議論文 前1條
1 馬景然;張濤;宋靖雁;;一種基于圖像的空間目標(biāo)器模擬裝置的姿態(tài)控制系統(tǒng)[A];2007年中國智能自動化會議論文集[C];2007年
相關(guān)博士學(xué)位論文 前4條
1 江士雄;面向位姿估計的相機(jī)系統(tǒng)標(biāo)定方法研究[D];華中科技大學(xué);2016年
2 李鑫;基于視覺的位姿估計與點目標(biāo)運動測量方法研究[D];國防科學(xué)技術(shù)大學(xué);2015年
3 陳鵬;基于單目視覺的像機(jī)位姿估計技術(shù)[D];北京科技大學(xué);2015年
4 王敏;復(fù)雜背景下的空間目標(biāo)自動識別技術(shù)[D];中國科學(xué)院長春光學(xué)精密機(jī)械與物理研究所;2017年
相關(guān)碩士學(xué)位論文 前10條
1 宋昱慧;基于單目視覺的四旋翼無人機(jī)位姿估計與控制[D];哈爾濱工業(yè)大學(xué);2016年
2 王亞彪;面向工業(yè)裝配演示編程的零件識別與位姿估計[D];浙江大學(xué);2016年
3 劉俊;基于單目視覺的物體位姿估計方法研究[D];哈爾濱工業(yè)大學(xué);2016年
4 程偉;單相機(jī)光學(xué)三坐標(biāo)測量系統(tǒng)的研究[D];上海大學(xué);2016年
5 劉濤;基于電塔三維模型的飛行機(jī)器人單目視覺輔助定位[D];華北電力大學(xué);2013年
6 申為峰;基于視覺的無人機(jī)自主著陸跑道識別與位姿估計[D];沈陽航空工業(yè)學(xué)院;2010年
7 張勇;基于合作目標(biāo)的無人機(jī)位姿估計算法研究[D];南京航空航天大學(xué);2010年
8 朱冬梅;無人機(jī)視覺著陸中的模糊圖像恢復(fù)和位姿估計技術(shù)研究[D];南京航空航天大學(xué);2009年
9 武建剛;增強(qiáng)現(xiàn)實中基于投影重建的目標(biāo)位姿估計技術(shù)研究[D];華中科技大學(xué);2007年
10 甘前超;基于DM6446的非合作目標(biāo)位姿估計算法研究[D];哈爾濱工業(yè)大學(xué);2011年
,本文編號:1641252
本文鏈接:http://sikaile.net/kejilunwen/ruanjiangongchenglunwen/1641252.html