基于視覺的機(jī)器人非線性位姿估計(jì)和控制
發(fā)布時(shí)間:2021-12-24 06:50
隨著科學(xué)技術(shù)的發(fā)展,機(jī)器人頻繁地出現(xiàn)在大眾視野,其應(yīng)用范圍也逐漸由工業(yè)領(lǐng)域擴(kuò)展到生活服務(wù)、醫(yī)療衛(wèi)生等領(lǐng)域。機(jī)器人工作環(huán)境也日趨復(fù)雜且非結(jié)構(gòu)化。視覺傳感器作為機(jī)器人的“眼睛”,是機(jī)器人在非結(jié)構(gòu)構(gòu)化工作環(huán)境中運(yùn)行必不可少的組件。因此,視覺伺服系統(tǒng)已成為機(jī)器人控制領(lǐng)域熱點(diǎn)研究方向之一,對(duì)提高機(jī)器人適應(yīng)復(fù)雜環(huán)境和自主控制能力具有重要意義。由于對(duì)系統(tǒng)參數(shù)不確定性和圖像測量噪聲的魯棒性較強(qiáng),基于圖像的視覺伺服技術(shù)在機(jī)器人控制中得到了廣泛的應(yīng)用。然而,傳統(tǒng)的基于圖像雅可比矩陣的視覺伺服系統(tǒng)存在穩(wěn)定域較小、特征點(diǎn)容易丟失,且容易產(chǎn)生意料之外的運(yùn)動(dòng)軌跡等問題。因此,針對(duì)基于圖像的視覺伺服系統(tǒng),如何提高視覺伺服系統(tǒng)的性能,保證目標(biāo)始終在視野之內(nèi),且在非結(jié)構(gòu)化環(huán)境下避開障礙物尤為重要。針對(duì)上述問題,本文對(duì)基于視覺的機(jī)器人位姿估計(jì)和控制進(jìn)行了深度研究,主要研究內(nèi)容如下:1.針對(duì)單目相機(jī)無法感知環(huán)境三維信息問題,提出了一種特征點(diǎn)位置的連續(xù)Riccati觀測器設(shè)計(jì)方法,利用三維信息的估計(jì)來提高視覺伺服系統(tǒng)的性能。首先,基于機(jī)器人的運(yùn)動(dòng)信息,給出了擴(kuò)展Kalman濾波器設(shè)計(jì)方法。在此基礎(chǔ)上,利用Lyapunov方法...
【文章來源】:浙江工業(yè)大學(xué)浙江省
【文章頁數(shù)】:107 頁
【學(xué)位級(jí)別】:博士
【部分圖文】:
巷道分揀機(jī)器人Figure1-1.Typicallanewaysortingrobot
員承擔(dān)一些瑣碎的跑腿工作。Moxi機(jī)器人的外觀如圖1-2所示。據(jù)新聞報(bào)道,美國華盛頓醫(yī)療中心、盧旺達(dá)Kanyinya新型冠狀病毒治療中心和武漢市第三醫(yī)院等醫(yī)療機(jī)構(gòu)都使用了智能視覺機(jī)器人協(xié)作醫(yī)護(hù)人員開展工作。智能醫(yī)護(hù)機(jī)器人與醫(yī)護(hù)人員、病人共享工作空間,對(duì)安全性和可靠性的要求較高,需要裝配冗余協(xié)作機(jī)器手臂,在進(jìn)行工作時(shí),需要時(shí)刻通過視覺觀察環(huán)境并關(guān)注自身手臂與周邊環(huán)境中其它物品是否會(huì)發(fā)生碰撞,且應(yīng)具有避開環(huán)境中的障礙物抓取藥物和工具的能力。圖1-1巷道分揀機(jī)器人Figure1-1.Typicallanewaysortingrobot圖1-2Moxi智能醫(yī)護(hù)機(jī)器人Figure1-2.Moxiintelligentmedicalrobot在這些應(yīng)用中,環(huán)境和任務(wù)是動(dòng)態(tài)變化的,因此,機(jī)器人控制系統(tǒng)必須能夠在復(fù)雜的環(huán)境中認(rèn)識(shí)環(huán)境和對(duì)象、判斷目標(biāo)的距離、接近目的地以及繞過障礙物抓取目標(biāo)物體。人類依賴視覺完成各種復(fù)雜的工作,對(duì)于機(jī)器人,視覺同樣是認(rèn)識(shí)動(dòng)態(tài)環(huán)境最合適的傳感器,是執(zhí)行動(dòng)態(tài)任務(wù)必不可少的組件。大量來自不同領(lǐng)域的研究者對(duì)基于視覺的控制技術(shù)表現(xiàn)出了極大的興趣,探索了視覺控制技術(shù)在各個(gè)領(lǐng)域中的應(yīng)用,如生物細(xì)胞自動(dòng)注射[5]、內(nèi)窺鏡手術(shù)[6]和救災(zāi)機(jī)器人[7]等。在機(jī)器人領(lǐng)域,由于對(duì)系統(tǒng)參數(shù)不確定性和圖像測量噪聲的魯棒性較強(qiáng),基于圖像的視覺伺服技術(shù)得到了廣泛的應(yīng)用。然而,傳統(tǒng)的基于圖像雅可比矩陣的視覺伺服系統(tǒng)存在穩(wěn)定域較孝特征點(diǎn)容易丟失,且容易產(chǎn)生意料之外的運(yùn)動(dòng)軌跡等問題。針對(duì)這些問題,期望能夠通過視覺動(dòng)態(tài)估計(jì)特征點(diǎn)三維信息以提高視覺伺服系統(tǒng)的性能、改善三維運(yùn)動(dòng)軌跡,同時(shí)保證在伺服過程中目標(biāo)物體始終在視野之內(nèi),且在非結(jié)構(gòu)化環(huán)境下能夠避開障礙物。因此,開展基于視覺的機(jī)器人狀態(tài)估計(jì)和控制方面的研究具有重要意義。1.2視覺伺服研究現(xiàn)
SuperPoint的典型實(shí)驗(yàn)結(jié)果IFigure2-10.TypicalexperimentalresultsofSuperPointI
本文編號(hào):3550012
【文章來源】:浙江工業(yè)大學(xué)浙江省
【文章頁數(shù)】:107 頁
【學(xué)位級(jí)別】:博士
【部分圖文】:
巷道分揀機(jī)器人Figure1-1.Typicallanewaysortingrobot
員承擔(dān)一些瑣碎的跑腿工作。Moxi機(jī)器人的外觀如圖1-2所示。據(jù)新聞報(bào)道,美國華盛頓醫(yī)療中心、盧旺達(dá)Kanyinya新型冠狀病毒治療中心和武漢市第三醫(yī)院等醫(yī)療機(jī)構(gòu)都使用了智能視覺機(jī)器人協(xié)作醫(yī)護(hù)人員開展工作。智能醫(yī)護(hù)機(jī)器人與醫(yī)護(hù)人員、病人共享工作空間,對(duì)安全性和可靠性的要求較高,需要裝配冗余協(xié)作機(jī)器手臂,在進(jìn)行工作時(shí),需要時(shí)刻通過視覺觀察環(huán)境并關(guān)注自身手臂與周邊環(huán)境中其它物品是否會(huì)發(fā)生碰撞,且應(yīng)具有避開環(huán)境中的障礙物抓取藥物和工具的能力。圖1-1巷道分揀機(jī)器人Figure1-1.Typicallanewaysortingrobot圖1-2Moxi智能醫(yī)護(hù)機(jī)器人Figure1-2.Moxiintelligentmedicalrobot在這些應(yīng)用中,環(huán)境和任務(wù)是動(dòng)態(tài)變化的,因此,機(jī)器人控制系統(tǒng)必須能夠在復(fù)雜的環(huán)境中認(rèn)識(shí)環(huán)境和對(duì)象、判斷目標(biāo)的距離、接近目的地以及繞過障礙物抓取目標(biāo)物體。人類依賴視覺完成各種復(fù)雜的工作,對(duì)于機(jī)器人,視覺同樣是認(rèn)識(shí)動(dòng)態(tài)環(huán)境最合適的傳感器,是執(zhí)行動(dòng)態(tài)任務(wù)必不可少的組件。大量來自不同領(lǐng)域的研究者對(duì)基于視覺的控制技術(shù)表現(xiàn)出了極大的興趣,探索了視覺控制技術(shù)在各個(gè)領(lǐng)域中的應(yīng)用,如生物細(xì)胞自動(dòng)注射[5]、內(nèi)窺鏡手術(shù)[6]和救災(zāi)機(jī)器人[7]等。在機(jī)器人領(lǐng)域,由于對(duì)系統(tǒng)參數(shù)不確定性和圖像測量噪聲的魯棒性較強(qiáng),基于圖像的視覺伺服技術(shù)得到了廣泛的應(yīng)用。然而,傳統(tǒng)的基于圖像雅可比矩陣的視覺伺服系統(tǒng)存在穩(wěn)定域較孝特征點(diǎn)容易丟失,且容易產(chǎn)生意料之外的運(yùn)動(dòng)軌跡等問題。針對(duì)這些問題,期望能夠通過視覺動(dòng)態(tài)估計(jì)特征點(diǎn)三維信息以提高視覺伺服系統(tǒng)的性能、改善三維運(yùn)動(dòng)軌跡,同時(shí)保證在伺服過程中目標(biāo)物體始終在視野之內(nèi),且在非結(jié)構(gòu)化環(huán)境下能夠避開障礙物。因此,開展基于視覺的機(jī)器人狀態(tài)估計(jì)和控制方面的研究具有重要意義。1.2視覺伺服研究現(xiàn)
SuperPoint的典型實(shí)驗(yàn)結(jié)果IFigure2-10.TypicalexperimentalresultsofSuperPointI
本文編號(hào):3550012
本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/3550012.html
最近更新
教材專著