天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于深度學(xué)習(xí)的著裝表演機(jī)器人研究及設(shè)計

發(fā)布時間:2021-09-11 12:06
  近些年,隨著深度學(xué)習(xí)在諸多領(lǐng)域取得成功,機(jī)器人的研究工作者試圖將深度學(xué)習(xí)與機(jī)器人研究相結(jié)合,賦予機(jī)器人更多感知和分析能力,使得更多的機(jī)器人走出實(shí)驗(yàn)室、走出工廠,走進(jìn)人們的日常生活。其中表演機(jī)器人能夠“自主”表演并與人互動從而服務(wù)于人,而其服務(wù)質(zhì)量的好壞很大程度上取決于3D骨骼驅(qū)動序列的優(yōu)劣,F(xiàn)有的3D骨骼序列獲取主要依賴3D人體動作捕捉設(shè)備或動作設(shè)計師的設(shè)計,這些獲取方式成本高、代價大,使得智能表演機(jī)器人研究成果落地相對困難。此外,現(xiàn)有的表演機(jī)器人研究工作大多忽視了服裝對表演效果的影響。針對以上這些問題,本文基于深度學(xué)習(xí)的方法,對表演機(jī)器人的著裝類別和3D骨骼序列獲取方式進(jìn)行了研究及設(shè)計。本文的研究工作分為以下三個部分:(1)表演機(jī)器人的服裝檢測與分類:該部分主要對場景中的演示者著裝進(jìn)行檢測分類,讓機(jī)器人根據(jù)檢測結(jié)果選擇相應(yīng)服裝類型,并對場景中的演示者進(jìn)行目標(biāo)跟蹤,有助于后續(xù)人體姿態(tài)估計研究。首先本文針對服裝檢測任務(wù)做了一個數(shù)據(jù)集,然后根據(jù)應(yīng)用場景和數(shù)據(jù)集特點(diǎn)對目標(biāo)檢測網(wǎng)絡(luò)YOLO v3進(jìn)行了改進(jìn),包括改變多尺度、引入下采樣以及剪枝等操作,改進(jìn)后的網(wǎng)絡(luò)在本文任務(wù)中具有更好的表現(xiàn)效果。(... 

【文章來源】:東華大學(xué)上海市 211工程院校 教育部直屬院校

【文章頁數(shù)】:73 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的著裝表演機(jī)器人研究及設(shè)計


系統(tǒng)需求愿景展示

網(wǎng)絡(luò)結(jié)構(gòu)圖,目標(biāo)檢測,精度,基礎(chǔ)網(wǎng)絡(luò)


基于深度學(xué)習(xí)的著裝表演機(jī)器人研究及設(shè)計14想,再將YOLO輸出層的全連接層換成了卷積層,最后使用了新穎的多尺度訓(xùn)練方法,得到了改進(jìn)后的新版本YOLOv2,實(shí)驗(yàn)結(jié)果表明上述改進(jìn)提高了模型的精度和速度。盡管YOLOv2在YOLO基礎(chǔ)上效果得到很大提升,但是在小目標(biāo)檢測任務(wù)中表現(xiàn)效果欠佳,為了更好的檢測小目標(biāo),Joe等人在YOLO和YOLOv2的基礎(chǔ)上再次進(jìn)行改進(jìn),得到了在目標(biāo)檢測領(lǐng)域無論速度還是精度都十分具有競爭力的YOLOv3網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)如圖3-2所示。從YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)圖即圖3-2可以看出,YOLOv3和一些基于深度學(xué)習(xí)的one-stage目標(biāo)檢測算法一樣,都是輸入圖片后通過CNN網(wǎng)絡(luò)進(jìn)行局部特征提取,然后在特征圖的基礎(chǔ)上進(jìn)行前向計算,最后回歸得到待檢測物體的位置框。在常規(guī)的CNN網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計時有兩個優(yōu)化方向,一個是速度優(yōu)化,再一個是精度優(yōu)化。一般情況下可以通過改變CNN的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)對圖像提取特征來平衡速度和精度兩個方向,YOLOv3采用darknet-53作為基礎(chǔ)的特征提取網(wǎng)絡(luò),良好的平衡了速度和精度的關(guān)系。Darknet-53是一個CNN模型結(jié)構(gòu),用來提取訓(xùn)練數(shù)據(jù)中圖片的特征信息,然后傳遞給后續(xù)的檢測網(wǎng)絡(luò)。Darknet-53將YOLOv2的基礎(chǔ)網(wǎng)絡(luò)Darknet-19與殘差網(wǎng)絡(luò)相結(jié)合,經(jīng)過連續(xù)卷積和池化,輸入到含有1000節(jié)點(diǎn)的全連接層,其卷積層數(shù)目和卷積核大小如圖3-3所示。圖3-3Darknet53網(wǎng)絡(luò)結(jié)構(gòu)圖在構(gòu)建回歸目標(biāo)的時候,YOLOv3與其他目標(biāo)檢測算法的不同之處在于,它將輸入的圖片調(diào)整為統(tǒng)一大小后劃分成13*13的網(wǎng)格,然后對每個網(wǎng)格單獨(dú)進(jìn)

特征圖,邊界框


基于深度學(xué)習(xí)的著裝表演機(jī)器人研究及設(shè)計16圖3-4中()xyc,c為預(yù)設(shè)邊界框在特征圖上的中心坐標(biāo),()whp,p為預(yù)設(shè)邊界框在特征圖上的寬和高,(,,,)xywhtttt分別為網(wǎng)絡(luò)預(yù)測的邊界框中心偏移量(,)xytt以及寬高縮放比(,)whtt,(,,,)xywhbbbb為最終預(yù)測的目標(biāo)邊界框,從預(yù)設(shè)邊界框到最終預(yù)測邊界框的轉(zhuǎn)換過程如圖右側(cè)公式所示,其中函數(shù)是sigmoid函數(shù)其目的是將預(yù)測偏移量縮放到0和1之間。YOLOv3在損失函數(shù)方面也進(jìn)行了相應(yīng)的改進(jìn),與一般的具有定位損失和分類損失的常用目標(biāo)檢測損失函數(shù)相比,YOLOv3增加了判斷對應(yīng)區(qū)域是否為物體的損失,具體而言,YOLOv3采用IoU來計算定位的損失,利用交叉損失熵計算置信度和類別概率的損失,公式如3.4所示。2222220022000000[()()][()()][log()(1)log(1)][log()(1SBobjjjjjcoordijiiiiijSBobjjjjjcoordijiiiiijSBobjjjjjijiiiiijSBnoobjjjjnoobjijiiiijLossIxxyyIwwhhICCCCICCC=========+++++20)log(1)]([log()(1)log(1)]jiSobjjjjjijiiiiicclassesCIPPPP=+(3.4)上述損失函數(shù)3.4可以分解為以下幾個部分,分別為代表中心坐標(biāo)誤差的式子3.5,代表寬高坐標(biāo)誤差的式子3.6,代表置信度誤差的式子3.7和代表分類誤差的式子3.8。22200[()()]SBobjjjjjijiiiiijIxxyy==+(3.5)22200[()()]SBobjjjjjijiiiiijIwwhh==+(3.6)220000[log()(1)log(1)][log()(1)log(1)]SBobjjjjjijiiiiijSBnoobjjjjjnoobjijiiiiijICCCCICCCC====++(3.7)20([log()(1)log(1)]Sobjjjjjiji

【參考文獻(xiàn)】:
期刊論文
[1]人工智能在中醫(yī)骨傷科領(lǐng)域應(yīng)用的現(xiàn)狀與前景[J]. 劉軍,韓燕鴻,潘建科,曾令烽,梁桂洪.  中華中醫(yī)藥雜志. 2019(08)
[2]人工智能在軍用機(jī)器人的應(yīng)用[J]. 陸震.  兵器裝備工程學(xué)報. 2019(05)
[3]基于深度學(xué)習(xí)的動物姿態(tài)估計和狀態(tài)評估研究[J]. 陳永康,宋亞男,何嘉俊,徐榮華,黃栩?yàn)I.  電子世界. 2019(05)
[4]基于深度學(xué)習(xí)方法的海上艦船目標(biāo)檢測[J]. 袁明新,張麗民,朱友帥,姜烽,申燚.  艦船科學(xué)技術(shù). 2019(01)
[5]三維動畫動作設(shè)計及技巧探析——以《行走動畫》為例[J]. 鄧飛.  美術(shù)教育研究. 2018(16)
[6]水下機(jī)器人在海上石油工程中的應(yīng)用探討[J]. 劉軍.  中國設(shè)備工程. 2018(08)
[7]機(jī)器人的“軟硬兼施”[J]. 張敏.  軍事文摘. 2018(03)
[8]網(wǎng)紅機(jī)器人索菲亞何許“人”也?[J]. 謝瑋.  中國經(jīng)濟(jì)周刊. 2018(05)
[9]NAO機(jī)器人平臺的創(chuàng)新實(shí)驗(yàn)設(shè)計與實(shí)現(xiàn)[J]. 王振,張星.  實(shí)驗(yàn)室研究與探索. 2016(12)
[10]基于MEMS傳感器和Unity3D的人體運(yùn)動捕獲系統(tǒng)[J]. 張衡,張澤宇.  圖學(xué)學(xué)報. 2015(02)

碩士論文
[1]基于Kinect的田間蘋果檢測與定位方法研究[D]. 趙海東.西北農(nóng)林科技大學(xué) 2019
[2]基于雙層模型的傳統(tǒng)服飾圖像分割算法研究[D]. 楊婷.北京郵電大學(xué) 2019
[3]移動機(jī)器人的路徑規(guī)劃與跟蹤方法研究[D]. 王正安.哈爾濱工程大學(xué) 2019
[4]雙足機(jī)器人穩(wěn)定步態(tài)規(guī)劃及多機(jī)器人室內(nèi)自定位方法研究[D]. 余天奇.哈爾濱工業(yè)大學(xué) 2016
[5]基于Android的智能機(jī)器人交互技術(shù)研究[D]. 盧天增.中國海洋大學(xué) 2015



本文編號:3392970

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3392970.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶70157***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com