天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 碩博論文 > 信息類博士論文 >

數(shù)據(jù)驅(qū)動的虛擬試衣系統(tǒng)若干關(guān)鍵技術(shù)研究

發(fā)布時間:2020-06-09 19:45
【摘要】:虛擬試衣技術(shù)通過計(jì)算機(jī)仿真技術(shù),將虛擬的服裝穿戴到用戶身上。用戶可以觀看到購買的服裝穿著在自身上的視覺效果,產(chǎn)生與現(xiàn)場進(jìn)行試衣相似的體驗(yàn)。在虛擬試衣系統(tǒng)獲取用戶數(shù)據(jù)的諸多途徑中,深度數(shù)據(jù)由于能夠提供豐富的重建和識別信息,受到了廣泛的研究和關(guān)注。然而,目前將深度數(shù)據(jù)應(yīng)用到虛擬試衣系統(tǒng)的過程中尚存在一些諸如人體重建效率低,重建出人體模型缺少紋理信息,對運(yùn)動姿態(tài)的語義識別正確率不理想的問題。如何將深度數(shù)據(jù)在重建和識別方面的優(yōu)勢應(yīng)用到虛擬試衣系統(tǒng)中的同時,減少用戶的等待時間。已經(jīng)成為當(dāng)前虛擬試衣領(lǐng)域研究的熱點(diǎn)。本文針對深度數(shù)據(jù)驅(qū)動的虛擬試衣系統(tǒng)關(guān)鍵技術(shù)展開研究,重點(diǎn)研究了基于稀疏關(guān)鍵點(diǎn)的參數(shù)化人體重建、基于混合參數(shù)的深度相機(jī)與彩色相機(jī)高效配準(zhǔn)、最近鄰和最長公共子序列結(jié)合的動態(tài)手勢識別這三個方面的內(nèi)容,取得了以下研究成果:[1]基于稀疏關(guān)鍵點(diǎn)的參數(shù)化人體重建。提出了一種基于單張深度圖的自動參數(shù)化人體模型重建算法。用戶僅需要站立在在深度捕傳感器,等待傳感器掃描全身深度數(shù)據(jù)。算法將在數(shù)秒內(nèi)完成用戶身材和姿態(tài)的重建。相比于傳統(tǒng)方法需要優(yōu)化深度數(shù)據(jù)和網(wǎng)格之間的稠密對應(yīng)進(jìn)行重建,本文提出了一種基于稀疏關(guān)鍵點(diǎn)的重建策略。該策略使用回歸算法計(jì)算深度數(shù)據(jù)上,與標(biāo)記有關(guān)鍵點(diǎn)的訓(xùn)練數(shù)據(jù)對應(yīng)的的關(guān)鍵點(diǎn)位置,并設(shè)計(jì)了兩種特征描述和對應(yīng)的回歸策略以提高關(guān)鍵點(diǎn)位置計(jì)算的魯棒性和準(zhǔn)確度。使用計(jì)算的稀疏關(guān)鍵點(diǎn)作為約束,本文方法進(jìn)一步優(yōu)化人體姿態(tài)和身材完成重建,并在優(yōu)化過程中使用矩陣預(yù)分解以提高重建計(jì)算的效率。本文方法在達(dá)到與現(xiàn)有方法相近的重建準(zhǔn)確度的前提下,大大降低了重建所消耗的時間。[2]基于混合參數(shù)的深度相機(jī)與彩色相機(jī)高效配準(zhǔn)。提出了一種基于混合參數(shù)矩陣的標(biāo)定方法線性化優(yōu)化過程。該混合參數(shù)將深度相機(jī)內(nèi)參和深度、彩色攝像機(jī)之間旋轉(zhuǎn)變換進(jìn)行組合,提供了從深度參數(shù)空間(深度攝像機(jī)圖像)到顏色參數(shù)空間(彩色攝像機(jī)圖像)的變換。通過對混合參數(shù)矩陣進(jìn)行標(biāo)準(zhǔn)QR分解可以進(jìn)一步得到旋轉(zhuǎn)變換和深度相機(jī)內(nèi)參。我們在合成的測試數(shù)據(jù)和使用微軟Kinect捕獲的真實(shí)的深度數(shù)據(jù)上分別測試我們的算法。實(shí)驗(yàn)表明,由于使用混合參數(shù)帶來的優(yōu)勢,我們的方法使用更少的計(jì)算時間(Herrera方法的1/50和Raposo方法的1/10)達(dá)到了與目前最先進(jìn)的標(biāo)定算法相當(dāng)?shù)臉?biāo)定精度。[3]最近鄰和最長公共子序列結(jié)合的動態(tài)手勢識別。提出了一種基于最長公共子序列(LCSS)方法的動態(tài)手勢識別系統(tǒng)。通過以下兩個方面的改進(jìn),提高了 LCSS方法的識別的正確率。首先,為了給LCSS方法提供表示手勢運(yùn)動的離散特征,本文提出了一種方向特征的離散表達(dá)對姿態(tài)特征進(jìn)行編碼,能夠更好地表示不同姿態(tài)間的差異。其次,考慮到不同的用戶在表現(xiàn)同一個手勢的時候會在速度、軌跡和位置等方面存在差異,本文將K近鄰(KNN)算法與LCSS方法相結(jié)合以適應(yīng)不同用戶的手勢習(xí)慣。實(shí)驗(yàn)結(jié)果表明,在F1度量下,實(shí)驗(yàn)結(jié)果表明本工作的將KNN與LCSS相結(jié)合的方法對動態(tài)手勢識別正確率起到了一定的提升作用。
【圖文】:

三維影像,試衣系統(tǒng),深度數(shù)據(jù),使用方式


備包括用來重建用戶參數(shù)化人體模型的深度相機(jī)和用于重建用戶臉部紋理的彩色相機(jī)。試逡逑衣影像顯示使用一塊大屏幕顯示器顯示用戶穿著虛擬服裝后的三維影像,以及調(diào)整服裝來逡逑源、種類、顏色等屬性的圖形用戶界面。系統(tǒng)啟動后,,如圖1.2所示,用戶站在系統(tǒng)正前逡逑方接受深度相機(jī)的全身深度掃描以及彩色相機(jī)的正面臉部拍照。接著系統(tǒng)將在短時間內(nèi)完逡逑成參數(shù)化人體重建和臉部紋理映射,并使用衣料仿真技術(shù)將虛擬服裝穿戴到重建出的人體逡逑模型上進(jìn)行顯示。用戶通過手勢操作圖形界面,改變服裝的種類或調(diào)整服裝的屬性。這些逡逑操作對應(yīng)地顯示在試衣模特上,直到用戶滿意。為了達(dá)成以上目標(biāo),本文提出的虛擬試衣逡逑系統(tǒng)被由“人體獲取”、“線下標(biāo)定”、“服裝選擇”以及“穿衣模擬”四個模塊組成。各個逡逑模塊之間的數(shù)據(jù)依賴關(guān)系和功能如圖1.3所示。本節(jié)接下來對這些模塊進(jìn)行詳細(xì)介紹,進(jìn)逡逑而引出本文的主要研究內(nèi)容。逡逑3逡逑

流程圖,試衣,試衣系統(tǒng),深度數(shù)據(jù)


第1章緒論逡逑」彩色^Hfcar邋g佽-屬性、逡逑圖1.2本文提出的深度數(shù)據(jù)驅(qū)動的虛擬試衣系統(tǒng)的硬件構(gòu)成和使用方式。逡逑響應(yīng)用戶的操作,影響系統(tǒng)的使用體驗(yàn)。逡逑總體而言,將智能人體重建方法與虛擬試衣應(yīng)用相結(jié)合是虛擬試衣技術(shù)的發(fā)展趨勢。逡逑深度數(shù)據(jù)由于其具有三維信息的先天優(yōu)勢,非常適合作為重建的輸入。但目前基于深度數(shù)逡逑據(jù)的重建方法還存在諸如重建效率較低以及重建結(jié)果缺少紋理等缺點(diǎn),使其在虛擬試衣系逡逑統(tǒng)中應(yīng)用時還存在-定的問題。針對這些問題,本文提出一種深度數(shù)據(jù)驅(qū)動的虛擬試衣系逡逑統(tǒng),在現(xiàn)有工作的基礎(chǔ)上,重點(diǎn)提升人體重建效率和用戶沉浸感體驗(yàn)。如圖2所示,本逡逑文提出的虛擬試衣系統(tǒng)由人體數(shù)據(jù)采集和試衣影像顯示兩個部分構(gòu)成。人體數(shù)據(jù)采集的設(shè)逡逑備包括用來重建用戶參數(shù)化人體模型的深度相機(jī)和用于重建用戶臉部紋理的彩色相機(jī)。試逡逑衣影像顯示使用一塊大屏幕顯示器顯示用戶穿著虛擬服裝后的三維影像,以及調(diào)整服裝來逡逑源、種類、顏色等屬性的圖形用戶界面。系統(tǒng)啟動后
【學(xué)位授予單位】:浙江大學(xué)
【學(xué)位級別】:博士
【學(xué)位授予年份】:2016
【分類號】:TP391.9

【參考文獻(xiàn)】

相關(guān)期刊論文 前1條

1 Peng Song;;Local voxelizer:A shape descriptor for surface registration[J];Computational Visual Media;2015年04期



本文編號:2705161

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xxkjbs/2705161.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶da3f7***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com