天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

交互式圖像目標(biāo)魯棒提取算法研究

發(fā)布時(shí)間:2021-01-27 15:06
  圖像、視頻的目標(biāo)提取技術(shù)在素材編輯任務(wù)扮演著重要的角色。用戶(hù)通過(guò)目標(biāo)提取算法從素材中獲得需要的對(duì)象,并應(yīng)用相關(guān)的后期處理技術(shù),實(shí)現(xiàn)素材的重復(fù)利用。然而,當(dāng)處理具有復(fù)雜場(chǎng)景的圖像時(shí),圖像中可能包含顏色相近似的前/背景區(qū)域、前/背景區(qū)域內(nèi)部均包含強(qiáng)圖像邊緣、物體邊界模糊、光照變化和陰影等現(xiàn)象,現(xiàn)有的交互式圖像目標(biāo)提取方法則需要用戶(hù)提供大量人工干預(yù)才能獲得高精度的分割結(jié)果,導(dǎo)致時(shí)間效率低下。本文對(duì)現(xiàn)有的圖像目標(biāo)提取方法進(jìn)行了較為深入的分析和介紹,對(duì)其中所存在難點(diǎn)和問(wèn)題進(jìn)行了探討。針對(duì)基于圖割算法的交互式圖像目標(biāo)提取方法效率較低且在復(fù)雜自然場(chǎng)景下精度不高的問(wèn)題,本文提出了一種基于雙邊空間和置信顏色模型的快速圖像魯棒分割方法。首先使用分辨率明顯低于輸入圖像的雙邊網(wǎng)格重采樣輸入圖像,極大地減少待處理的圖像數(shù)據(jù)量;其次基于雙邊網(wǎng)格頂點(diǎn)構(gòu)建圖并定義圖切割能量項(xiàng),根據(jù)高斯分布規(guī)律定義未知顏色和二義顏色的辨別準(zhǔn)則,以構(gòu)建魯棒的顏色模型;最后采用標(biāo)準(zhǔn)的最大流/最小割算法進(jìn)行全局優(yōu)化求解,實(shí)現(xiàn)高質(zhì)量的圖像前景提取。實(shí)驗(yàn)結(jié)果表明,該方法不僅能夠在1s內(nèi)提取出高分辨率圖像滿(mǎn)足實(shí)時(shí)性要求的、有意義目標(biāo)物體,而且還實(shí)... 

【文章來(lái)源】:長(zhǎng)沙理工大學(xué)湖南省

【文章頁(yè)數(shù)】:56 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

交互式圖像目標(biāo)魯棒提取算法研究


圖2.1圖割示意圖??

流程圖,算法,流程,像素


素,當(dāng)/^々時(shí)??{p,q}eN??</義)=0否則</義)=1。4P,exP[—D)],當(dāng)p和《灰度值越相似時(shí),5{m!??的值越大,當(dāng)p和g差別極大時(shí)就接近于0,即當(dāng)兩相鄰像素灰度值差別很小時(shí),??那么它們同時(shí)屬于前景或背景的可能性更大;當(dāng)兩相鄰像素灰度值差別越大時(shí),則這兩??個(gè)像素越有可能分別為前景和背景,此時(shí)更小,以鼓勵(lì)將這兩個(gè)像素的邊分割開(kāi)。??2.2.1?Lazy?Snapping?算法??Lazy?Snapping算法[11大致流程為,用戶(hù)通過(guò)稀疏畫(huà)筆方式進(jìn)行交互,如圖2.2所示,??在圖像前景和背景區(qū)域輸入一些線(xiàn)條(用黃色代表前景區(qū)域,藍(lán)色代表背景區(qū)域),用戶(hù)??可通過(guò)分割結(jié)果對(duì)目標(biāo)邊緣進(jìn)行精確編輯以得到滿(mǎn)意結(jié)果。Lazy?Snapping是基于Graph??Guts的改進(jìn)方法,其與GmphCuts的主要不同在于它構(gòu)圖的頂點(diǎn)不再是基于像素,而是??基于一個(gè)個(gè)小的區(qū)域。其首先采用分水嶺算法對(duì)圖像進(jìn)行預(yù)處理,從而將圖像分割成很??多的小區(qū)域,然后以這些小區(qū)域?yàn)轫旤c(diǎn),相鄰區(qū)域建立邊,構(gòu)建一個(gè)圖,再采用max-??flow/min-cut算法進(jìn)行分割。??.??2.輸入Rl?b.標(biāo)記a標(biāo).?c.邊緣調(diào)E?d.?dāng)n取結(jié)果??圖2.2?Lazy?Snapping算法流程??同樣,LazySnapping也是需要最小化能量函數(shù)五⑷^^及⑷+叫丄),其中,i?(Z)??為區(qū)域項(xiàng),為邊界項(xiàng):??區(qū)域項(xiàng)=?先用k-meas算法將用戶(hù)己標(biāo)記的背景和前景像素??p在p??顏色分別聚類(lèi)成64簇,對(duì)于一個(gè)沒(méi)有標(biāo)記的頂點(diǎn),計(jì)算它的RGB顏色值到前景和??背景簇的最小距離<和<,然后求得&⑴=</(<?+?〇、八(〇)=1

示意圖,示意圖,圖片,卷積


碩士學(xué)位論文??“tabby?cat”??Pj|?1..?l.i?1,??卷枳??士丨一一??國(guó)??圖2.4?FCN網(wǎng)絡(luò)示意圖??而FCN網(wǎng)絡(luò)W是對(duì)圖像進(jìn)行像素級(jí)的分類(lèi),從而解決了語(yǔ)義級(jí)別的圖像分割問(wèn)??題。與經(jīng)典的CNN在卷積層之后使用全連接層得到固定長(zhǎng)度的特征向量進(jìn)行分類(lèi)(全??連接層+?softmax輸出)不同,FCN可以接受任意尺寸的輸入圖像,采用反卷積層對(duì)最??后一個(gè)卷積層的特征圖(featuremap)進(jìn)行上采樣,使它恢復(fù)到輸入圖像相同的尺寸,??從而可以對(duì)每個(gè)像素都產(chǎn)生了一個(gè)預(yù)測(cè),同時(shí)保留了原始輸入圖像中的空間信息,最??后在上采樣的特征圖上進(jìn)行逐像素分類(lèi)。簡(jiǎn)單的來(lái)說(shuō),FCN將于CNN最后的全連接??層換成卷積層,可輸出的是一張己經(jīng)分類(lèi)好的圖片。如圖2.4下半部分所示。??2.3.2深度交互目標(biāo)提取方法??上一節(jié)提到的FCN網(wǎng)絡(luò)主要應(yīng)用于全自動(dòng)的語(yǔ)義分割方法,Xu等14]將FCN網(wǎng)絡(luò)進(jìn)??行了擴(kuò)展,提出了一種將交互式的前景目標(biāo)提出方法DIOS?(Deep?Interactive?Object??Selection)。其方法需要用戶(hù)分別少量點(diǎn)擊圖像中的前景與背景區(qū)域進(jìn)行交互,同時(shí)這些??前景/背景交互點(diǎn)會(huì)計(jì)算轉(zhuǎn)換為兩個(gè)歐幾里德距離圖,然后將距離圖與圖像的RGB通道??連接以組成(圖像、用戶(hù)交互)對(duì)作為FCN網(wǎng)絡(luò)的輸入。作者提出了幾種隨機(jī)采樣的策??略來(lái)模擬用戶(hù)的交互點(diǎn)擊,并可以自動(dòng)生成大量的數(shù)據(jù)樣本用來(lái)訓(xùn)練FCN網(wǎng)絡(luò)。當(dāng)FCN??網(wǎng)絡(luò)訓(xùn)練完成后,對(duì)于任意用戶(hù)交互過(guò)后的圖片,FCN網(wǎng)絡(luò)可以輸出與圖片相同尺寸的??概率圖,概率圖中的每個(gè)值表示圖片中對(duì)應(yīng)位置像素屬于前景的概率,在概率圖的基礎(chǔ)??上,作者采

【參考文獻(xiàn)】:
期刊論文
[1]卷積神經(jīng)網(wǎng)絡(luò)的宮頸細(xì)胞圖像分類(lèi)[J]. 趙越,曾立波,吳瓊水.  計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2018(11)
[2]特征融合自適應(yīng)目標(biāo)跟蹤[J]. 鐘國(guó)崇,儲(chǔ)珺,繆君.  圖學(xué)學(xué)報(bào). 2018(05)
[3]區(qū)間模糊譜聚類(lèi)圖像分割方法[J]. 劉漢強(qiáng),張青.  計(jì)算機(jī)工程與科學(xué). 2018(09)
[4]一種改進(jìn)的Harris與SIFT算子結(jié)合的圖像配準(zhǔn)算法[J]. 尚明姝,王克朝.  微電子學(xué)與計(jì)算機(jī). 2018(06)
[5]基于快速卷積神經(jīng)網(wǎng)絡(luò)的圖像去模糊[J]. 任靜靜,方賢勇,陳尚文,汪粼波,周健.  計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2017(08)
[6]復(fù)雜光照下DPM圖像自適應(yīng)多閾值分割方法研究[J]. 王娟,王萍,劉敏.  計(jì)算機(jī)工程與應(yīng)用. 2018(09)
[7]改進(jìn)混合高斯模型的自適應(yīng)煙霧圖像分割算法[J]. 胡燕,王慧琴,馬宗方.  計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2016(07)
[8]高斯混合模型改進(jìn)的活動(dòng)輪廓模型MRI分割[J]. 張建偉,夏德深.  計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào). 2005(12)



本文編號(hào):3003259

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3003259.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶(hù)b8385***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com