天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于深度學(xué)習(xí)的視頻顯著區(qū)域提取

發(fā)布時間:2020-12-22 01:46
  人類在復(fù)雜場景中可以快速地辨識感興趣的區(qū)域,進而完成對場景的理解,這是由人類視覺系統(tǒng)存在的視覺注意機制完成的。視覺信息主要來源于接收到的圖像或視頻數(shù)據(jù)信息,當(dāng)注視一幅圖片時人眼更容易定位到刺激視覺的區(qū)域,這些區(qū)域即為顯著區(qū)域。在計算機視覺任務(wù)中引入人類的視覺注意力機制,可以有效提高數(shù)據(jù)篩選效率和計算效率。視頻顯著區(qū)域提取是通過模擬人類的視覺注意力機制,迅速定位并提取視頻圖像中的感興趣區(qū)域,并應(yīng)用于其他復(fù)雜場景任務(wù)中,如視頻壓縮,視頻分割和視頻質(zhì)量評價等。近些年的研究表明,深度學(xué)習(xí)技術(shù)在分類、目標檢測等圖像處理任務(wù)中,有著不錯的性能表現(xiàn),這源于深度學(xué)習(xí)的多層線性映射可以有效地區(qū)分復(fù)雜特征,并提取更適用于目標任務(wù)的特征用于后續(xù)處理。而過去傳統(tǒng)的方法主要通過人工選取特征,選取到的特征不夠匹配目標任務(wù),這限制了當(dāng)前研究進展。因此,深度學(xué)習(xí)的應(yīng)用將極大推進顯著區(qū)域提取的發(fā)展。通過對顯著性區(qū)域提取這一課題的發(fā)展梳理和前沿技術(shù)研究,本文提出了兩種基于深度學(xué)習(xí)的視頻顯著區(qū)域提取模型。首先提出一種由全局特征提取到細化特征提取的算法,通過雙流網(wǎng)絡(luò)實現(xiàn)對視頻幀圖像和光流圖中的全局信息提取,遞歸卷積網(wǎng)絡(luò)實現(xiàn)對... 

【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校

【文章頁數(shù)】:74 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的視頻顯著區(qū)域提取


眼部跟蹤數(shù)據(jù)和顯著目標檢測圖[53]

特征圖,提取算法,特征圖,注意力模型


1998 年 Itti 和 C.Koch 等人提出的基于特征的顯著性模型[3]奠定了視覺顯著模型的研究方法理論,可以說開創(chuàng)了顯著性模型在計算機視覺領(lǐng)域應(yīng)用的先河。該模型結(jié)構(gòu)如上圖 1-2,選取顏色、強度和方向三個最為有效的特征得到相應(yīng)的特征圖,將各個特征圖進行多尺度和線性結(jié)合從而輸出最終的顯著性圖。J.Harel 和C. Koch 等人于 2006 年提出一種新的算法——基于圖的注意力模型[4],區(qū)別于基

視頻圖像處理,圖像處理,研究思路,幀間


本文的研究思路Fig.1-3Theresearchideaofthepaper本文首先考慮到視頻圖像處理和靜態(tài)圖像處理的區(qū)別,對于其中幀間信息提


本文編號:2930909

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2930909.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶05558***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com