基于深度學(xué)習(xí)的視頻顯著區(qū)域提取
發(fā)布時間:2020-12-22 01:46
人類在復(fù)雜場景中可以快速地辨識感興趣的區(qū)域,進而完成對場景的理解,這是由人類視覺系統(tǒng)存在的視覺注意機制完成的。視覺信息主要來源于接收到的圖像或視頻數(shù)據(jù)信息,當(dāng)注視一幅圖片時人眼更容易定位到刺激視覺的區(qū)域,這些區(qū)域即為顯著區(qū)域。在計算機視覺任務(wù)中引入人類的視覺注意力機制,可以有效提高數(shù)據(jù)篩選效率和計算效率。視頻顯著區(qū)域提取是通過模擬人類的視覺注意力機制,迅速定位并提取視頻圖像中的感興趣區(qū)域,并應(yīng)用于其他復(fù)雜場景任務(wù)中,如視頻壓縮,視頻分割和視頻質(zhì)量評價等。近些年的研究表明,深度學(xué)習(xí)技術(shù)在分類、目標檢測等圖像處理任務(wù)中,有著不錯的性能表現(xiàn),這源于深度學(xué)習(xí)的多層線性映射可以有效地區(qū)分復(fù)雜特征,并提取更適用于目標任務(wù)的特征用于后續(xù)處理。而過去傳統(tǒng)的方法主要通過人工選取特征,選取到的特征不夠匹配目標任務(wù),這限制了當(dāng)前研究進展。因此,深度學(xué)習(xí)的應(yīng)用將極大推進顯著區(qū)域提取的發(fā)展。通過對顯著性區(qū)域提取這一課題的發(fā)展梳理和前沿技術(shù)研究,本文提出了兩種基于深度學(xué)習(xí)的視頻顯著區(qū)域提取模型。首先提出一種由全局特征提取到細化特征提取的算法,通過雙流網(wǎng)絡(luò)實現(xiàn)對視頻幀圖像和光流圖中的全局信息提取,遞歸卷積網(wǎng)絡(luò)實現(xiàn)對...
【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:74 頁
【學(xué)位級別】:碩士
【部分圖文】:
眼部跟蹤數(shù)據(jù)和顯著目標檢測圖[53]
1998 年 Itti 和 C.Koch 等人提出的基于特征的顯著性模型[3]奠定了視覺顯著模型的研究方法理論,可以說開創(chuàng)了顯著性模型在計算機視覺領(lǐng)域應(yīng)用的先河。該模型結(jié)構(gòu)如上圖 1-2,選取顏色、強度和方向三個最為有效的特征得到相應(yīng)的特征圖,將各個特征圖進行多尺度和線性結(jié)合從而輸出最終的顯著性圖。J.Harel 和C. Koch 等人于 2006 年提出一種新的算法——基于圖的注意力模型[4],區(qū)別于基
本文的研究思路Fig.1-3Theresearchideaofthepaper本文首先考慮到視頻圖像處理和靜態(tài)圖像處理的區(qū)別,對于其中幀間信息提
本文編號:2930909
【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:74 頁
【學(xué)位級別】:碩士
【部分圖文】:
眼部跟蹤數(shù)據(jù)和顯著目標檢測圖[53]
1998 年 Itti 和 C.Koch 等人提出的基于特征的顯著性模型[3]奠定了視覺顯著模型的研究方法理論,可以說開創(chuàng)了顯著性模型在計算機視覺領(lǐng)域應(yīng)用的先河。該模型結(jié)構(gòu)如上圖 1-2,選取顏色、強度和方向三個最為有效的特征得到相應(yīng)的特征圖,將各個特征圖進行多尺度和線性結(jié)合從而輸出最終的顯著性圖。J.Harel 和C. Koch 等人于 2006 年提出一種新的算法——基于圖的注意力模型[4],區(qū)別于基
本文的研究思路Fig.1-3Theresearchideaofthepaper本文首先考慮到視頻圖像處理和靜態(tài)圖像處理的區(qū)別,對于其中幀間信息提
本文編號:2930909
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/2930909.html
最近更新
教材專著