基于深度神經(jīng)網(wǎng)絡(luò)的圖像顯著性檢測(cè)關(guān)鍵技術(shù)研究
發(fā)布時(shí)間:2024-01-08 20:23
顯著性檢測(cè)旨在模仿人類的視覺(jué)注意力機(jī)制以檢測(cè)視覺(jué)場(chǎng)景中最明顯或最獨(dú)特的區(qū)域或物體。它是最基礎(chǔ)的圖像預(yù)處理技術(shù)之一,可以使許多高級(jí)計(jì)算機(jī)視覺(jué)任務(wù)受益。從研究目標(biāo)的角度來(lái)看,顯著性檢測(cè)可以分為人眼關(guān)注點(diǎn)預(yù)測(cè)和顯著物體檢測(cè)這兩大分支。前者只需要突出顯示圖像中最顯著的區(qū)域,而后者則將物體視為研究目標(biāo),需要準(zhǔn)確定位和精確分割最顯著的物體。傳統(tǒng)方法通常提取諸如顏色和紋理之類的簡(jiǎn)單特征作為圖像表達(dá),然后訴諸對(duì)比度機(jī)制來(lái)對(duì)顯著性進(jìn)行建模,并結(jié)合自上而下的語(yǔ)義線索來(lái)預(yù)測(cè)人眼關(guān)注點(diǎn)。對(duì)于顯著物體檢測(cè),研究人員通常將對(duì)比度與先驗(yàn)知識(shí)(例如邊界先驗(yàn)和似物性先驗(yàn))相結(jié)合以定位顯著物體。然后可以采用基于分割的技術(shù)來(lái)細(xì)化顯著圖。然而,所有這些建模通常都是人為設(shè)計(jì)的,會(huì)因?yàn)閷?duì)于人類視覺(jué)注意機(jī)制的了解不足而受到極大的限制。因此,傳統(tǒng)的顯著性模型通常在模型性能和泛化能力方面受到限制。為了解決上述問(wèn)題,本文提出利用功能強(qiáng)大的深度神經(jīng)網(wǎng)絡(luò)(DNN)進(jìn)行顯著性檢測(cè)。受益于使用大規(guī)模顯著性數(shù)據(jù)的端到端訓(xùn)練,DNN可以以數(shù)據(jù)驅(qū)動(dòng)的方式自動(dòng)學(xué)習(xí)最佳的顯著性建模元素,甚至包括一些以前傳統(tǒng)方法中未曾注意或考慮到的元素。因此,基于DNN的...
【文章頁(yè)數(shù)】:132 頁(yè)
【文章目錄】:
摘要
Abstract
1 緒論
1.1 研究背景與意義
1.2 國(guó)內(nèi)外研究現(xiàn)狀
1.2.1 基于傳統(tǒng)方法的人眼關(guān)注點(diǎn)預(yù)測(cè)研究現(xiàn)狀
1.2.2 基于傳統(tǒng)方法的顯著物體檢測(cè)研究現(xiàn)狀
1.2.3 深度神經(jīng)網(wǎng)絡(luò)及其在顯著性檢測(cè)中的應(yīng)用研究現(xiàn)狀
1.3 本文研究?jī)?nèi)容和貢獻(xiàn)
1.4 內(nèi)容結(jié)構(gòu)安排
2 基于多分辨率卷積神經(jīng)網(wǎng)絡(luò)的人眼關(guān)注點(diǎn)預(yù)測(cè)
2.1 引言
2.2 卷積神經(jīng)網(wǎng)絡(luò)
2.3 基于多分辨率卷積神經(jīng)網(wǎng)絡(luò)的人眼關(guān)注點(diǎn)預(yù)測(cè)
2.4 實(shí)驗(yàn)分析
2.4.1 基準(zhǔn)數(shù)據(jù)集
2.4.2 評(píng)估指標(biāo)
2.4.3 實(shí)現(xiàn)細(xì)節(jié)
2.4.4 與現(xiàn)有模型的比較
2.4.5 不同分辨率的影響
2.4.6 特征可視化
2.4.7 在RGB-D圖像顯著性檢測(cè)任務(wù)上的結(jié)果
2.5 本章小結(jié)
3 基于空間和場(chǎng)景上下文信息的深度長(zhǎng)期循環(huán)卷積網(wǎng)絡(luò)的人眼關(guān)注點(diǎn)預(yù)測(cè)
3.1 引言
3.2 相關(guān)工作以及我們的方法的區(qū)別
3.3 用于顯著性檢測(cè)的DSCLRCN
3.3.1 使用CNN進(jìn)行局部圖像特征提取
3.3.2 用于上下文信息融合的DSCLSTM
3.4 實(shí)驗(yàn)分析
3.4.1 基準(zhǔn)數(shù)據(jù)集
3.4.2 評(píng)估指標(biāo)
3.4.3 實(shí)現(xiàn)細(xì)節(jié)
3.4.4 消融分析實(shí)驗(yàn)
3.4.5 與當(dāng)前最佳模型的比較
3.5 本章小結(jié)
4 基于深度分級(jí)顯著性網(wǎng)絡(luò)的顯著物體檢測(cè)
4.1 引言
4.2 相關(guān)工作
4.3 用于顯著物體檢測(cè)的DHSNet
4.3.1 用于粗糙的全局預(yù)測(cè)的GV-CNN
4.3.2 用于分級(jí)顯著圖細(xì)化的HRCNN
4.4 實(shí)驗(yàn)分析
4.4.1 基準(zhǔn)數(shù)據(jù)集
4.4.2 評(píng)估指標(biāo)
4.4.3 實(shí)現(xiàn)細(xì)節(jié)
4.4.4 實(shí)驗(yàn)結(jié)果
4.4.5 模型組件分析
4.5 本章小結(jié)
5 基于像素級(jí)上下文注意模型的精確顯著物體檢測(cè)
5.1 引言
5.2 相關(guān)工作
5.2.1 注意力網(wǎng)絡(luò)
5.2.2 基于深度學(xué)習(xí)的顯著性檢測(cè)
5.3 像素級(jí)上下文注意網(wǎng)絡(luò)模型
5.3.1 全局注意力池化
5.3.2 局部注意力池化
5.3.3 注意力卷積
5.3.4 有效和高效的實(shí)現(xiàn)
5.3.5 與先前工作的區(qū)別
5.4 基于PiCANets的顯著物體檢測(cè)
5.4.1 編碼器網(wǎng)絡(luò)
5.4.2 Decoder Network
5.4.3 損失函數(shù)
5.5 實(shí)驗(yàn)分析
5.5.1 基準(zhǔn)數(shù)據(jù)集
5.5.2 評(píng)估指標(biāo)
5.5.3 實(shí)現(xiàn)細(xì)節(jié)
5.5.4 消融實(shí)驗(yàn)分析
5.5.5 與當(dāng)前最佳模型的比較
5.5.6 在其他密集預(yù)測(cè)任務(wù)上的應(yīng)用
5.6 本章小結(jié)
6 總結(jié)與展望
6.1 本文工作總結(jié)
6.2 研究展望
參考文獻(xiàn)
本文編號(hào):3877608
【文章頁(yè)數(shù)】:132 頁(yè)
【文章目錄】:
摘要
Abstract
1 緒論
1.1 研究背景與意義
1.2 國(guó)內(nèi)外研究現(xiàn)狀
1.2.1 基于傳統(tǒng)方法的人眼關(guān)注點(diǎn)預(yù)測(cè)研究現(xiàn)狀
1.2.2 基于傳統(tǒng)方法的顯著物體檢測(cè)研究現(xiàn)狀
1.2.3 深度神經(jīng)網(wǎng)絡(luò)及其在顯著性檢測(cè)中的應(yīng)用研究現(xiàn)狀
1.3 本文研究?jī)?nèi)容和貢獻(xiàn)
1.4 內(nèi)容結(jié)構(gòu)安排
2 基于多分辨率卷積神經(jīng)網(wǎng)絡(luò)的人眼關(guān)注點(diǎn)預(yù)測(cè)
2.1 引言
2.2 卷積神經(jīng)網(wǎng)絡(luò)
2.3 基于多分辨率卷積神經(jīng)網(wǎng)絡(luò)的人眼關(guān)注點(diǎn)預(yù)測(cè)
2.4 實(shí)驗(yàn)分析
2.4.1 基準(zhǔn)數(shù)據(jù)集
2.4.2 評(píng)估指標(biāo)
2.4.3 實(shí)現(xiàn)細(xì)節(jié)
2.4.4 與現(xiàn)有模型的比較
2.4.5 不同分辨率的影響
2.4.6 特征可視化
2.4.7 在RGB-D圖像顯著性檢測(cè)任務(wù)上的結(jié)果
2.5 本章小結(jié)
3 基于空間和場(chǎng)景上下文信息的深度長(zhǎng)期循環(huán)卷積網(wǎng)絡(luò)的人眼關(guān)注點(diǎn)預(yù)測(cè)
3.1 引言
3.2 相關(guān)工作以及我們的方法的區(qū)別
3.3 用于顯著性檢測(cè)的DSCLRCN
3.3.1 使用CNN進(jìn)行局部圖像特征提取
3.3.2 用于上下文信息融合的DSCLSTM
3.4 實(shí)驗(yàn)分析
3.4.1 基準(zhǔn)數(shù)據(jù)集
3.4.2 評(píng)估指標(biāo)
3.4.3 實(shí)現(xiàn)細(xì)節(jié)
3.4.4 消融分析實(shí)驗(yàn)
3.4.5 與當(dāng)前最佳模型的比較
3.5 本章小結(jié)
4 基于深度分級(jí)顯著性網(wǎng)絡(luò)的顯著物體檢測(cè)
4.1 引言
4.2 相關(guān)工作
4.3 用于顯著物體檢測(cè)的DHSNet
4.3.1 用于粗糙的全局預(yù)測(cè)的GV-CNN
4.3.2 用于分級(jí)顯著圖細(xì)化的HRCNN
4.4 實(shí)驗(yàn)分析
4.4.1 基準(zhǔn)數(shù)據(jù)集
4.4.2 評(píng)估指標(biāo)
4.4.3 實(shí)現(xiàn)細(xì)節(jié)
4.4.4 實(shí)驗(yàn)結(jié)果
4.4.5 模型組件分析
4.5 本章小結(jié)
5 基于像素級(jí)上下文注意模型的精確顯著物體檢測(cè)
5.1 引言
5.2 相關(guān)工作
5.2.1 注意力網(wǎng)絡(luò)
5.2.2 基于深度學(xué)習(xí)的顯著性檢測(cè)
5.3 像素級(jí)上下文注意網(wǎng)絡(luò)模型
5.3.1 全局注意力池化
5.3.2 局部注意力池化
5.3.3 注意力卷積
5.3.4 有效和高效的實(shí)現(xiàn)
5.3.5 與先前工作的區(qū)別
5.4 基于PiCANets的顯著物體檢測(cè)
5.4.1 編碼器網(wǎng)絡(luò)
5.4.2 Decoder Network
5.4.3 損失函數(shù)
5.5 實(shí)驗(yàn)分析
5.5.1 基準(zhǔn)數(shù)據(jù)集
5.5.2 評(píng)估指標(biāo)
5.5.3 實(shí)現(xiàn)細(xì)節(jié)
5.5.4 消融實(shí)驗(yàn)分析
5.5.5 與當(dāng)前最佳模型的比較
5.5.6 在其他密集預(yù)測(cè)任務(wù)上的應(yīng)用
5.6 本章小結(jié)
6 總結(jié)與展望
6.1 本文工作總結(jié)
6.2 研究展望
參考文獻(xiàn)
本文編號(hào):3877608
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3877608.html
最近更新
教材專著