基于深度神經(jīng)網(wǎng)絡(luò)的圖像顯著性檢測關(guān)鍵技術(shù)研究
發(fā)布時間:2024-01-08 20:23
顯著性檢測旨在模仿人類的視覺注意力機制以檢測視覺場景中最明顯或最獨特的區(qū)域或物體。它是最基礎(chǔ)的圖像預(yù)處理技術(shù)之一,可以使許多高級計算機視覺任務(wù)受益。從研究目標(biāo)的角度來看,顯著性檢測可以分為人眼關(guān)注點預(yù)測和顯著物體檢測這兩大分支。前者只需要突出顯示圖像中最顯著的區(qū)域,而后者則將物體視為研究目標(biāo),需要準(zhǔn)確定位和精確分割最顯著的物體。傳統(tǒng)方法通常提取諸如顏色和紋理之類的簡單特征作為圖像表達(dá),然后訴諸對比度機制來對顯著性進(jìn)行建模,并結(jié)合自上而下的語義線索來預(yù)測人眼關(guān)注點。對于顯著物體檢測,研究人員通常將對比度與先驗知識(例如邊界先驗和似物性先驗)相結(jié)合以定位顯著物體。然后可以采用基于分割的技術(shù)來細(xì)化顯著圖。然而,所有這些建模通常都是人為設(shè)計的,會因為對于人類視覺注意機制的了解不足而受到極大的限制。因此,傳統(tǒng)的顯著性模型通常在模型性能和泛化能力方面受到限制。為了解決上述問題,本文提出利用功能強大的深度神經(jīng)網(wǎng)絡(luò)(DNN)進(jìn)行顯著性檢測。受益于使用大規(guī)模顯著性數(shù)據(jù)的端到端訓(xùn)練,DNN可以以數(shù)據(jù)驅(qū)動的方式自動學(xué)習(xí)最佳的顯著性建模元素,甚至包括一些以前傳統(tǒng)方法中未曾注意或考慮到的元素。因此,基于DNN的...
【文章頁數(shù)】:132 頁
【文章目錄】:
摘要
Abstract
1 緒論
1.1 研究背景與意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 基于傳統(tǒng)方法的人眼關(guān)注點預(yù)測研究現(xiàn)狀
1.2.2 基于傳統(tǒng)方法的顯著物體檢測研究現(xiàn)狀
1.2.3 深度神經(jīng)網(wǎng)絡(luò)及其在顯著性檢測中的應(yīng)用研究現(xiàn)狀
1.3 本文研究內(nèi)容和貢獻(xiàn)
1.4 內(nèi)容結(jié)構(gòu)安排
2 基于多分辨率卷積神經(jīng)網(wǎng)絡(luò)的人眼關(guān)注點預(yù)測
2.1 引言
2.2 卷積神經(jīng)網(wǎng)絡(luò)
2.3 基于多分辨率卷積神經(jīng)網(wǎng)絡(luò)的人眼關(guān)注點預(yù)測
2.4 實驗分析
2.4.1 基準(zhǔn)數(shù)據(jù)集
2.4.2 評估指標(biāo)
2.4.3 實現(xiàn)細(xì)節(jié)
2.4.4 與現(xiàn)有模型的比較
2.4.5 不同分辨率的影響
2.4.6 特征可視化
2.4.7 在RGB-D圖像顯著性檢測任務(wù)上的結(jié)果
2.5 本章小結(jié)
3 基于空間和場景上下文信息的深度長期循環(huán)卷積網(wǎng)絡(luò)的人眼關(guān)注點預(yù)測
3.1 引言
3.2 相關(guān)工作以及我們的方法的區(qū)別
3.3 用于顯著性檢測的DSCLRCN
3.3.1 使用CNN進(jìn)行局部圖像特征提取
3.3.2 用于上下文信息融合的DSCLSTM
3.4 實驗分析
3.4.1 基準(zhǔn)數(shù)據(jù)集
3.4.2 評估指標(biāo)
3.4.3 實現(xiàn)細(xì)節(jié)
3.4.4 消融分析實驗
3.4.5 與當(dāng)前最佳模型的比較
3.5 本章小結(jié)
4 基于深度分級顯著性網(wǎng)絡(luò)的顯著物體檢測
4.1 引言
4.2 相關(guān)工作
4.3 用于顯著物體檢測的DHSNet
4.3.1 用于粗糙的全局預(yù)測的GV-CNN
4.3.2 用于分級顯著圖細(xì)化的HRCNN
4.4 實驗分析
4.4.1 基準(zhǔn)數(shù)據(jù)集
4.4.2 評估指標(biāo)
4.4.3 實現(xiàn)細(xì)節(jié)
4.4.4 實驗結(jié)果
4.4.5 模型組件分析
4.5 本章小結(jié)
5 基于像素級上下文注意模型的精確顯著物體檢測
5.1 引言
5.2 相關(guān)工作
5.2.1 注意力網(wǎng)絡(luò)
5.2.2 基于深度學(xué)習(xí)的顯著性檢測
5.3 像素級上下文注意網(wǎng)絡(luò)模型
5.3.1 全局注意力池化
5.3.2 局部注意力池化
5.3.3 注意力卷積
5.3.4 有效和高效的實現(xiàn)
5.3.5 與先前工作的區(qū)別
5.4 基于PiCANets的顯著物體檢測
5.4.1 編碼器網(wǎng)絡(luò)
5.4.2 Decoder Network
5.4.3 損失函數(shù)
5.5 實驗分析
5.5.1 基準(zhǔn)數(shù)據(jù)集
5.5.2 評估指標(biāo)
5.5.3 實現(xiàn)細(xì)節(jié)
5.5.4 消融實驗分析
5.5.5 與當(dāng)前最佳模型的比較
5.5.6 在其他密集預(yù)測任務(wù)上的應(yīng)用
5.6 本章小結(jié)
6 總結(jié)與展望
6.1 本文工作總結(jié)
6.2 研究展望
參考文獻(xiàn)
本文編號:3877608
【文章頁數(shù)】:132 頁
【文章目錄】:
摘要
Abstract
1 緒論
1.1 研究背景與意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 基于傳統(tǒng)方法的人眼關(guān)注點預(yù)測研究現(xiàn)狀
1.2.2 基于傳統(tǒng)方法的顯著物體檢測研究現(xiàn)狀
1.2.3 深度神經(jīng)網(wǎng)絡(luò)及其在顯著性檢測中的應(yīng)用研究現(xiàn)狀
1.3 本文研究內(nèi)容和貢獻(xiàn)
1.4 內(nèi)容結(jié)構(gòu)安排
2 基于多分辨率卷積神經(jīng)網(wǎng)絡(luò)的人眼關(guān)注點預(yù)測
2.1 引言
2.2 卷積神經(jīng)網(wǎng)絡(luò)
2.3 基于多分辨率卷積神經(jīng)網(wǎng)絡(luò)的人眼關(guān)注點預(yù)測
2.4 實驗分析
2.4.1 基準(zhǔn)數(shù)據(jù)集
2.4.2 評估指標(biāo)
2.4.3 實現(xiàn)細(xì)節(jié)
2.4.4 與現(xiàn)有模型的比較
2.4.5 不同分辨率的影響
2.4.6 特征可視化
2.4.7 在RGB-D圖像顯著性檢測任務(wù)上的結(jié)果
2.5 本章小結(jié)
3 基于空間和場景上下文信息的深度長期循環(huán)卷積網(wǎng)絡(luò)的人眼關(guān)注點預(yù)測
3.1 引言
3.2 相關(guān)工作以及我們的方法的區(qū)別
3.3 用于顯著性檢測的DSCLRCN
3.3.1 使用CNN進(jìn)行局部圖像特征提取
3.3.2 用于上下文信息融合的DSCLSTM
3.4 實驗分析
3.4.1 基準(zhǔn)數(shù)據(jù)集
3.4.2 評估指標(biāo)
3.4.3 實現(xiàn)細(xì)節(jié)
3.4.4 消融分析實驗
3.4.5 與當(dāng)前最佳模型的比較
3.5 本章小結(jié)
4 基于深度分級顯著性網(wǎng)絡(luò)的顯著物體檢測
4.1 引言
4.2 相關(guān)工作
4.3 用于顯著物體檢測的DHSNet
4.3.1 用于粗糙的全局預(yù)測的GV-CNN
4.3.2 用于分級顯著圖細(xì)化的HRCNN
4.4 實驗分析
4.4.1 基準(zhǔn)數(shù)據(jù)集
4.4.2 評估指標(biāo)
4.4.3 實現(xiàn)細(xì)節(jié)
4.4.4 實驗結(jié)果
4.4.5 模型組件分析
4.5 本章小結(jié)
5 基于像素級上下文注意模型的精確顯著物體檢測
5.1 引言
5.2 相關(guān)工作
5.2.1 注意力網(wǎng)絡(luò)
5.2.2 基于深度學(xué)習(xí)的顯著性檢測
5.3 像素級上下文注意網(wǎng)絡(luò)模型
5.3.1 全局注意力池化
5.3.2 局部注意力池化
5.3.3 注意力卷積
5.3.4 有效和高效的實現(xiàn)
5.3.5 與先前工作的區(qū)別
5.4 基于PiCANets的顯著物體檢測
5.4.1 編碼器網(wǎng)絡(luò)
5.4.2 Decoder Network
5.4.3 損失函數(shù)
5.5 實驗分析
5.5.1 基準(zhǔn)數(shù)據(jù)集
5.5.2 評估指標(biāo)
5.5.3 實現(xiàn)細(xì)節(jié)
5.5.4 消融實驗分析
5.5.5 與當(dāng)前最佳模型的比較
5.5.6 在其他密集預(yù)測任務(wù)上的應(yīng)用
5.6 本章小結(jié)
6 總結(jié)與展望
6.1 本文工作總結(jié)
6.2 研究展望
參考文獻(xiàn)
本文編號:3877608
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3877608.html
最近更新
教材專著