基于圖像語(yǔ)義分割的車輛可行駛區(qū)域識(shí)別方法研究
發(fā)布時(shí)間:2025-03-19 05:13
智能駕駛環(huán)境感知是車輛決策和控制的關(guān)鍵依據(jù),如何識(shí)別車輛可行駛區(qū)域是其中的一項(xiàng)重要研究?jī)?nèi)容。一方面,交通行駛環(huán)境復(fù)雜、多變,車輛可行駛區(qū)域的識(shí)別一直難以取得理想的效果;另一方面,智能駕駛對(duì)識(shí)別算法的準(zhǔn)確性和實(shí)時(shí)性要求很高,導(dǎo)致算法的實(shí)際應(yīng)用條件十分嚴(yán)苛。本文以車輛可行駛區(qū)域?yàn)檠芯繉?duì)象,通過對(duì)深度學(xué)習(xí)算法改進(jìn)和優(yōu)化,并運(yùn)用雙目立體視覺求取三維駕駛場(chǎng)景的空間信息,提出了一種新型基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的語(yǔ)義分割方法,以期實(shí)現(xiàn)智能駕駛場(chǎng)景下車輛可行駛區(qū)域準(zhǔn)確、高效的識(shí)別。論文主要工作如下:(1)語(yǔ)義分割的關(guān)鍵技術(shù)依賴于圖像特征。鑒于卷積神經(jīng)網(wǎng)絡(luò)優(yōu)越的特征提取性能,構(gòu)造一種基于CNN“編碼器-解碼器”架構(gòu)的語(yǔ)義分割模型,用于提取可行駛區(qū)域的圖像特征?紤]到工程實(shí)際對(duì)實(shí)時(shí)性的要求,對(duì)網(wǎng)絡(luò)深度進(jìn)行淺層化處理。同時(shí),為了保證模型識(shí)別準(zhǔn)確率,從網(wǎng)絡(luò)“寬度”改進(jìn)和優(yōu)化,提出了Ournet網(wǎng)絡(luò)模型,識(shí)別車輛可行駛區(qū)域。(2)為獲取智能駕駛場(chǎng)景下道路的空間幾何信息,通過雙目立體視覺在圖像RGB特征的基礎(chǔ)上增加深度,建立RGB-D數(shù)據(jù)集,為識(shí)別模型提供...
【文章頁(yè)數(shù)】:76 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 課題背景與意義
1.2 可行駛區(qū)域識(shí)別研究現(xiàn)狀
1.3 論文研究?jī)?nèi)容與組織架構(gòu)
1.3.1 主要研究?jī)?nèi)容
1.3.2 論文組織架構(gòu)
第二章 卷積神經(jīng)網(wǎng)絡(luò)和圖像語(yǔ)義分割原理
2.1 語(yǔ)義分割算法
2.1.1 圖像分割
2.1.2 圖像語(yǔ)義分割
2.2 卷積神經(jīng)網(wǎng)絡(luò)
2.2.1 深度學(xué)習(xí)概述
2.2.2 卷積神經(jīng)網(wǎng)絡(luò)
2.3 論文問題定義與描述
2.3.1 可行駛區(qū)域數(shù)據(jù)集
2.3.2 概念定義與表達(dá)
2.4 本章小結(jié)
第三章 基于“編碼器-解碼器”的可行駛區(qū)域識(shí)別模型
3.1 可行駛區(qū)域識(shí)別算法架構(gòu)
3.1.1 網(wǎng)絡(luò)架構(gòu)
3.1.2 概率預(yù)測(cè)模型
3.1.3 訓(xùn)練優(yōu)化方法
3.2 基于卷積神經(jīng)網(wǎng)絡(luò)的“編碼器-解碼器”架構(gòu)
3.2.1 基于VGGNet的“編碼器-解碼器”架構(gòu)的Segnet
3.2.2 基于改進(jìn)AlexNet的“編碼器-解碼器”架構(gòu)的Ournet
3.3 Ournet結(jié)構(gòu)優(yōu)化
3.3.1 防止過擬合
3.3.2 Batch Normalization
3.4 RGB圖像可行駛區(qū)域識(shí)別分析
3.4.1 實(shí)驗(yàn)環(huán)境
3.4.2 實(shí)驗(yàn)評(píng)判標(biāo)準(zhǔn)
3.4.3 實(shí)驗(yàn)過程
3.4.4 實(shí)驗(yàn)結(jié)果與分析
3.5 本章小結(jié)
第四章 結(jié)合語(yǔ)義分割和雙目立體視覺的可行駛區(qū)域識(shí)別
4.1 雙目立體視覺RGB-D
4.1.1 單目視覺幾何建模
4.1.2 雙目立體視覺幾何建模
4.1.3 雙目立體匹配技術(shù)
4.2 RGB-D圖像可行駛區(qū)域識(shí)別分析
4.2.1 實(shí)驗(yàn)過程與對(duì)比方法
4.2.2 實(shí)驗(yàn)結(jié)果與分析
4.3 本章小結(jié)
總結(jié)與展望
總結(jié)
展望
參考文獻(xiàn)
攻讀碩士學(xué)位期間取得的研究成果
致謝
附件
本文編號(hào):4036717
【文章頁(yè)數(shù)】:76 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 課題背景與意義
1.2 可行駛區(qū)域識(shí)別研究現(xiàn)狀
1.3 論文研究?jī)?nèi)容與組織架構(gòu)
1.3.1 主要研究?jī)?nèi)容
1.3.2 論文組織架構(gòu)
第二章 卷積神經(jīng)網(wǎng)絡(luò)和圖像語(yǔ)義分割原理
2.1 語(yǔ)義分割算法
2.1.1 圖像分割
2.1.2 圖像語(yǔ)義分割
2.2 卷積神經(jīng)網(wǎng)絡(luò)
2.2.1 深度學(xué)習(xí)概述
2.2.2 卷積神經(jīng)網(wǎng)絡(luò)
2.3 論文問題定義與描述
2.3.1 可行駛區(qū)域數(shù)據(jù)集
2.3.2 概念定義與表達(dá)
2.4 本章小結(jié)
第三章 基于“編碼器-解碼器”的可行駛區(qū)域識(shí)別模型
3.1 可行駛區(qū)域識(shí)別算法架構(gòu)
3.1.1 網(wǎng)絡(luò)架構(gòu)
3.1.2 概率預(yù)測(cè)模型
3.1.3 訓(xùn)練優(yōu)化方法
3.2 基于卷積神經(jīng)網(wǎng)絡(luò)的“編碼器-解碼器”架構(gòu)
3.2.1 基于VGGNet的“編碼器-解碼器”架構(gòu)的Segnet
3.2.2 基于改進(jìn)AlexNet的“編碼器-解碼器”架構(gòu)的Ournet
3.3 Ournet結(jié)構(gòu)優(yōu)化
3.3.1 防止過擬合
3.3.2 Batch Normalization
3.4 RGB圖像可行駛區(qū)域識(shí)別分析
3.4.1 實(shí)驗(yàn)環(huán)境
3.4.2 實(shí)驗(yàn)評(píng)判標(biāo)準(zhǔn)
3.4.3 實(shí)驗(yàn)過程
3.4.4 實(shí)驗(yàn)結(jié)果與分析
3.5 本章小結(jié)
第四章 結(jié)合語(yǔ)義分割和雙目立體視覺的可行駛區(qū)域識(shí)別
4.1 雙目立體視覺RGB-D
4.1.1 單目視覺幾何建模
4.1.2 雙目立體視覺幾何建模
4.1.3 雙目立體匹配技術(shù)
4.2 RGB-D圖像可行駛區(qū)域識(shí)別分析
4.2.1 實(shí)驗(yàn)過程與對(duì)比方法
4.2.2 實(shí)驗(yàn)結(jié)果與分析
4.3 本章小結(jié)
總結(jié)與展望
總結(jié)
展望
參考文獻(xiàn)
攻讀碩士學(xué)位期間取得的研究成果
致謝
附件
本文編號(hào):4036717
本文鏈接:http://sikaile.net/kejilunwen/qiche/4036717.html
最近更新
教材專著