基于全卷積網(wǎng)絡(luò)的圖像語義分割算法研究
發(fā)布時(shí)間:2021-06-17 09:17
由于深度學(xué)習(xí)的發(fā)展以及全卷積網(wǎng)絡(luò)的出現(xiàn),圖像語義分割得以快速發(fā)展,廣泛應(yīng)用于無人駕駛、醫(yī)療診斷、機(jī)器導(dǎo)航等領(lǐng)域。其中無人駕駛領(lǐng)域一直是研究熱點(diǎn),在該領(lǐng)域中對(duì)于車輛周圍的環(huán)境感知是研究的重點(diǎn)。圖像語義分割算法可以對(duì)圖像進(jìn)行像素級(jí)分類,從而獲得圖像的整體信息,且只需要低成本的視覺傳感器,因此十分契合無人駕駛技術(shù)的需求。全卷積網(wǎng)絡(luò)是一種可行的、效果較好的圖像語義分割算法,該算法創(chuàng)新性的將卷積神經(jīng)網(wǎng)絡(luò)中的全連接層替換為卷積層,并應(yīng)用于像素級(jí)分類任務(wù)中。其中Deep Lab算法是一種基于全卷積網(wǎng)絡(luò)改進(jìn)且精度較高的算法,然而該算法還是存在著一些問題,有很大的進(jìn)步空間。本課題主要研究該算法的各個(gè)子模塊,找出其所存在的問題并給出相應(yīng)的解決方案,進(jìn)一步提升算法精度。針對(duì)Deep Lab算法沒有充分利用全局信息導(dǎo)致在復(fù)雜場景下效果較差的問題,本文引入了全局上下文信息模塊,提供了圖片中復(fù)雜場景的先驗(yàn)信息,提取全局信息與原始特征合并,提高了特征的表達(dá)能力。針對(duì)Deep Lab算法解碼器模塊過于簡單,預(yù)測結(jié)果邊界較為粗糙的問題,本文設(shè)計(jì)了一個(gè)高效的解碼器模塊,充分利用淺層特征,將淺層語義信息與深層語義信息相結(jié)合...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:64 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
全連接與局部連接對(duì)比
哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文所有的線性變化與非線性變換都是可導(dǎo)的。在網(wǎng)絡(luò)層的最后一層一般接一失函數(shù)或者多個(gè)損失函數(shù),不同的任務(wù)會(huì)有不同的損失函數(shù)。相對(duì)于傳統(tǒng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)保持了數(shù)據(jù)本身的像素之間的結(jié)構(gòu),如數(shù)據(jù)本身為三么卷積核也將是三維數(shù)據(jù),而不是傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的向量表示。傳統(tǒng)是神經(jīng)與卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別如圖 2-2 所示1。
哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文 90i iif x w x (2(2)池化層如果一直使用卷積層來進(jìn)行特征獲取,所需要學(xué)習(xí)的參數(shù)會(huì)非常的多,候就需要一種方法來降低學(xué)習(xí)的代價(jià)。池化層又稱為匯聚層,即采用下采方式,將一定鄰域內(nèi)的特征聚合在一起,用一個(gè)像素點(diǎn)的信息來代表鄰域有像素點(diǎn)的信息,這樣減少了計(jì)算量,同時(shí)也保留了大部分的有效信息。層一般有最大池化以及平均池化。最大池化層意思是將一定鄰域內(nèi)像素值最大的值當(dāng)作該鄰域的特征送一層中;同理,平均池化層意思是將一定鄰域內(nèi)所有像素值的平均值作為域的特征送入新一層中。而池化層是沒有學(xué)習(xí)能力的,可以保持特征不變性伸縮、平移、旋轉(zhuǎn)等。最大池化操作如圖 2-3 所示2。
【參考文獻(xiàn)】:
期刊論文
[1]基于DCNN的圖像語義分割綜述[J]. 魏云超,趙耀. 北京交通大學(xué)學(xué)報(bào). 2016(04)
[2]無人駕駛汽車的發(fā)展現(xiàn)狀和展望[J]. 楊帆. 上海汽車. 2014(03)
[3]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽明,王正. 計(jì)算機(jī)應(yīng)用研究. 2012(08)
本文編號(hào):3234918
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:64 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
全連接與局部連接對(duì)比
哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文所有的線性變化與非線性變換都是可導(dǎo)的。在網(wǎng)絡(luò)層的最后一層一般接一失函數(shù)或者多個(gè)損失函數(shù),不同的任務(wù)會(huì)有不同的損失函數(shù)。相對(duì)于傳統(tǒng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)保持了數(shù)據(jù)本身的像素之間的結(jié)構(gòu),如數(shù)據(jù)本身為三么卷積核也將是三維數(shù)據(jù),而不是傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的向量表示。傳統(tǒng)是神經(jīng)與卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別如圖 2-2 所示1。
哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文 90i iif x w x (2(2)池化層如果一直使用卷積層來進(jìn)行特征獲取,所需要學(xué)習(xí)的參數(shù)會(huì)非常的多,候就需要一種方法來降低學(xué)習(xí)的代價(jià)。池化層又稱為匯聚層,即采用下采方式,將一定鄰域內(nèi)的特征聚合在一起,用一個(gè)像素點(diǎn)的信息來代表鄰域有像素點(diǎn)的信息,這樣減少了計(jì)算量,同時(shí)也保留了大部分的有效信息。層一般有最大池化以及平均池化。最大池化層意思是將一定鄰域內(nèi)像素值最大的值當(dāng)作該鄰域的特征送一層中;同理,平均池化層意思是將一定鄰域內(nèi)所有像素值的平均值作為域的特征送入新一層中。而池化層是沒有學(xué)習(xí)能力的,可以保持特征不變性伸縮、平移、旋轉(zhuǎn)等。最大池化操作如圖 2-3 所示2。
【參考文獻(xiàn)】:
期刊論文
[1]基于DCNN的圖像語義分割綜述[J]. 魏云超,趙耀. 北京交通大學(xué)學(xué)報(bào). 2016(04)
[2]無人駕駛汽車的發(fā)展現(xiàn)狀和展望[J]. 楊帆. 上海汽車. 2014(03)
[3]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽明,王正. 計(jì)算機(jī)應(yīng)用研究. 2012(08)
本文編號(hào):3234918
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3234918.html
最近更新
教材專著