基于語義分割的行人屬性識(shí)別技術(shù)的研究與實(shí)現(xiàn)
【文章頁數(shù)】:68 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.2注意力模型網(wǎng)絡(luò)拓?fù)?br>
上部分模型由三個(gè)1*1的卷積構(gòu)成(每一個(gè)卷積都帶有batch?normalization??和ReLU層),最后的輸出為1*1*C?(C為屬性的個(gè)數(shù))。文中將該輸出稱作屬??性注意力映射w,之后忒,w進(jìn)行一個(gè)空間softmax運(yùn)算,這步運(yùn)算使得模型將??資源集中于圖片中最相關(guān)的區(qū)....
圖3-1全卷積網(wǎng)絡(luò)實(shí)現(xiàn)圖??將全連接層變?yōu)槿矸e層一定程度上提升了運(yùn)算效率
北京郵電大學(xué)工學(xué)碩士學(xué)位論文的創(chuàng)新:(1)將原始網(wǎng)絡(luò)中最后幾層全連接層全部變成了卷躍結(jié)構(gòu),進(jìn)一步提升了識(shí)別準(zhǔn)確率。??層??卷積神經(jīng)網(wǎng)絡(luò)包括AlexNet、VGG等網(wǎng)絡(luò),這些網(wǎng)絡(luò)對(duì)于圖的要求,這是因?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)在判斷圖片物體類型時(shí),需幾層全連接層,以達(dá)到最后一層是一個(gè)大小為分類....
圖3-3?deep】abv3+模型框架圖??1)?Atrous?convolution?原理??
%?2x?conv?7??圖3-2?FCN跳躍結(jié)構(gòu)??圖中將C〇nv7使用二進(jìn)制插值法進(jìn)行二倍的上采樣,之后與P〇〇14的特征矩??陣進(jìn)行融合,FCN稱這種結(jié)構(gòu)為16s。同理,FCN將conv7和pool4的特征分別??使用二進(jìn)制插值法做4倍和2倍的上采樣,將結(jié)果與pool3進(jìn)行....
圖3-2?FCN跳躍結(jié)構(gòu)??圖中將C〇nv7使用二進(jìn)制插值法進(jìn)行二倍的上采樣,之后與P〇〇14的特征矩??
基于?Atrous?convolution?的?Atrous?Spatial?Pyramid?Pooling?(ASPP)。在此基礎(chǔ)上,??為了提升運(yùn)算效率,deeplabv3+米取了?encoder-decoder結(jié)構(gòu),并且將Xception模??型加入到encoder結(jié)構(gòu)中。....
本文編號(hào):3908241
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3908241.html