天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 路橋論文 >

基于嵌入式平臺的行人檢測系統(tǒng)設(shè)計(jì)與研究

發(fā)布時(shí)間:2021-12-09 07:11
  人作為計(jì)算機(jī)視覺發(fā)展與應(yīng)用歷史進(jìn)程中最重要的服務(wù)對象之一,行人檢測技術(shù)是機(jī)器通過攝像頭或其他傳感器將人與其所處在的環(huán)境進(jìn)行正確的區(qū)分。在諸多應(yīng)用場景中,行人檢測扮演著機(jī)器與人類進(jìn)行交互的重要角色。例如在智能安防、無人汽車、智能機(jī)器人等應(yīng)用領(lǐng)域。近年來基于深度學(xué)習(xí)的物體檢測技術(shù)快速發(fā)展,相比于傳統(tǒng)的行人檢測技術(shù),前者的檢測精度與檢出率遠(yuǎn)高于后者。本文行人檢測算法基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行改進(jìn),結(jié)合嵌入式平臺低成本、易部署、體積小的特性,研究并實(shí)現(xiàn)一個(gè)基于嵌入式平臺的行人檢測系統(tǒng)。針對該系統(tǒng)的具體實(shí)現(xiàn)問題,本文主要從行人檢測算法的研究與改進(jìn)、系統(tǒng)框架及硬件平臺搭建、應(yīng)用程序與界面的設(shè)計(jì)與實(shí)現(xiàn)三個(gè)方面展開工作和研究。首先,選用輕量型目標(biāo)檢測網(wǎng)絡(luò)MobileNet-SSD作為基礎(chǔ)網(wǎng)絡(luò),然后針對網(wǎng)絡(luò)對小目標(biāo)物體檢測能力不佳的情況展開研究,對模型的四個(gè)方面提出改進(jìn):1)從結(jié)構(gòu)上提出一種上采樣特征融合的結(jié)構(gòu),彌補(bǔ)淺層網(wǎng)絡(luò)語義特征不足的缺陷;2)更換網(wǎng)絡(luò)損失函數(shù),改善正負(fù)樣本損失構(gòu)成比例不均的問題;3)改進(jìn)圖像增廣算法,提高小目標(biāo)物體在正樣本中的占比;4)基于行人圖像的統(tǒng)計(jì)結(jié)果,重新設(shè)計(jì)網(wǎng)絡(luò)中的先驗(yàn)... 

【文章來源】:華僑大學(xué)福建省

【文章頁數(shù)】:77 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于嵌入式平臺的行人檢測系統(tǒng)設(shè)計(jì)與研究


行人標(biāo)注框?qū)捀弑冉y(tǒng)計(jì)圖

特征圖,特征圖


21圖3.1所示,黑色是頭,紅色是身體,棕色是腿,黃色是尾巴。可以看見圖中貓的各個(gè)部位與背景分離的很明顯。但是如果貓的特征圖在網(wǎng)絡(luò)的淺層時(shí)則會如圖3.2所示,雖然貓身體各個(gè)部分依舊表達(dá)清晰,但是貓所處在的背景卻較為混雜,這就是淺層特征圖語義信息不明確的意思。圖3.1貓?jiān)谏顚拥奶卣鲌D圖3.2貓?jiān)跍\層的特征圖如何改善這樣一個(gè)矛盾,即淺層圖像中具有較高的分辨率但是缺乏相應(yīng)的語義信息。本文提出一種上采樣特征融合的網(wǎng)絡(luò)結(jié)構(gòu),可以讓這一矛盾得到改善,以此增強(qiáng)MobileNet-SSD網(wǎng)絡(luò)對小目標(biāo)物體的識別能力,同時(shí)不會給網(wǎng)絡(luò)模型增加太多的計(jì)算負(fù)擔(dān)。3.1.1上采樣特征融合結(jié)構(gòu)對于不同尺度目標(biāo)的識別是計(jì)算機(jī)視覺算法所需要面臨的一個(gè)基本挑戰(zhàn)。SSD通過構(gòu)建多層特征金子塔(FPN)[48],以此提高對不同尺度特征的識別能力。然而,本文中使用的MobileNet-SSD網(wǎng)絡(luò)由于本身網(wǎng)絡(luò)深度較淺,同時(shí)考慮其應(yīng)用場景是在計(jì)算資源較為有限的嵌入式平臺,無法使用較為復(fù)雜且較深的神經(jīng)網(wǎng)絡(luò)。因此,本文對現(xiàn)有的網(wǎng)絡(luò)模型進(jìn)行改進(jìn),提出一種類似于FPN的反向傳播的網(wǎng)絡(luò)結(jié)構(gòu),通過將深層的網(wǎng)絡(luò)進(jìn)行上采樣,上采樣方式為最鄰近插值法,與淺層網(wǎng)絡(luò)融合然后再傳遞給SSD進(jìn)行目標(biāo)檢測,網(wǎng)絡(luò)結(jié)構(gòu)如圖3.3所示。本文在模型結(jié)構(gòu)上的改進(jìn)并沒有將網(wǎng)絡(luò)中的六層特征圖上都添加上采樣特征融合結(jié)構(gòu),一方面由于模型的改進(jìn)目標(biāo)主要是為了改善淺層特征圖語義信息較弱的問題以提高小目標(biāo)物體的檢測能力;另一方面是為了盡量減少模型改進(jìn)帶來的更多計(jì)算開銷,因?yàn)槟P妥罱K是為了在嵌入式平臺使用,既要考慮模型的準(zhǔn)確性,同時(shí)要考慮到嵌入式平臺計(jì)算性能較低的因素。

特征圖,特征圖,淺層


21圖3.1所示,黑色是頭,紅色是身體,棕色是腿,黃色是尾巴。可以看見圖中貓的各個(gè)部位與背景分離的很明顯。但是如果貓的特征圖在網(wǎng)絡(luò)的淺層時(shí)則會如圖3.2所示,雖然貓身體各個(gè)部分依舊表達(dá)清晰,但是貓所處在的背景卻較為混雜,這就是淺層特征圖語義信息不明確的意思。圖3.1貓?jiān)谏顚拥奶卣鲌D圖3.2貓?jiān)跍\層的特征圖如何改善這樣一個(gè)矛盾,即淺層圖像中具有較高的分辨率但是缺乏相應(yīng)的語義信息。本文提出一種上采樣特征融合的網(wǎng)絡(luò)結(jié)構(gòu),可以讓這一矛盾得到改善,以此增強(qiáng)MobileNet-SSD網(wǎng)絡(luò)對小目標(biāo)物體的識別能力,同時(shí)不會給網(wǎng)絡(luò)模型增加太多的計(jì)算負(fù)擔(dān)。3.1.1上采樣特征融合結(jié)構(gòu)對于不同尺度目標(biāo)的識別是計(jì)算機(jī)視覺算法所需要面臨的一個(gè)基本挑戰(zhàn)。SSD通過構(gòu)建多層特征金子塔(FPN)[48],以此提高對不同尺度特征的識別能力。然而,本文中使用的MobileNet-SSD網(wǎng)絡(luò)由于本身網(wǎng)絡(luò)深度較淺,同時(shí)考慮其應(yīng)用場景是在計(jì)算資源較為有限的嵌入式平臺,無法使用較為復(fù)雜且較深的神經(jīng)網(wǎng)絡(luò)。因此,本文對現(xiàn)有的網(wǎng)絡(luò)模型進(jìn)行改進(jìn),提出一種類似于FPN的反向傳播的網(wǎng)絡(luò)結(jié)構(gòu),通過將深層的網(wǎng)絡(luò)進(jìn)行上采樣,上采樣方式為最鄰近插值法,與淺層網(wǎng)絡(luò)融合然后再傳遞給SSD進(jìn)行目標(biāo)檢測,網(wǎng)絡(luò)結(jié)構(gòu)如圖3.3所示。本文在模型結(jié)構(gòu)上的改進(jìn)并沒有將網(wǎng)絡(luò)中的六層特征圖上都添加上采樣特征融合結(jié)構(gòu),一方面由于模型的改進(jìn)目標(biāo)主要是為了改善淺層特征圖語義信息較弱的問題以提高小目標(biāo)物體的檢測能力;另一方面是為了盡量減少模型改進(jìn)帶來的更多計(jì)算開銷,因?yàn)槟P妥罱K是為了在嵌入式平臺使用,既要考慮模型的準(zhǔn)確性,同時(shí)要考慮到嵌入式平臺計(jì)算性能較低的因素。

【參考文獻(xiàn)】:
期刊論文
[1]輕量化卷積神經(jīng)網(wǎng)絡(luò)技術(shù)研究[J]. 畢鵬程,羅健欣,陳衛(wèi)衛(wèi).  計(jì)算機(jī)工程與應(yīng)用. 2019(16)
[2]我國自動駕駛汽車行業(yè)發(fā)展現(xiàn)狀及存在問題的探討[J]. 徐志剛,張宇琴,王羽,宋瑞,王潤民,趙祥模.  汽車實(shí)用技術(shù). 2019(01)
[3]基于HOG-LBP特征的靜態(tài)圖像中的行人檢測[J]. 劉國明.  電腦知識與技術(shù). 2017(16)
[4]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 李彥冬,郝宗波,雷航.  計(jì)算機(jī)應(yīng)用. 2016(09)
[5]行人檢測技術(shù)研究綜述[J]. 張春鳳,宋加濤,王萬良.  電視技術(shù). 2014(03)
[6]一種基于幀差法與背景減法的運(yùn)動目標(biāo)檢測新方法[J]. 高凱亮,覃團(tuán)發(fā),王逸之,常侃.  電訊技術(shù). 2011(10)



本文編號:3530180

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/daoluqiaoliang/3530180.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶1c48f***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com