天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 汽車論文 >

基于計算機視覺的車載識別監(jiān)測方法研究

發(fā)布時間:2021-11-26 14:48
  近年來深度學(xué)習(xí)的飛速發(fā)展使得智能車輛的研發(fā)得到了廣泛關(guān)注,本文以物體檢測任務(wù)和視覺測距為原型,研究了計算機視覺技術(shù)在車載識別監(jiān)測方面的應(yīng)用,具體內(nèi)容如下:論文首先研究了基于深度學(xué)習(xí)的物體檢測技術(shù),分析了卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、原理和當今主流的物體檢測模型,并提出了與傳統(tǒng)方法相結(jié)合的改進的車載檢測算法。接著論文研究了作為視覺測距原理的相機模型,并分別介紹了單目測距法常用的幾何模型法、逆投影變換法和數(shù)據(jù)建;貧w法,比較了各自的優(yōu)缺點,并提出了基于物體檢測和投影變換的視覺測距方法。然后本文結(jié)合車輛的實際行駛狀況實現(xiàn)了基于計算機視覺的車載識別監(jiān)測方法,該方法主要包括物體檢測和數(shù)據(jù)測算兩個功能。物體檢測部分使用傳統(tǒng)計算機視覺方法檢測并標識了車道,使用深度學(xué)習(xí)模型檢測了路面物體并標注位置和分類。數(shù)據(jù)測算部分采用了基于投影變換來進行測距的方法。最后的測試結(jié)果基本符合預(yù)期,具有一定的應(yīng)用價值。 

【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校

【文章頁數(shù)】:71 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于計算機視覺的車載識別監(jiān)測方法研究


各網(wǎng)絡(luò)模型的性能比較[43]

基于計算機視覺的車載識別監(jiān)測方法研究


DeepID網(wǎng)絡(luò)的結(jié)構(gòu)[56]

輸入層,預(yù)處理,卷積


上海交通大學(xué)全日制專業(yè)碩士學(xué)位論文第2章基于深度學(xué)習(xí)的物體檢測技術(shù)第8頁圖2-2DeepID網(wǎng)絡(luò)的結(jié)構(gòu)[56]Fig.2-2StructureofDeepIDnetwork一個典型的卷積神經(jīng)網(wǎng)絡(luò)通常包含以下部分:輸入層(Inputlayer)、卷積層(Convolutionallayer)、激勵層(Activationlayer,圖中未畫出),池化層(Poolinglayer)、全連接層(FullyConnectedlayer)。輸入層用來輸入圖像,通常還會伴隨去均值和歸一化操作;卷積層用來提取特征;激勵層用來提供線性到非線性的映射;池化層用來壓縮信息并降維;全連接層用來分類。下面對它們進行詳細說明。(1)輸入層輸入層主要負責輸入圖像,同時進行一定的預(yù)處理,例如去均值和歸一化。去均值的主要作用是讓數(shù)據(jù)點均值為0,也就是將中心點移至原點。歸一化則是讓各維度的數(shù)據(jù)點都處于0~1的范圍,避免維度之間數(shù)據(jù)值差距過大造成分布不均勻的問題。如下圖,d1和d2分別代表兩個維度,通過去均值化使得數(shù)據(jù)點的平均值為0,通過歸一化使得兩個維度的方差相近,避免數(shù)量級差距過大(a)原始數(shù)據(jù)(b)去均值化后的數(shù)據(jù)(c)歸一化后的數(shù)據(jù)圖2-3輸入層的預(yù)處理Fig.2-3Preprocessofinputlayer(2)卷積層卷積層是卷積神經(jīng)網(wǎng)絡(luò)中最重要的層,也是它與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比最具特點和優(yōu)勢的地方。卷積層所進行的就是卷積操作,卷積實質(zhì)上就是一種卷積核(convolutionkernel)對輸入的線性運算,卷積核又稱filter,是一個k×k的二維矩陣,其中k為卷積核的尺寸,它可以一定程度上反映出局部區(qū)域的點與點之間的

【參考文獻】:
期刊論文
[1]TensorFlow平臺下基于深度學(xué)習(xí)的數(shù)字識別[J]. 靳濤,張永愛.  信息技術(shù)與網(wǎng)絡(luò)安全. 2018(04)
[2]無人駕駛技術(shù)及其發(fā)展[J]. 楊欽哲.  中國新通信. 2018(06)
[3]基于高性能計算平臺的TensorFlow應(yīng)用探索與實踐[J]. 王一超,韋建文.  實驗室研究與探索. 2017(12)
[4]深度學(xué)習(xí)在無人駕駛汽車領(lǐng)域應(yīng)用的研究進展[J]. 王科俊,趙彥東,邢向磊.  智能系統(tǒng)學(xué)報. 2018(01)
[5]谷歌TensorFlow機器學(xué)習(xí)框架及應(yīng)用[J]. 章敏敏,徐和平,王曉潔,周夢昀,洪淑月.  微型機與應(yīng)用. 2017(10)
[6]無人駕駛汽車研究綜述與發(fā)展展望[J]. 潘福全,亓榮杰,張璇,張麗霞.  科技創(chuàng)新與應(yīng)用. 2017(02)
[7]無人駕駛汽車的發(fā)展與研究[J]. 姜沛宏,張長坤.  時代農(nóng)機. 2016(10)
[8]基于視覺的無人駕駛汽車研究綜述[J]. 唐智威.  制造業(yè)自動化. 2016(08)
[9]雙目視覺測量中等匹配點的光條中心提取[J]. 賈振元,樊超楠,劉巍,楊景豪,徐鵬濤.  光學(xué)精密工程. 2016(07)
[10]無人駕駛汽車的發(fā)展現(xiàn)狀及方向[J]. 許占奎.  科技展望. 2015(32)

博士論文
[1]深度學(xué)習(xí)在計算機視覺領(lǐng)域的若干關(guān)鍵技術(shù)研究[D]. 逄淑超.吉林大學(xué) 2017
[2]無人駕駛車輛運動障礙物檢測、預(yù)測和避撞方法研究[D]. 辛煜.中國科學(xué)技術(shù)大學(xué) 2014
[3]高速公路自主駕駛汽車視覺感知算法研究[D]. 聶一鳴.國防科學(xué)技術(shù)大學(xué) 2012
[4]基于單目視覺的同時定位與地圖重建算法研究[D]. 孟旭炯.浙江大學(xué) 2010

碩士論文
[1]基于機器視覺的前方車輛檢測與跟蹤[D]. 王寧.西南交通大學(xué) 2018
[2]基于深度學(xué)習(xí)的單目視覺車輛檢測與跟蹤研究[D]. 葉運生.合肥工業(yè)大學(xué) 2018
[3]基于車載攝像機的前方車輛測距測速方法研究[D]. 張亞男.大連海事大學(xué) 2018
[4]基于計算機視覺和深度學(xué)習(xí)的自動駕駛方法研究[D]. 白辰甲.哈爾濱工業(yè)大學(xué) 2017
[5]基于機器視覺的車道偏離及碰撞預(yù)警技術(shù)研究[D]. 張云飛.北京工業(yè)大學(xué) 2017
[6]基于機器視覺的前方車輛檢測與測距系統(tǒng)設(shè)計[D]. 佟卓遠.哈爾濱工業(yè)大學(xué) 2015
[7]震源車車隊跟車技術(shù)的研究[D]. 張歡.天津科技大學(xué) 2014
[8]基于單目視覺的前方車輛檢測和測距方法研究[D]. 馮月.北京化工大學(xué) 2013
[9]基于視覺與激光信息的固定障礙物檢測[D]. 慕永云.大連理工大學(xué) 2011
[10]基于計算機視覺的車輛與前方車距檢測[D]. 周天弋.浙江工商大學(xué) 2010



本文編號:3520371

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/qiche/3520371.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶847c1***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com