天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 信息工程論文 >

基于深度學(xué)習(xí)的導(dǎo)航系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)

發(fā)布時(shí)間:2020-03-27 01:26
【摘要】:近年來(lái),自動(dòng)駕駛技術(shù)憑借其在物流、環(huán)保、交通技術(shù)等領(lǐng)域的廣闊應(yīng)用前景受到了學(xué)術(shù)界與工業(yè)界的廣泛關(guān)注。其中視覺(jué)導(dǎo)航算法擁有成本低廉、對(duì)信號(hào)干擾不敏感等優(yōu)點(diǎn),成為了熱門的研究方向。隨著計(jì)算機(jī)硬件的快速迭代更新,在不斷增長(zhǎng)的算力加持下,人工智能領(lǐng)域日新月異,深度學(xué)習(xí)蓬勃發(fā)展,取得了令人矚目的成就。受此影響,計(jì)算機(jī)視覺(jué)領(lǐng)域也涌現(xiàn)出許多先進(jìn)的算法,在模式識(shí)別、圖像分割等研究方向上取得了突破性的進(jìn)展。利用深度學(xué)習(xí)工具解決視覺(jué)導(dǎo)航中面臨的問(wèn)題顯然是極具前景的研究方向。本文基于深度學(xué)習(xí)設(shè)計(jì)并實(shí)現(xiàn)了一個(gè)視覺(jué)導(dǎo)航系統(tǒng),從數(shù)據(jù)集的采集、標(biāo)定到全天候視覺(jué)導(dǎo)航形成了一個(gè)完備的解決方案。其中,工作重點(diǎn)之一是基于深度學(xué)習(xí)的視覺(jué)導(dǎo)航系統(tǒng)框架的設(shè)計(jì)以及相關(guān)算法的改進(jìn),工作重點(diǎn)之二是提出多域風(fēng)格轉(zhuǎn)換模型完成全天候?qū)Ш降娜蝿?wù)。針對(duì)數(shù)據(jù)集標(biāo)注難問(wèn)題,本文對(duì)RatSLAM算法進(jìn)行了分析解構(gòu)。首先利用視頻幀初步生成經(jīng)驗(yàn)地圖,再通過(guò)回環(huán)反饋,優(yōu)化提高地圖精度。然后對(duì)視頻幀與經(jīng)驗(yàn)地圖的數(shù)據(jù)結(jié)構(gòu)進(jìn)行解構(gòu),得到經(jīng)過(guò)位置標(biāo)定的圖片。導(dǎo)航模型部分,本文通過(guò)對(duì)光流網(wǎng)絡(luò)(FlowNet)的分析,完成了DeepVO算法的改進(jìn)。圖片通過(guò)改進(jìn)后的光流網(wǎng)絡(luò)進(jìn)行解析編碼,得到包含兩張圖片間光流信息的信息流。將該信息流輸入雙層LSTM網(wǎng)絡(luò),輸出位姿信息。然后經(jīng)過(guò)一個(gè)SE(3)層對(duì)位姿信息進(jìn)行累計(jì),輸出所在位置。全天候?qū)Ш讲糠?本文受對(duì)偶GAN與條件GAN的啟發(fā),提出了一種多域風(fēng)格轉(zhuǎn)換模型,能夠?qū)⑼砩匣虬盹L(fēng)格的圖片轉(zhuǎn)換到白天。將統(tǒng)一風(fēng)格的圖片輸入視覺(jué)導(dǎo)航模型中,完成全天候的導(dǎo)航任務(wù)。另外,多域風(fēng)格轉(zhuǎn)換模型不僅能夠解決全天候的視覺(jué)導(dǎo)航任務(wù),而且具有較強(qiáng)的泛化能力,在其他的圖像風(fēng)格轉(zhuǎn)換任務(wù)上也取得了不錯(cuò)的生成效果。本文對(duì)基于深度學(xué)習(xí)的視覺(jué)導(dǎo)航系統(tǒng)進(jìn)行了整體實(shí)驗(yàn)評(píng)估,在電子科技大學(xué)清水河校區(qū)主樓前廣場(chǎng)上,從數(shù)據(jù)采集到導(dǎo)航實(shí)驗(yàn),驗(yàn)證了系統(tǒng)的可靠性。實(shí)驗(yàn)表明該基于深度學(xué)習(xí)的導(dǎo)航系統(tǒng)能夠初步完成導(dǎo)航任務(wù)。
【圖文】:

隱藏層,神經(jīng)網(wǎng)絡(luò)


深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,也是近幾年來(lái)非常熱門的研究方向,在多個(gè)計(jì)算機(jī)科學(xué)的細(xì)分領(lǐng)域都展現(xiàn)出了強(qiáng)大的實(shí)力。深度學(xué)習(xí)基于深度神經(jīng)網(wǎng)絡(luò)(DeepNeuralNetwork,DNN,圖 1-2)。與深度對(duì)立的則是淺層神經(jīng)網(wǎng)絡(luò),而淺層神經(jīng)網(wǎng)絡(luò)其實(shí)就是 DNN 的前身,神經(jīng)網(wǎng)絡(luò)(NeuralNetwork,NN)。這個(gè)結(jié)構(gòu)在 20 世紀(jì) 40年代就已經(jīng)被提出[14]。Hinton、Williams 以及 Rumelhart 于 1988 年提出反向傳播算法[15]后,NN 模型開(kāi)始興起,在 20 世紀(jì) 90 年代成為非常熱門的研究方向。但由于淺層 NN 的結(jié)構(gòu)限制,能解決的問(wèn)題非常有限,相比于高斯混合模型(GaussianMixtureModel,GMM)以及支持向量機(jī)(SupportVector Machine,SVM)[16]等機(jī)器學(xué)習(xí)算法,效果并不好。而 DNN 模型則因?yàn)槎喾矫嬖驘o(wú)法發(fā)揮強(qiáng)大的實(shí)力。具體而言:(1) 硬件算力不足以支撐 DNN 模型龐大的計(jì)算量,使得 DNN 模型的訓(xùn)練時(shí)長(zhǎng)難以忍受,無(wú)法快速迭代調(diào)試。(2) 訓(xùn)練數(shù)據(jù)極度匱乏,而 DNN 在小型數(shù)據(jù)集上很容易出現(xiàn)過(guò)擬合現(xiàn)象。(3) 針對(duì) DNN 的優(yōu)化基本不是凸優(yōu)化,當(dāng)時(shí)并沒(méi)有良好的解決辦法,使 DNN很難達(dá)到全局最優(yōu)解。

領(lǐng)域,錯(cuò)誤率,識(shí)別率,數(shù)據(jù)集


使得算力不再是 DNN 的瓶頸,DNN 訓(xùn)練時(shí)間迅速縮短,網(wǎng)絡(luò)深度也可以進(jìn)一步加大。隨機(jī)梯度下降(Stochastic gradient descent,SGD)[18]算法的提出,讓 DNN 在收斂到局部最優(yōu)解時(shí)可以跳出,而不是給出錯(cuò)誤的結(jié)果。層次預(yù)訓(xùn)練方法,在訓(xùn)練前進(jìn)行全局優(yōu)化,使網(wǎng)絡(luò)中的參數(shù)獲得一個(gè)較好的初始值,從而更容易得到全局最優(yōu)解。梯度消失(爆炸)問(wèn)題也在 ReLU[19]等非飽和激活函數(shù)的提出后得到了有效的抑制。過(guò)擬合問(wèn)題在信息爆炸帶來(lái)的巨大數(shù)據(jù)量以及 Dropout 等方法的廣泛應(yīng)用達(dá)到了可控的程度。這幾年 DNN 領(lǐng)域頻頻傳來(lái)捷報(bào)。在識(shí)別手寫(xiě)體的測(cè)試中,DNN 的錯(cuò)誤率只有 0.39%,而 SVM 模型是 1.4%[20]。在語(yǔ)音識(shí)別問(wèn)題中,DNN 歷史性的將錯(cuò)誤率降到了 16%[21],在此之前,23%的準(zhǔn)確率保持了 10 年之久。圖像識(shí)別領(lǐng)域,,LabeledFaces in the Wild (LFW)[22]是當(dāng)前最權(quán)威的人臉數(shù)據(jù)集,深度學(xué)習(xí)算法在這個(gè)數(shù)據(jù)集上的識(shí)別率達(dá)到了 99.47%[23],相比而言,其他算法最好的識(shí)別率是 96.33%[24]。2012 年,在機(jī)器視覺(jué)領(lǐng)域著名的 ImageNet[25]比賽上,Hintion 等人使用 DNN 以絕對(duì)的優(yōu)勢(shì)取得了冠軍。
【學(xué)位授予單位】:電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:TN961;TP18

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 單力;;關(guān)于農(nóng)業(yè)機(jī)械機(jī)器視覺(jué)導(dǎo)航的探討[J];化工管理;2017年02期

2 潘廣堂;李文文;楊先海;;視覺(jué)導(dǎo)航系統(tǒng)中圖像采集及處理技術(shù)綜述[J];科技視界;2016年24期

3 王福娟;張賓;;農(nóng)業(yè)車輛視覺(jué)導(dǎo)航技術(shù)研究進(jìn)展[J];農(nóng)機(jī)化研究;2008年11期

4 袁文波;陳慶瑜;高洪兵;王欽若;;梯度下降法在雙目視覺(jué)導(dǎo)航中的一個(gè)運(yùn)用[J];電子世界;2018年16期

5 張鳳爽;海洋機(jī)器人視覺(jué)導(dǎo)航研究[J];機(jī)器人;1994年02期

6 石瑩,段廣仁,孫德波;視覺(jué)導(dǎo)航信息可觀性分析的Matlab Symbolic Computation方法[J];宇航學(xué)報(bào);2004年06期

7 蘇開(kāi)娜,易小琳,任文君,段娟;基于道路動(dòng)態(tài)視覺(jué)導(dǎo)航的控制策略與仿真[J];計(jì)算機(jī)仿真;1998年04期

8 ;吉林大學(xué)首創(chuàng)新型視覺(jué)導(dǎo)航AGV[J];發(fā)明與創(chuàng)新;2003年11期

9 孫磊;趙巖;韓芳芳;李志偉;;視覺(jué)導(dǎo)航機(jī)器人技術(shù)在大學(xué)實(shí)踐教育環(huán)節(jié)內(nèi)容中的探討[J];大學(xué)教育;2019年01期

10 周娟英;;基于視覺(jué)的車輛導(dǎo)航系統(tǒng)的研究[J];自動(dòng)化與儀器儀表;2014年06期

相關(guān)會(huì)議論文 前10條

1 趙汝準(zhǔn);;農(nóng)業(yè)領(lǐng)域中視覺(jué)導(dǎo)航實(shí)時(shí)性研究[A];中國(guó)農(nóng)業(yè)工程學(xué)會(huì)2011年學(xué)術(shù)年會(huì)(CSAE 2011)論文摘要集[C];2011年

2 張衛(wèi);杜尚豐;;霍夫變換在農(nóng)田機(jī)器人視覺(jué)導(dǎo)航中的應(yīng)用[A];農(nóng)業(yè)工程科技創(chuàng)新與建設(shè)現(xiàn)代農(nóng)業(yè)——2005年中國(guó)農(nóng)業(yè)工程學(xué)會(huì)學(xué)術(shù)年會(huì)論文集第三分冊(cè)[C];2005年

3 陳嬌;杜尚豐;;農(nóng)業(yè)機(jī)械機(jī)器視覺(jué)導(dǎo)航實(shí)時(shí)圖像處理系統(tǒng)的改進(jìn)[A];2007年中國(guó)農(nóng)業(yè)工程學(xué)會(huì)學(xué)術(shù)年會(huì)論文摘要集[C];2007年

4 蘇開(kāi)娜;任文君;易小琳;;視覺(jué)導(dǎo)航中基于運(yùn)動(dòng)模型的道路識(shí)別算法的研究[A];中國(guó)圖象圖形科學(xué)技術(shù)新進(jìn)展——第九屆全國(guó)圖象圖形科技大會(huì)論文集[C];1998年

5 王榮本;儲(chǔ)江偉;馮炎;游峰;紀(jì)壽文;;一種視覺(jué)導(dǎo)航的實(shí)用型AGV設(shè)計(jì)[A];面向制造業(yè)的自動(dòng)化與信息化技術(shù)創(chuàng)新設(shè)計(jì)的基礎(chǔ)技術(shù)——2001年中國(guó)機(jī)械工程學(xué)會(huì)年會(huì)暨第九屆全國(guó)特種加工學(xué)術(shù)年會(huì)論文集[C];2001年

6 曹倩;王庫(kù);;基于農(nóng)田非結(jié)構(gòu)特征的視覺(jué)導(dǎo)航研究[A];紀(jì)念中國(guó)農(nóng)業(yè)工程學(xué)會(huì)成立30周年暨中國(guó)農(nóng)業(yè)工程學(xué)會(huì)2009年學(xué)術(shù)年會(huì)(CSAE 2009)論文集[C];2009年

7 位耀光;孫明;涂序彥;;農(nóng)業(yè)機(jī)械視覺(jué)導(dǎo)航攝像頭標(biāo)定研究[A];紀(jì)念中國(guó)農(nóng)業(yè)工程學(xué)會(huì)成立30周年暨中國(guó)農(nóng)業(yè)工程學(xué)會(huì)2009年學(xué)術(shù)年會(huì)(CSAE 2009)論文集[C];2009年

8 張衛(wèi);杜尚豐;;Hough變換在農(nóng)田機(jī)械視覺(jué)導(dǎo)航中的應(yīng)用[A];第三屆全國(guó)信息獲取與處理學(xué)術(shù)會(huì)議論文集[C];2005年

9 史久根;何慧;;基于光照無(wú)關(guān)圖的護(hù)理機(jī)器人視覺(jué)導(dǎo)航[A];2011中國(guó)儀器儀表與測(cè)控技術(shù)大會(huì)論文集[C];2011年

10 張磊;王書(shū)茂;陳兵旗;祝青園;;基于機(jī)器視覺(jué)的導(dǎo)航實(shí)驗(yàn)平臺(tái)的研究[A];農(nóng)業(yè)機(jī)械化與新農(nóng)村建設(shè)——中國(guó)農(nóng)業(yè)機(jī)械學(xué)會(huì)2006年學(xué)術(shù)年會(huì)論文集(上冊(cè))[C];2006年

相關(guān)重要報(bào)紙文章 前2條

1 鄧亮;視覺(jué)導(dǎo)航:導(dǎo)彈的“眼睛”[N];中國(guó)航天報(bào);2019年

2 張兆軍;吉大科技園:學(xué)子創(chuàng)業(yè)基地[N];科技日?qǐng)?bào);2003年

相關(guān)博士學(xué)位論文 前10條

1 陳煒楠;高魯棒性的移動(dòng)機(jī)器人視覺(jué)導(dǎo)航與環(huán)境探索[D];廣東工業(yè)大學(xué);2019年

2 張震;醫(yī)療內(nèi)窺鏡視覺(jué)導(dǎo)航技術(shù)研究[D];上海大學(xué);2006年

3 周俊;農(nóng)用輪式移動(dòng)機(jī)器人視覺(jué)導(dǎo)航系統(tǒng)的研究[D];南京農(nóng)業(yè)大學(xué);2003年

4 林義閩;未知環(huán)境中智能機(jī)器人的視覺(jué)導(dǎo)航技術(shù)研究[D];北京郵電大學(xué);2014年

5 胡凱;機(jī)器人視覺(jué)導(dǎo)航中的圖像處理問(wèn)題研究[D];東南大學(xué);2015年

6 翟志強(qiáng);基于虛擬現(xiàn)實(shí)的拖拉機(jī)雙目視覺(jué)導(dǎo)航試驗(yàn)方法研究[D];中國(guó)農(nóng)業(yè)大學(xué);2017年

7 鮑偉;視覺(jué)導(dǎo)航移動(dòng)機(jī)器人路徑跟蹤控制策略的研究[D];合肥工業(yè)大學(xué);2009年

8 郭景華;視覺(jué)導(dǎo)航式智能車輛橫向與縱向控制研究[D];大連理工大學(xué);2012年

9 朱志剛;視覺(jué)導(dǎo)航中環(huán)境建模的研究[D];清華大學(xué);1997年

10 武星;視覺(jué)導(dǎo)航的輪式移動(dòng)機(jī)器人運(yùn)動(dòng)控制技術(shù)研究[D];南京航空航天大學(xué);2010年

相關(guān)碩士學(xué)位論文 前10條

1 龔俊鑫;基于深度學(xué)習(xí)的導(dǎo)航系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];電子科技大學(xué);2019年

2 賴嫦;基于STM32和機(jī)器視覺(jué)的AGV小車設(shè)計(jì)與實(shí)現(xiàn)[D];西南科技大學(xué);2018年

3 王雨;基于視覺(jué)導(dǎo)航AGV的定位技術(shù)與路徑規(guī)劃研究[D];安徽大學(xué);2019年

4 馮美慧;月球車視覺(jué)導(dǎo)航方法研究[D];哈爾濱工業(yè)大學(xué);2018年

5 謝志文;基于特征圖形集的視覺(jué)導(dǎo)航技術(shù)研究[D];杭州師范大學(xué);2018年

6 楊洪英;基于視覺(jué)導(dǎo)航的區(qū)域智能電動(dòng)車實(shí)驗(yàn)平臺(tái)開(kāi)發(fā)[D];大連理工大學(xué);2018年

7 孫銘澤;慣導(dǎo)輔助旋翼飛行器室內(nèi)視覺(jué)導(dǎo)航方法研究[D];中國(guó)民航大學(xué);2018年

8 彭順正;矮化密植棗園視覺(jué)導(dǎo)航路徑檢測(cè)方法的研究[D];石河子大學(xué);2017年

9 童祖兵;巡線機(jī)器人視覺(jué)導(dǎo)航研究[D];安徽工業(yè)大學(xué);2016年

10 馬欽華;月球軟著陸視覺(jué)導(dǎo)航與下降序列影像匹配問(wèn)題研究[D];國(guó)防科學(xué)技術(shù)大學(xué);2010年



本文編號(hào):2602248

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/2602248.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶c0dba***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com