天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于雙目視覺的水面漂浮物監(jiān)測研究

發(fā)布時(shí)間:2021-08-14 13:20
  水環(huán)境問題與全人類息息相關(guān),水面上漂浮物將直接影響著水質(zhì),這些漂浮物不僅影響著環(huán)境美觀,還威脅航行安全,更對生態(tài)系統(tǒng)帶來巨大危害,進(jìn)而威脅人類的安全。為了在減少人力、物力資源以及成本的前提下清除水面漂浮垃圾,其關(guān)鍵在于如何用簡單的方法識別漂浮物,由于機(jī)器視覺在目標(biāo)檢測上有了很多成功的運(yùn)用,因此本文也采用基于機(jī)器視覺的水面漂浮物識別算法。傳統(tǒng)識別漂浮物的系統(tǒng),存在只監(jiān)不測的問題,離全自動(dòng)監(jiān)測系統(tǒng)有一定差距,因此本文進(jìn)一步對測距、跟蹤進(jìn)行研究。本文主要研究內(nèi)容如下:(1)首先依據(jù)無人艇自動(dòng)打撈水面漂浮物的需求,利用現(xiàn)有技術(shù),提出適用于無人艇的漂浮物打撈系統(tǒng)框架。(2)利用雙目攝像機(jī)構(gòu)建圖像采集系統(tǒng),通過張正友標(biāo)定法獲取相機(jī)內(nèi)外參數(shù)進(jìn)行標(biāo)定,利用三維測距原理,實(shí)現(xiàn)整個(gè)系統(tǒng)的測距功能。(3)基于TensorFlow框架,利用風(fēng)格遷移算法構(gòu)建目標(biāo)識別模塊,用風(fēng)格代替紋理,通過VGG網(wǎng)絡(luò)計(jì)算象征風(fēng)格的格拉姆矩陣,根據(jù)水圖像與水區(qū)域圖像的格拉姆差值小,與漂浮物區(qū)域差值大,區(qū)分識別出漂浮物。本方法與經(jīng)典模式識別方法相比,更加簡單的識別水面垃圾漂浮物,為后續(xù)的目標(biāo)跟蹤打撈提供強(qiáng)有力的數(shù)據(jù)支持。(4)當(dāng)目... 

【文章來源】:大連海事大學(xué)遼寧省 211工程院校

【文章頁數(shù)】:67 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于雙目視覺的水面漂浮物監(jiān)測研究


圖1.1水面漂浮物??Fig.?1.1?Aquatic?floaters??

示意圖,工作流程,原理,示意圖


大連海事大學(xué)碩士學(xué)位論文??「-??—----丨??攝像頭1?攝像頭2?圖|??丨??????1像I??I?采U???1???1?集??左圖像?右圖像模I??;——I ̄ ̄1丨——I— ̄^丨??—??]??!?左目標(biāo)定?右目標(biāo)定I?:?圖片預(yù)處理?!??丨離1————?一-T-一|?!?j?p??fe?★?。鬯母窭肪仃囈灰缓∝S益格拉姆爲(wèi)??|S?_?標(biāo)定?!?|?|?}[??^????1?I?框選目標(biāo)?P??i—―貞??I?|??w?|?雙目圖像校正?|??^?L?:_I雙;??I??I???雙目圖像匹配??I?龍??I?£?模I??丨丨??1?1塊1??視差圖??」??三_?1距??^????KCF跟蹤??二細(xì)蹤??跟蹤結(jié)果^>一 ̄?1??失敗??成功???5???漂,浦I下一備物??圖2.1工作流程原理示意圖??Fig.2.1?Schematic?diagram?of?workflow?principle??-7?-??

神經(jīng)元,卷積


的各個(gè)維度都中心化到0,即數(shù)據(jù)減去樣本均值,讓樣本中??心接近坐標(biāo)系原點(diǎn)。CNN選取去均值方式。??b)歸一化:對樣本進(jìn)行歸一化,使樣本幅度處于相同范圍。??c)PCA/白化:用PCA降維,白化去除冗余的輸入數(shù)據(jù)。??2.卷積計(jì)算層(CONV?layer)??卷積層由多個(gè)特征面(Feature?Map)構(gòu)成,每一個(gè)特征面則是由很多個(gè)神經(jīng)元構(gòu)成的。??每個(gè)神經(jīng)元看作一個(gè)識別器,一個(gè)或者幾個(gè)神經(jīng)元的組合在訓(xùn)練后可以被用來識別某個(gè)??特征,大量識別器的組合可以用來識別物體[25]。??圖3.2神經(jīng)元結(jié)構(gòu)??Fig.?3.2?Neuronal?structure??卷積層能夠提取輸入數(shù)據(jù)的特征,其內(nèi)部包含多個(gè)卷積核[27)。卷積計(jì)算如圖3.3所??示。其中,x是輸入圖像,為RGB圖像,三個(gè)通道分別與w內(nèi)積計(jì)算后,加上偏移量辦,??輸出為0。計(jì)算得到綠色矩陣中第一行第一列的元素的過程為:??(0*0)+(〇*0)+(0*-1)+(0*1)+(1*0)+(2*0)+(0*0)+(1?*〇)+(〇*?1)+(〇*〇)+(〇*1)+(〇*-1)+(〇*-1)+(〇??*1)+(2*-1)+(0*0)+(2*-1)+(2*0)+(0*0)+(0*1)+(0*-1)+(0*1)+(0*-1)+(1*0)+(0*0)+(2*0)+(0*-??1)+1=-3。??input?Volume?(+pad?17^7x7x37?Filter?WO?(3x3x3)?Filter?W1?(3x3x3)?Output?Volume?r3x3x2)??x[?s,:,o]?w〇?wl[:,:,〇]?〇[:,:,0】??|0?|l〇?||-1?|?0?10

【參考文獻(xiàn)】:
期刊論文
[1]基于KCF相似度的TLD目標(biāo)跟蹤算法[J]. 張晶,熊曉雨,鮑益波.  計(jì)算機(jī)工程與科學(xué). 2019(02)
[2]基于視覺的水面垃圾清理機(jī)器人目標(biāo)檢測算法[J]. 湯偉,劉思洋,高涵,陶倩.  科學(xué)技術(shù)與工程. 2019(03)
[3]水上垃圾清理機(jī)器人[J]. 陳華勇,方鼎,洪錕,肖云永,王立強(qiáng),鄧成鋼.  兵工自動(dòng)化. 2018(11)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像風(fēng)格遷移技術(shù)[J]. 竇亞玲,周武彬,季人煌.  現(xiàn)代計(jì)算機(jī)(專業(yè)版). 2018(30)
[5]基于深度學(xué)習(xí)的圖像風(fēng)格遷移技術(shù)的前沿進(jìn)展[J]. 丁曉龍.  電子制作. 2018(18)
[6]城市小型湖泊水面智能清潔裝置設(shè)計(jì)[J]. 蔡孟凱,黃淑新,賀詩,李旭,蔡永康,汪鵬.  機(jī)電工程技術(shù). 2018(02)
[7]基于深度卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)流量分類方法[J]. 王勇,周慧怡,俸皓,葉苗,柯文龍.  通信學(xué)報(bào). 2018(01)
[8]基于MATLAB和OpenCV的雙目視覺測距系統(tǒng)的實(shí)現(xiàn)[J]. 許威,丁學(xué)文,宋蘭草,李莉.  天津職業(yè)技術(shù)師范大學(xué)學(xué)報(bào). 2017(04)
[9]我國水資源保護(hù)頂層設(shè)計(jì)若干思考[J]. 史曉新,楊晴,王曉紅,張建永.  中國水利. 2017(19)
[10]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍.  計(jì)算機(jī)學(xué)報(bào). 2017(06)

碩士論文
[1]基于雙目視覺的機(jī)器人目標(biāo)定位技術(shù)研究[D]. 閆磊.廣東工業(yè)大學(xué) 2017
[2]相關(guān)濾波目標(biāo)跟蹤算法研究[D]. 夏遠(yuǎn)祥.華僑大學(xué) 2017
[3]基于計(jì)算機(jī)視覺的鐵路路基沉降監(jiān)測方法研究[D]. 邱衛(wèi)林.華中科技大學(xué) 2017
[4]遷移學(xué)習(xí)在圖像分類中的應(yīng)用研究[D]. 吳國琴.安徽大學(xué) 2017
[5]基于雙目立體視覺的目標(biāo)識別與抓取定位[D]. 王德海.吉林大學(xué) 2016
[6]基于雙目視覺的動(dòng)態(tài)目標(biāo)定位與抓取研究[D]. 夏菠.西南科技大學(xué) 2016
[7]基于CUNet的海量圖像分類研究[D]. 賀玲.電子科技大學(xué) 2016
[8]卷積神經(jīng)網(wǎng)絡(luò)在圖像分類中的應(yīng)用研究[D]. 吳正文.電子科技大學(xué) 2015
[9]基于機(jī)器視覺的水面漂浮物自動(dòng)監(jiān)測的研究[D]. 胡蓉.廣西科技大學(xué) 2015
[10]基于雙目立體視覺的工件識別定位與抓取系統(tǒng)研究[D]. 張海波.中國計(jì)量學(xué)院 2014



本文編號:3342540

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3342540.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶1cc72***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請E-mail郵箱bigeng88@qq.com