天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 碩博論文 > 信息類碩士論文 >

基于改進(jìn)RBF神經(jīng)網(wǎng)絡(luò)的視頻檢索算法研究

發(fā)布時(shí)間:2020-11-18 04:05
   近年來,隨著計(jì)算機(jī)和網(wǎng)絡(luò)通信技術(shù)不斷發(fā)展,視頻作為信息傳播的媒介受到越來越多的關(guān)注。如何在海量視頻數(shù)據(jù)中快速準(zhǔn)確地查找出人們所需要的視頻內(nèi)容成為當(dāng)前的研究重點(diǎn)。視頻檢索技術(shù)目前主要有基于文本的方法、基于內(nèi)容的方法以及基于深度學(xué)習(xí)的方法。其中,目前檢索效果最好的是基于深度學(xué)習(xí)的方法,其最具有代表性的是VGG16和Alexnet算法。但是,基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)算法都存在以下幾種問題:參數(shù)過多,在訓(xùn)練數(shù)據(jù)有限的情況下,會產(chǎn)生過擬合現(xiàn)象;網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,計(jì)算復(fù)雜度大,對于硬件需求過高;網(wǎng)絡(luò)結(jié)構(gòu)越深,容易出現(xiàn)梯度彌散的問題,導(dǎo)致模型的優(yōu)化較為困難。針對以上問題,本論文提出一種基于圖像切片的圖像識別算法,采用多級KNN算法構(gòu)建中心向量,利用中心向量代替卷積神經(jīng)網(wǎng)絡(luò)作為特征提取的主要方法,并將乘法運(yùn)算替換為加法運(yùn)算,可以有效減少神經(jīng)網(wǎng)絡(luò)參數(shù)過多以及結(jié)構(gòu)復(fù)雜所帶來的問題;其次采用類詞袋模型的相似度比對算法進(jìn)行圖片識別,本論文對中心向量進(jìn)行編碼后,根據(jù)編碼構(gòu)建待檢索圖像和圖像庫中圖像的標(biāo)簽向量,之后通過比對兩者的標(biāo)簽向量進(jìn)行圖像識別的操作。本論文在特征提取部分提出了一種多級類KNN算法,算法每次從待檢索圖片特征向量中取出一條切片向量,用該向量與所保存的所有中心向量進(jìn)行曼哈頓距離計(jì)算。若某一個中心向量與待檢索圖片切片向量距離接近,則可說明二者內(nèi)容相似,則用中心向量替換待檢索圖片切片。若待檢索圖片切片向量距離均大于所設(shè)定的閾值,表明當(dāng)前保存的切片均不和待檢索圖片切片相似,則自動將該切片作為新的中心向量加入所保存的切片向量集中,從而增大中心向量類別的覆蓋范圍。對于得到的中心向量集,本論文與基于kmeans聚類方法得到的中心向量進(jìn)行對比實(shí)驗(yàn),將得到的替換后的圖片進(jìn)行復(fù)原,與原圖進(jìn)行曼哈頓距離計(jì)算。經(jīng)過實(shí)驗(yàn)證明,本論文提出的方法復(fù)原后與原圖比對得到的單一像素曼哈頓距離比聚類算法得到的距離絕對值少0.0002,所需要的訓(xùn)練圖片數(shù)量比聚類方法節(jié)省50%左右。在相似度比對部分,本論文提出一種類似于詞袋模型的標(biāo)簽向量比對算法。該算法首先遍歷所有中心向量,并以“圖像名_起始行數(shù)_起始列數(shù)_終止行數(shù)_終止列數(shù)_通道號_id”的格式進(jìn)行編號,使每一個中心向量切片都有唯一的id。將圖像庫和待檢索圖像的所有圖像切片用與其曼哈頓距離最近的中心向量的id進(jìn)行代替,得到圖像的標(biāo)簽向量,之后利用標(biāo)簽向量進(jìn)行比對。若待檢索圖像的圖像切片不屬于任何中心向量,則自動將該切片保存在中心向量集中,使得系統(tǒng)具有邊訓(xùn)練邊學(xué)習(xí)的能力。最后在系統(tǒng)實(shí)現(xiàn)方面,本論文將所提出的算法引入視頻檢索系統(tǒng)中,證明了算法的可行性,并與基于VGG16和Alexnet網(wǎng)絡(luò)的視頻檢索技術(shù)進(jìn)行實(shí)驗(yàn)比對。在相同平臺下,以本文所提出算法為基礎(chǔ)構(gòu)建的系統(tǒng),整體運(yùn)行時(shí)間相比于目前通用的基于深度學(xué)習(xí)的視頻檢索算法節(jié)省了30%,并且檢索準(zhǔn)確率提升了1%。因此,本論文所提出的算法能夠?yàn)楹笃谝曨l檢索硬件系統(tǒng)開發(fā)打下基礎(chǔ)。
【學(xué)位單位】:北京建筑大學(xué)
【學(xué)位級別】:碩士
【學(xué)位年份】:2020
【中圖分類】:TP391.41;TP183
【部分圖文】:

流程圖,視頻檢索,流程圖


第1章緒論2圖1-1視頻檢索流程圖Figure1-1Videoretrievalflowchart基于深度學(xué)習(xí)的方法是近幾年隨著計(jì)算機(jī)硬件的發(fā)展以及算法優(yōu)化性的提升而提出的,深度學(xué)習(xí)更多應(yīng)用在圖像檢索領(lǐng)域,當(dāng)前已經(jīng)取得了很大的成就,例如AlexNet[4]、VGG[5]、Faster-Rcnn[6]等;谏疃葘W(xué)習(xí)的視頻檢索方法是在圖像檢索方法上拓展而來的,由于視頻數(shù)據(jù)量龐大,深度學(xué)習(xí)方法會使得計(jì)算成本增高。本論文的研究過程首先復(fù)現(xiàn)了視頻檢索領(lǐng)域成熟的代碼,發(fā)現(xiàn)當(dāng)前雖然檢索算法豐富,檢索效果理想,但是大多數(shù)只是停留在軟件實(shí)現(xiàn)上,導(dǎo)致檢索系統(tǒng)應(yīng)用環(huán)境有限制并且計(jì)算能力容易遇到瓶頸,其原因主要有以下幾個方面,一視頻數(shù)據(jù)規(guī)模十分龐大,無論是基于內(nèi)容還是深度學(xué)習(xí)的檢索方法,都需要進(jìn)行復(fù)雜的計(jì)算,因此在硬件化的過程中會導(dǎo)致耗能巨大,因此需要在檢索結(jié)果維持不變的基礎(chǔ)上,對算法進(jìn)行簡化以便于硬件的實(shí)現(xiàn);二是因?yàn)槟壳笆忻嫔系纳窠?jīng)網(wǎng)絡(luò)芯片成本高,靈活性差,常用的CPU和GPU在計(jì)算能力上略顯不足[7]。將視頻檢索技術(shù)硬件實(shí)現(xiàn)后,可以利用硬件并行計(jì)算的能力,提升系統(tǒng)整體運(yùn)行速度以及計(jì)算能力。因此,研究出一種實(shí)用性強(qiáng)、計(jì)算能力高的深度學(xué)習(xí)芯片成為當(dāng)前的研究熱點(diǎn)。1.2國內(nèi)外研究現(xiàn)狀目前,國外對視頻檢索領(lǐng)域研究開展較早,其中比較經(jīng)典的視頻檢索系統(tǒng)有:(1)QBIC(QueryByImageContent)QBIC[8]圖像視頻檢索系統(tǒng)是第一個基于內(nèi)容的商業(yè)化圖像視頻檢索系統(tǒng),是由IBM公所于90年代研發(fā)的項(xiàng)目。QBIC系統(tǒng)可以提取待查詢圖像的顏色、紋理、形狀等特征,其中顏色特征有色彩分布、色彩百分比等;紋理特征結(jié)合了對比度、方向性以及粗糙度等屬性;形狀特征包含了面積、偏心度和圓形度等概念。正是由于QBIC系統(tǒng)提取的圖像特征不同,其提供了很多的查詢方式,例如?

路線圖,路線圖,向量


第1章緒論5圖1-2系統(tǒng)研究路線圖Figure1-2Systemresearchroadmap論文研究方案如下:1)提取中心向量方案在進(jìn)行提取中心向量之前需要對圖片進(jìn)行切片操作,使用VOC數(shù)據(jù)集作為訓(xùn)練集,利用多級KNN算法對切片進(jìn)行中心向量的提取,將提取出的中心向量保存為中心向量集中。2)特征提取方案在視頻檢索或者圖像檢索中特征提取是關(guān)鍵步驟,特征提取需要對圖像庫中的圖像以及待檢索圖像進(jìn)行切片操作,之后通過與保存在改進(jìn)RBF神經(jīng)網(wǎng)絡(luò)中間層的中心向量進(jìn)行距離計(jì)算,根據(jù)得到的距離值用中心向量替換,替換得到圖稱為向量構(gòu)成圖,再利用標(biāo)簽向量進(jìn)行編碼得到標(biāo)簽構(gòu)成圖。3)相似度匹配方案本方案主要研究對標(biāo)簽構(gòu)成圖的相似度匹配內(nèi)容,通過比對兩個標(biāo)簽構(gòu)成圖相似概率并與閾值進(jìn)行比較,通過標(biāo)簽向量完成相似圖片的檢索以及中心向量集的更新。1.4論文結(jié)構(gòu)全文共分為五章,每章論文內(nèi)容安排如下:第一章為緒論,主要內(nèi)容為本論文的研究背景及意義,以及國內(nèi)外在視頻檢索領(lǐng)域的研究現(xiàn)狀,之后對本論文的研究內(nèi)容和論文結(jié)構(gòu)進(jìn)行分析。第二章是對視頻檢索算法進(jìn)行概述,首先說明了視頻數(shù)據(jù)的特點(diǎn),并且按照結(jié)構(gòu)將視頻分為四層,之后從鏡頭邊界檢測、關(guān)鍵幀提娶特征提取和相似度計(jì)算這幾個角度

數(shù)據(jù)結(jié)構(gòu)圖,視頻,數(shù)據(jù)結(jié)構(gòu),鏡頭


第2章視頻檢索算法概述7第2章視頻檢索算法概述視頻在日常生活中被廣泛使用,視頻數(shù)據(jù)規(guī)模也隨著科學(xué)技術(shù)的發(fā)展不斷擴(kuò)大,學(xué)者們對于視頻檢索技術(shù)的研究也越發(fā)深入。本章對現(xiàn)有視頻檢索技術(shù)進(jìn)行綜述,總結(jié)歸納國內(nèi)外對視頻檢索技術(shù)的研究現(xiàn)狀,分析當(dāng)前方法與技術(shù)存在的不足之處,并且為本論文接下來的研究打下基矗2.1視頻數(shù)據(jù)的特點(diǎn)視頻是一種復(fù)雜的數(shù)據(jù)流,包含文本、聲音、圖像于一體,視頻不僅有靜態(tài)信息,還包含動態(tài)信息,視頻可以表現(xiàn)出事物發(fā)生的空間和時(shí)間信息[16]。因此,由于視頻具有復(fù)雜的特性,對視頻處理比較繁瑣和費(fèi)時(shí),需要提前對視頻進(jìn)行結(jié)構(gòu)化處理,再進(jìn)行后續(xù)操作。視頻結(jié)構(gòu)可以分為四層,自上而下分別為視頻層、場景層、鏡頭層和圖像幀,如圖2-1所示。視頻層包含n組場景,每組場景包含文本、聲音和圖像信息構(gòu)成了我們觀看的視頻;場景層可以看作多組相同鏡頭的組合,每一個場景包含相同的鏡頭;鏡頭指的是攝像機(jī)在不切鏡的情況下持續(xù)拍出的內(nèi)容,而鏡頭又可以被分割成一幀一幀的圖像,一個鏡頭內(nèi)的幀具有相同的特征,區(qū)別僅僅是微小的變化,若幀與下一幀特征出現(xiàn)較大的變化,則認(rèn)為進(jìn)行了鏡頭的切換,由于視頻數(shù)據(jù)量龐大,往往需要在眾多的幀中提取出關(guān)鍵幀來代表這一鏡頭,從而簡化對視頻操作的復(fù)雜程度。圖2-1視頻數(shù)據(jù)結(jié)構(gòu)Figure2-1Videodatastructure視頻數(shù)據(jù)具有數(shù)據(jù)量大和語義信息復(fù)雜的特點(diǎn),數(shù)據(jù)量大是視頻與其他數(shù)據(jù)明顯的區(qū)別,正是因?yàn)檫@個特點(diǎn)當(dāng)前對于視頻數(shù)據(jù)的處理比較復(fù)雜。視頻數(shù)據(jù)具有數(shù)據(jù)規(guī)模大以及類型繁多的特點(diǎn),在當(dāng)前大數(shù)據(jù)背景下視頻數(shù)據(jù)起始計(jì)量單位至少是1000個T
【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 沙莎,羅巍,羅三定;基于重心向量分類算法的概念特征提取方法[J];計(jì)算機(jī)工程;2005年14期

2 趙捷,華玫;心電心向量同步儀的研制[J];山東生物醫(yī)學(xué)工程;1994年01期

3 ;什么叫心向量?什么是心向量圖?[J];江蘇醫(yī)藥;1981年01期

4 李元誠;楊瑞仙;;用于短期風(fēng)速預(yù)測的優(yōu)化核心向量回歸模型[J];中國電力;2012年03期

5 薛貞霞;劉三陽;齊小剛;;基于殼向量和中心向量的支持向量機(jī)[J];數(shù)據(jù)采集與處理;2009年03期

6 潘淵;李弼程;張先飛;;一種基于自適應(yīng)重心向量的主題檢測方法[J];計(jì)算機(jī)工程;2009年03期

7 王偉;;基于最小距離的多中心向量的增量分類算法[J];電腦知識與技術(shù);2015年04期

8 李元誠;劉克文;;面向大規(guī)模樣本的核心向量回歸電力負(fù)荷快速預(yù)測方法[J];中國電機(jī)工程學(xué)報(bào);2010年28期

9 何濤;王桂芳;馬廷燦;;基于類中心向量的論文作者歸屬機(jī)構(gòu)自動識別方法研究[J];情報(bào)學(xué)報(bào);2019年07期

10 焦方惠;;心電圖與心向量聯(lián)合檢查對心肌缺血診斷的價(jià)值[J];中國實(shí)用醫(yī)藥;2011年35期


相關(guān)博士學(xué)位論文 前10條

1 曾祥萍;自適應(yīng)組合RBF濾波器理論及其應(yīng)用研究[D];西南交通大學(xué);2013年

2 羅紹華;基于RBF網(wǎng)絡(luò)逼近的機(jī)器人自適應(yīng)動態(tài)面控制方法研究[D];重慶大學(xué);2013年

3 趙斌;基于RBF網(wǎng)絡(luò)的北方溫室溫濕度控制機(jī)理的研究[D];東北林業(yè)大學(xué);2010年

4 牟洪波;基于BP和RBF神經(jīng)網(wǎng)絡(luò)的木材缺陷檢測研究[D];東北林業(yè)大學(xué);2010年

5 顧志偉;面向結(jié)構(gòu)化數(shù)據(jù)的視頻檢索研究[D];中國科學(xué)技術(shù)大學(xué);2008年

6 郝艷賓;基于嵌入學(xué)習(xí)的近重復(fù)視頻檢索和跨域情感分類研究[D];合肥工業(yè)大學(xué);2017年

7 肖理業(yè);基于機(jī)器學(xué)習(xí)的電磁場建模與設(shè)計(jì)研究[D];電子科技大學(xué);2019年

8 陳涵瀛;核電站熱工水力系統(tǒng)工況預(yù)測與診斷方法研究[D];哈爾濱工程大學(xué);2018年

9 梁智杰;聾啞人手語識別關(guān)鍵技術(shù)研究[D];華中師范大學(xué);2019年

10 劉昂;微結(jié)構(gòu)硅基光子學(xué)器件性能的研究[D];南京大學(xué);2019年


相關(guān)碩士學(xué)位論文 前10條

1 董博晨;基于改進(jìn)RBF神經(jīng)網(wǎng)絡(luò)的視頻檢索算法研究[D];北京建筑大學(xué);2020年

2 趙新苗;基于中心向量的聚類算法在農(nóng)業(yè)信息分類中的研究與應(yīng)用[D];新疆農(nóng)業(yè)大學(xué);2016年

3 汪鑫;基于RBF神經(jīng)網(wǎng)絡(luò)的人體顱頜面多元特征信息提取技術(shù)研究[D];重慶理工大學(xué);2013年

4 胡波;基于模糊RBF神經(jīng)網(wǎng)絡(luò)的人臉識別系統(tǒng)研究[D];長沙理工大學(xué);2010年

5 王偉;基于最小距離的多中心向量的增量分類算法研究[D];南京財(cái)經(jīng)大學(xué);2015年

6 方琳;基于自適應(yīng)重心向量的話題檢測研究[D];東北師范大學(xué);2013年

7 李彩玉;基于RBF神經(jīng)網(wǎng)絡(luò)的心電信號分類識別技術(shù)研究[D];云南大學(xué);2012年

8 黃金龍;基于改進(jìn)RBF神經(jīng)網(wǎng)絡(luò)的模擬電路故障診斷技術(shù)研究[D];重慶大學(xué);2014年

9 李燕強(qiáng);模糊RBF神經(jīng)網(wǎng)絡(luò)在人臉識別的應(yīng)用研究[D];廣州大學(xué);2011年

10 馬濤;基于模糊控制RBF神經(jīng)網(wǎng)絡(luò)短期負(fù)荷預(yù)測的研究[D];西安科技大學(xué);2009年



本文編號:2888308

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shoufeilunwen/xixikjs/2888308.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶3cc3b***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com
欧美日韩亚洲国产综合网| 超薄肉色丝袜脚一区二区| 加勒比系列一区二区在线观看| 午夜精品黄片在线播放| 亚洲第一区欧美日韩在线| 国产亚洲精品香蕉视频播放| 午夜午夜精品一区二区| 东京不热免费观看日本| 亚洲少妇人妻一区二区| 亚洲一区精品二人人爽久久| 色鬼综合久久鬼色88| 国产精品色热综合在线| 麻豆蜜桃星空传媒在线观看| 91欧美一区二区三区| 少妇熟女精品一区二区三区| 欧美日韩视频中文字幕| 丰满人妻少妇精品一区二区三区| 国产成人人人97超碰熟女| 欧美国产日产在线观看| 成人午夜激情在线免费观看| 中文人妻精品一区二区三区四区 | 日本人妻丰满熟妇久久| 国产精品激情在线观看| 五月婷婷六月丁香在线观看| 免费在线成人激情视频| 国产又色又粗又黄又爽| 白丝美女被插入视频在线观看| 热久久这里只有精品视频| 91爽人人爽人人插人人爽| 国产丝袜女优一区二区三区| 黄片美女在线免费观看| 日韩人妻一区中文字幕| 丁香六月婷婷基地伊人| 日韩在线欧美一区二区| 国产亚洲欧美日韩国亚语| 成人区人妻精品一区二区三区| 欧美日韩国产精品自在自线| 在线视频三区日本精品| 欧美日韩国产自拍亚洲| 精品视频一区二区不卡| 色综合久久中文综合网|