基于深度學(xué)習(xí)的智能視頻監(jiān)控中的關(guān)鍵技術(shù)研究
發(fā)布時間:2020-12-10 02:39
計算機視覺是人工智能領(lǐng)域一個重要的研究方向,通過各種傳感器設(shè)備來記錄真實世界并通過圖像、視頻等原始形式進行信息表達,利用計算機從原始的視頻數(shù)據(jù)中提取出符合人類認知的語義理解,即讓計算機能和人一樣自動分析和理解視頻數(shù)據(jù)。比如,判斷場景中有哪些感興趣目標,通過物體歷史運動軌跡預(yù)測未來行走方向,識別危險目標和動作,以及分析目標之間的關(guān)系等。智能視頻監(jiān)控技術(shù)是利用計算機視覺和數(shù)字圖像處理相關(guān)的方法對各種設(shè)備拍攝的圖像或者視頻序列進行處理、分析和理解。智能視頻監(jiān)控技術(shù)在民用和軍事領(lǐng)域都有極大的應(yīng)用背景,如智慧城市建設(shè)、公共安全管理以及軍事建設(shè)等。單目標視頻跟蹤是智能視頻監(jiān)控中的關(guān)鍵環(huán)節(jié),在一些安全系數(shù)高的場合,能夠?qū)M入場景中的人員進行實時跟蹤,并在跟蹤過程中識別目標的行為,這就引出了多場景下的行為識別這一技術(shù)。多場景下的行為識別技術(shù)能夠?qū)Σ蹲降降娜宋锏男袨檫M行類別判定,提示系統(tǒng)在必要情況下進行警報處理。對于不同攝像機記錄的行人,多攝像頭下的行人再識別技術(shù)能夠準確定位到每一個待查詢目標行人,在一定程度上避免了誤判和漏判。為了進一步提高智能視頻監(jiān)控的可靠性和實時性,本文對智能視頻監(jiān)控中的單目標視頻...
【文章來源】:上海大學(xué)上海市 211工程院校
【文章頁數(shù)】:82 頁
【學(xué)位級別】:碩士
【部分圖文】:
AMDNet算法模型的網(wǎng)絡(luò)結(jié)構(gòu)
大學(xué)碩士學(xué)位論文中每個分支都包含一個二分類器,通過學(xué)習(xí)不同組的視頻序列獲景的能力。了進一步了解本章設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)模型,使用 DeepDraw 工中的兩個卷積層進行可視化操作。結(jié)果如圖 2-3 所示,(a)圖已經(jīng),形狀和輪廓,(b)圖比(a)圖具有更加清晰的輪廓,在特征表達上映了后續(xù)卷積層比前面的卷積層在表達上更加細致,對圖像的把
認為是有效聚類簇。在有效聚類簇中,選擇靠近聚類簇中心的幀作為候選視頻關(guān)鍵幀。然而,即使從有效聚類簇中選擇候選幀,仍存在冗余問題。為了避免關(guān)鍵幀的內(nèi)容相似度過高,使用1 2{f ,f ,...,f }n描述候選關(guān)鍵幀,如果if 和i1f 的相似度小于設(shè)定的閾值 ,則移除第 i 1幀。2.3.2 基于相似度的視頻分組算法AMDNet 模型的主干層學(xué)習(xí)視頻序列的共性特征,分支層對同一類別的目標和背景進行識別。在訓(xùn)練時,為了區(qū)別不同類別的目標和背景,對視頻訓(xùn)練集分組,每組對應(yīng)一個分支。本章提出基于相似度的視頻分組算法,利用 2.3.1 得到的關(guān)鍵幀表達各個視頻序列,算法流程如圖 2-5 所示,主要步驟總結(jié)為算法 2-1。使用1 2 3{q ,q ,q ,...,q }n表示一個訓(xùn)練視頻集,首先進行分組的初始化操作。設(shè)置組內(nèi)最大視頻成員數(shù)量為 M ,將第一個訓(xùn)練視頻序列1q 置入第一組即1g ,定義組成員數(shù)量1| g |,且初始化其值為 1,組別數(shù)目total= 1。
本文編號:2907937
【文章來源】:上海大學(xué)上海市 211工程院校
【文章頁數(shù)】:82 頁
【學(xué)位級別】:碩士
【部分圖文】:
AMDNet算法模型的網(wǎng)絡(luò)結(jié)構(gòu)
大學(xué)碩士學(xué)位論文中每個分支都包含一個二分類器,通過學(xué)習(xí)不同組的視頻序列獲景的能力。了進一步了解本章設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)模型,使用 DeepDraw 工中的兩個卷積層進行可視化操作。結(jié)果如圖 2-3 所示,(a)圖已經(jīng),形狀和輪廓,(b)圖比(a)圖具有更加清晰的輪廓,在特征表達上映了后續(xù)卷積層比前面的卷積層在表達上更加細致,對圖像的把
認為是有效聚類簇。在有效聚類簇中,選擇靠近聚類簇中心的幀作為候選視頻關(guān)鍵幀。然而,即使從有效聚類簇中選擇候選幀,仍存在冗余問題。為了避免關(guān)鍵幀的內(nèi)容相似度過高,使用1 2{f ,f ,...,f }n描述候選關(guān)鍵幀,如果if 和i1f 的相似度小于設(shè)定的閾值 ,則移除第 i 1幀。2.3.2 基于相似度的視頻分組算法AMDNet 模型的主干層學(xué)習(xí)視頻序列的共性特征,分支層對同一類別的目標和背景進行識別。在訓(xùn)練時,為了區(qū)別不同類別的目標和背景,對視頻訓(xùn)練集分組,每組對應(yīng)一個分支。本章提出基于相似度的視頻分組算法,利用 2.3.1 得到的關(guān)鍵幀表達各個視頻序列,算法流程如圖 2-5 所示,主要步驟總結(jié)為算法 2-1。使用1 2 3{q ,q ,q ,...,q }n表示一個訓(xùn)練視頻集,首先進行分組的初始化操作。設(shè)置組內(nèi)最大視頻成員數(shù)量為 M ,將第一個訓(xùn)練視頻序列1q 置入第一組即1g ,定義組成員數(shù)量1| g |,且初始化其值為 1,組別數(shù)目total= 1。
本文編號:2907937
本文鏈接:http://sikaile.net/kejilunwen/wltx/2907937.html
最近更新
教材專著