天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 教育論文 > 課堂教學(xué)論文 >

基于數(shù)字圖像處理的課堂行為識(shí)別方法的研究

發(fā)布時(shí)間:2022-01-23 15:34
  課堂教學(xué)是教學(xué)的基本形式,是學(xué)生獲取信息、提高技能和形成思想觀念的主渠道。師、生課堂教、學(xué)行為對(duì)受教育者的影響極大,這些行為數(shù)據(jù)可以用來客觀評(píng)價(jià)學(xué)生,預(yù)測(cè)學(xué)生未來的學(xué)習(xí)成績(jī),規(guī)劃職業(yè),也可以評(píng)價(jià)教師的教學(xué)水平,促進(jìn)教師反思并改進(jìn)教學(xué)。因此識(shí)別師、生的課堂的教、學(xué)行為有著非常廣泛的應(yīng)用,值得深入研究。目前針對(duì)課堂環(huán)境這一復(fù)雜背景下行為識(shí)別的研究剛剛開展,本文研究了數(shù)字圖像處理識(shí)別課堂背景的起立、舉手的行為。論文的主要工作如下:(1)運(yùn)動(dòng)目標(biāo)檢測(cè)算法在課堂場(chǎng)景的實(shí)現(xiàn)與應(yīng)用。將典型運(yùn)動(dòng)目標(biāo)檢測(cè)算法,包括運(yùn)動(dòng)歷史圖、高斯混合模型、Vibe、光流法應(yīng)用于課堂,并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了分析,由于這些算法前景提取的不足,針對(duì)課堂行為檢測(cè)仍然存在的難點(diǎn),確定了一種先檢測(cè)行為主體(臉、手),再判斷主體運(yùn)動(dòng)趨勢(shì)的行為識(shí)別的研究思路。(2)基于感興趣區(qū)域的起立識(shí)別。為了避免人物背景雜亂的影響,結(jié)合主運(yùn)動(dòng)發(fā)生在圖像上半部分的特點(diǎn),利用二分法確定裁剪位置,進(jìn)行了圖像裁剪,獲取感興趣區(qū)域,再根據(jù)是否有舉手干擾,選擇了不同的閾值分割算法,識(shí)別了不同分割背景下的起立行為。(3)基于人臉跟蹤的起立識(shí)別。為了能對(duì)行為目標(biāo)進(jìn)行定... 

【文章來源】:太原理工大學(xué)山西省 211工程院校

【文章頁數(shù)】:90 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于數(shù)字圖像處理的課堂行為識(shí)別方法的研究


幀間差分法Fig.1-1Subtractionmethodofinterframes

歷史圖


:中, D( x, y , t ) I ( x, y , t ) I ( x, y , t ) 。式中, I ( x, y , t )為視頻序列第 t 幀中坐標(biāo)( x, y )處像素點(diǎn)的強(qiáng)度值, 為幀間距是人為給定的差異閾值,可隨視頻場(chǎng)景的變化而調(diào)整。本次應(yīng)用中,根據(jù)實(shí)際情況,將 的取值定為 15,衰退參數(shù) 定為 20,差異閾為 150,為了得到清晰的前景目標(biāo),將求得的運(yùn)動(dòng)歷史圖二值化處理,得到的檢如圖 1-2 所示?梢钥闯,運(yùn)動(dòng)歷史圖基本可以檢測(cè)出目標(biāo)運(yùn)動(dòng),但是存在兩個(gè)顯的缺點(diǎn)。第一,單靠運(yùn)動(dòng)歷史圖的數(shù)據(jù),難以區(qū)分檢測(cè)出的手還是人;第二,動(dòng)作的干擾,會(huì)出現(xiàn)大小不同的連通域,難以判斷小區(qū)域是否是由后排人的運(yùn)動(dòng)。 01( x,y,t)D( x,y,t) otherwiseif

高斯混合模型,高斯模型


高斯混合模型法(Gaussian mixture model, GMM)是一種基于背景建模來提取前景的方法。其基本思想是對(duì)圖像中的所有像素點(diǎn)使用單高斯模型進(jìn)行建模描述,對(duì)多個(gè)單高斯模型使用權(quán)值和參數(shù)匹配來實(shí)現(xiàn)背景模型的更新,以此適應(yīng)各種復(fù)雜多變的場(chǎng)景。這個(gè)算法的多個(gè)單高斯模型都在盡力預(yù)測(cè)本坐標(biāo)未來的顏色,系統(tǒng)根據(jù)各個(gè)高斯模型對(duì)未來顏色預(yù)測(cè)成功與否來改變它們權(quán)重,成功預(yù)測(cè)的可以調(diào)整自己,以利于下一次預(yù)測(cè)。在過去預(yù)測(cè)最準(zhǔn)的那個(gè)高斯模型所預(yù)測(cè)的值將被作為背景值。如果所有的模型都預(yù)測(cè)不準(zhǔn),那么刪去預(yù)測(cè)最不準(zhǔn)的高斯模型并根據(jù)當(dāng)前值,建立新的高斯模型[19-21]。高斯混合模型法適用于檢測(cè)背景單一、噪聲較少的運(yùn)動(dòng)變化場(chǎng)景,但是存在計(jì)算量較大且背景更新慢的問題。若背景變化迅速,高斯混合模型法就要更新速度來適應(yīng)環(huán)境變化的速度,但是對(duì)噪聲也就更容易敏感。高斯混合模型法的檢測(cè)結(jié)果如圖 1-3 所示?梢钥闯,高斯混合模型可以檢測(cè)出運(yùn)動(dòng)目標(biāo)的輪廓,但是存在大量孔洞,也難以確定運(yùn)動(dòng)行為。

【參考文獻(xiàn)】:
期刊論文
[1]面向人機(jī)交互的常見桌面手勢(shì)識(shí)別[J]. 朱慶杰,潘航,陳顯軍,湛永松,楊明浩.  計(jì)算機(jī)工程與設(shè)計(jì). 2018(10)
[2]掃描線種子區(qū)域填充算法的研究與實(shí)現(xiàn)[J]. 王利祥.  信息記錄材料. 2018(10)
[3]學(xué)生課堂行為視頻圖像采集和識(shí)別系統(tǒng)[J]. 王竑熹.  發(fā)明與創(chuàng)新(中學(xué)生). 2018(06)
[4]基于深度圖像的人體行為識(shí)別綜述[J]. 孫彬,孔德慧,張?chǎng)⿻?賈文浩.  北京工業(yè)大學(xué)學(xué)報(bào). 2018(10)
[5]基于Snake模型與輪廓跟蹤的區(qū)域填充算法[J]. 苗龍?jiān)?于正林.  科技資訊. 2018(11)
[6]基于HSI顏色空間和暗原色先驗(yàn)的去霧算法[J]. 宋瑞霞,孫相東,王小春.  系統(tǒng)科學(xué)與數(shù)學(xué). 2017(10)
[7]人體行為識(shí)別數(shù)據(jù)集研究進(jìn)展[J]. 朱紅蕾,朱昶勝,徐志剛.  自動(dòng)化學(xué)報(bào). 2018(06)
[8]基于區(qū)域外接矩形的自動(dòng)化孔洞填充算法[J]. 劉海峰,張超,羅江,林福良.  指揮信息系統(tǒng)與技術(shù). 2017(03)
[9]基于背景減除法的視頻序列運(yùn)動(dòng)目標(biāo)檢測(cè)[J]. 劉仲民,何勝皎,胡文瑾,李戰(zhàn)明.  計(jì)算機(jī)應(yīng)用. 2017(06)
[10]基于Kinect的課堂教學(xué)狀態(tài)監(jiān)測(cè)系統(tǒng)[J]. 李彬,謝翟,段渭軍,楊榮.  傳感器與微系統(tǒng). 2017(01)

碩士論文
[1]煙塵測(cè)量中圖像法的應(yīng)用研究[D]. 王素婷.太原理工大學(xué) 2018
[2]基于視覺技術(shù)的蛋雞信息監(jiān)測(cè)方法與應(yīng)用研究[D]. 劉修林.中北大學(xué) 2018
[3]基于顏色空間轉(zhuǎn)換的分水嶺彩色圖像分割算法研究[D]. 張慧.遼寧工程技術(shù)大學(xué) 2017
[4]人體行為識(shí)別及在教育錄播系統(tǒng)中的應(yīng)用[D]. 黨冬利.西安科技大學(xué) 2017
[5]基于圖像處理的自動(dòng)閱卷系統(tǒng)相關(guān)技術(shù)研究[D]. 邵鳳瑩.太原理工大學(xué) 2017
[6]封閉曲線上隨機(jī)多起點(diǎn)的洪水填充相位解包裹算法[D]. 孫佳星.遼寧師范大學(xué) 2017
[7]基于視頻的人臉檢測(cè)與對(duì)齊算法研究[D]. 吳彬.吉林大學(xué) 2017
[8]基于圖像的人體姿勢(shì)估計(jì)和手勢(shì)識(shí)別研究[D]. 王國(guó)楨.安徽大學(xué) 2016
[9]Voila-Jones算法和遺傳神經(jīng)網(wǎng)絡(luò)算法在遠(yuǎn)程中醫(yī)診斷系統(tǒng)中的應(yīng)用[D]. 申鵬程.武漢理工大學(xué) 2013
[10]基于改進(jìn)Viola-Jones框架的人臉檢測(cè)算法[D]. 陳致蓬.湘潭大學(xué) 2012



本文編號(hào):3604647

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/jiaoyulunwen/ktjx/3604647.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶905dd***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com