基于深度學(xué)習(xí)的學(xué)生課堂疲勞狀態(tài)的分析與研究
【文章頁(yè)數(shù)】:66 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖1.1體系結(jié)構(gòu)圖
重慶師范大學(xué)碩士學(xué)位論文1緒論損失。江小涓、張文生等教授提出稀疏堆疊編碼器,其本質(zhì)是在堆疊編碼器的損失函數(shù)項(xiàng)的結(jié)構(gòu)上引入稀疏懲罰值的深度學(xué)習(xí)網(wǎng)絡(luò),但梯度稀釋的問(wèn)題沒(méi)有得到解決。牛津大學(xué)提出的VGG深度學(xué)習(xí)模型[9]目前已被廣泛應(yīng)用。不僅如此,F(xiàn)acebook的人臉檢測(cè)的系....
圖2.1最大下采樣與平均下采樣3全連接層
圖2.1最大下采樣與平均下采樣3全連接層通常情況下,卷積神經(jīng)網(wǎng)絡(luò)的輸出層對(duì)應(yīng)分類(lèi)器,其全連接層的本質(zhì)是對(duì)一層所得到的輸出信息進(jìn)行高度概括,連接所有特征后將輸出值傳遞給后一層分類(lèi)器[30]。所進(jìn)行的操作仍是卷積操作,卷積操作后的結(jié)果為一個(gè)節(jié)點(diǎn),然后特征組合起來(lái)進(jìn)行分類(lèi)計(jì)算,得....
圖2.2梯度下降算法
使損失函數(shù)朝著梯度改變最快的方向進(jìn)行更新[32],盡量在實(shí)驗(yàn)中減少陷入局部最優(yōu)的可能。如圖2.2所示。圖2.2梯度下降算法定義整個(gè)代價(jià)損失函數(shù),再定義參與一組訓(xùn)練的數(shù)據(jù)量,若批次為1,則為隨機(jī)梯度下降;若需要的是批梯度下降,則一批次數(shù)據(jù)量為進(jìn)行訓(xùn)練時(shí)的每批的樣本數(shù)據(jù)選取量....
圖3.1身份識(shí)別功能流程圖
測(cè)與身份識(shí)別的功能。主要包括圖像數(shù)據(jù)獲取與處理、環(huán)境及結(jié)果分析為后續(xù)對(duì)學(xué)生進(jìn)行疲勞狀態(tài)的研究與分份識(shí)別功能設(shè)計(jì)流程與身份識(shí)別功能的設(shè)計(jì)從整體而言,可分為五個(gè)步驟:通過(guò)攝像頭獲取相關(guān)的人臉視頻流,將視頻流轉(zhuǎn)化成幀地的圖像數(shù)據(jù)庫(kù)。利用分類(lèi)器檢測(cè)出本地圖像庫(kù)中每張幀圖像人臉區(qū)域的取,補(bǔ)....
本文編號(hào):3966052
本文鏈接:http://sikaile.net/jiaoyulunwen/jgkg/3966052.html