基于數(shù)據(jù)分析的自適應(yīng)學(xué)習(xí)系統(tǒng)研究
發(fā)布時間:2021-08-09 04:05
在線教育在互聯(lián)網(wǎng)快速發(fā)展的今天,已經(jīng)逐漸發(fā)展成現(xiàn)代人們學(xué)習(xí)的一種新途徑。以慕課為代表的在線教育平臺在近幾年成為包括在校生及在職人士的重要學(xué)習(xí)平臺;诨ヂ(lián)網(wǎng)技術(shù)的在線教育平臺使得大量學(xué)習(xí)行為數(shù)字化,方便了規(guī)模化自動化的通過計(jì)算機(jī)技術(shù)分析學(xué)習(xí)行為,以此輔助教師的教學(xué),給學(xué)生及時的反饋。我們通過好大學(xué)在線提供的脫敏在線平臺用戶行為數(shù)據(jù)進(jìn)行分析,基于學(xué)習(xí)行為提供更好的教學(xué)學(xué)習(xí)建議,實(shí)現(xiàn)在在線教育平臺上的自適應(yīng)學(xué)習(xí)。然而在實(shí)際的工業(yè)數(shù)據(jù)中,情況較理想的數(shù)據(jù)集差別較大,數(shù)據(jù)的復(fù)雜性和稀疏性造成了模型學(xué)習(xí)的困難。本論文我們主要關(guān)注的是如何通過實(shí)際的學(xué)習(xí)行為數(shù)據(jù)對學(xué)生的學(xué)習(xí)效率進(jìn)行預(yù)測。通過特征工程處理包括學(xué)生基本信息,測驗(yàn)信息,課程視頻觀看信息以及論壇交互信息這四種主要的用戶信息,并通過在不同模型上的比較,提出在稀疏數(shù)據(jù)上較優(yōu)的模型,并且通過自然語言處理技術(shù)提升模型的預(yù)測準(zhǔn)確性,從而實(shí)現(xiàn)通過用戶數(shù)據(jù)反饋用戶的學(xué)習(xí)效率,為教師及學(xué)生提供相應(yīng)的教學(xué)和學(xué)習(xí)建議。我們比較了不同類別的特征對學(xué)習(xí)者學(xué)習(xí)效率的影響,最后得到了最優(yōu)模型測試準(zhǔn)確率為65.27%,同時還嘗試了對時序特征測驗(yàn)信息進(jìn)行校正,對文本特征進(jìn)...
【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
–1項(xiàng)目反應(yīng)理論
其中 稱為激活函數(shù),常見的激活函數(shù)有sigmoid tanh ReLU[27]。將多個的神經(jīng)元相互連接,就可以組成各種結(jié)構(gòu)的人工神經(jīng)網(wǎng)絡(luò)。一般的,神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2–2所示,主要分為三種神經(jīng)網(wǎng)絡(luò)層:輸入層,隱藏層和輸出層。圖 2–2 人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig 2–2 Artificial Neural Network神經(jīng)網(wǎng)絡(luò)常常需要在大量的數(shù)據(jù)上進(jìn)行訓(xùn)練,要訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)需要較為強(qiáng)大的學(xué)習(xí)算法,最經(jīng)典的是反向傳播算法(Back Propagation,簡稱 BP)[28]。由于神經(jīng)網(wǎng)絡(luò)的特性,常常容易過擬合,而正則化(Regularization)[29][30] 和隨機(jī)丟棄(Dropout)[31] 可以防止過擬合以提高模型泛化能力。由于經(jīng)典的全連接神經(jīng)網(wǎng)絡(luò)需要訓(xùn)練的參數(shù)較多,有些特殊結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)如卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱 CNN)[32
信息的聚合。然后我們統(tǒng)計(jì)每個學(xué)生的文本集對應(yīng)的統(tǒng)計(jì)特征,如內(nèi)容長度和帖子數(shù)量。細(xì)粒度的用戶特征向量具有 400 個特征。圖3–2描繪了隨機(jī)抽樣的 250 名學(xué)習(xí)者的歸一化測驗(yàn)特征向量。從圖中可以很容易地發(fā)現(xiàn),在線教育平臺的細(xì)粒度測驗(yàn)用戶特征向量的稀疏性是相當(dāng)普遍的。特征稀疏性在其他類型的特征中也是常見的情況。我們相信模型能夠捕捉所有這些特征之間的相互關(guān)系,而不論特征的稀疏性如何。圖 3–2 采樣了 250 名學(xué)生的測驗(yàn)特征向量的熱力圖。大多數(shù)特征向量包含少量有效特征。每列代表一個用戶測驗(yàn)特征向量Fig 3–2 The heatmap of sampled 250 students’test feature vectors. Most feature vectors contain few validfeatures. Each column represents a user test feature vector— 24 —
【參考文獻(xiàn)】:
期刊論文
[1]慕課發(fā)展及其對開放大學(xué)的啟示[J]. 殷丙山,李玉. 北京廣播電視大學(xué)學(xué)報. 2013(05)
本文編號:3331331
【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:63 頁
【學(xué)位級別】:碩士
【部分圖文】:
–1項(xiàng)目反應(yīng)理論
其中 稱為激活函數(shù),常見的激活函數(shù)有sigmoid tanh ReLU[27]。將多個的神經(jīng)元相互連接,就可以組成各種結(jié)構(gòu)的人工神經(jīng)網(wǎng)絡(luò)。一般的,神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2–2所示,主要分為三種神經(jīng)網(wǎng)絡(luò)層:輸入層,隱藏層和輸出層。圖 2–2 人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig 2–2 Artificial Neural Network神經(jīng)網(wǎng)絡(luò)常常需要在大量的數(shù)據(jù)上進(jìn)行訓(xùn)練,要訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)需要較為強(qiáng)大的學(xué)習(xí)算法,最經(jīng)典的是反向傳播算法(Back Propagation,簡稱 BP)[28]。由于神經(jīng)網(wǎng)絡(luò)的特性,常常容易過擬合,而正則化(Regularization)[29][30] 和隨機(jī)丟棄(Dropout)[31] 可以防止過擬合以提高模型泛化能力。由于經(jīng)典的全連接神經(jīng)網(wǎng)絡(luò)需要訓(xùn)練的參數(shù)較多,有些特殊結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)如卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱 CNN)[32
信息的聚合。然后我們統(tǒng)計(jì)每個學(xué)生的文本集對應(yīng)的統(tǒng)計(jì)特征,如內(nèi)容長度和帖子數(shù)量。細(xì)粒度的用戶特征向量具有 400 個特征。圖3–2描繪了隨機(jī)抽樣的 250 名學(xué)習(xí)者的歸一化測驗(yàn)特征向量。從圖中可以很容易地發(fā)現(xiàn),在線教育平臺的細(xì)粒度測驗(yàn)用戶特征向量的稀疏性是相當(dāng)普遍的。特征稀疏性在其他類型的特征中也是常見的情況。我們相信模型能夠捕捉所有這些特征之間的相互關(guān)系,而不論特征的稀疏性如何。圖 3–2 采樣了 250 名學(xué)生的測驗(yàn)特征向量的熱力圖。大多數(shù)特征向量包含少量有效特征。每列代表一個用戶測驗(yàn)特征向量Fig 3–2 The heatmap of sampled 250 students’test feature vectors. Most feature vectors contain few validfeatures. Each column represents a user test feature vector— 24 —
【參考文獻(xiàn)】:
期刊論文
[1]慕課發(fā)展及其對開放大學(xué)的啟示[J]. 殷丙山,李玉. 北京廣播電視大學(xué)學(xué)報. 2013(05)
本文編號:3331331
本文鏈接:http://sikaile.net/kejilunwen/zidonghuakongzhilunwen/3331331.html
最近更新
教材專著