文章內(nèi)容低質(zhì)量審核系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
發(fā)布時(shí)間:2022-01-04 12:17
隨著移動(dòng)互聯(lián)網(wǎng)技術(shù)的日趨成熟,網(wǎng)絡(luò)自媒體平臺(tái)迎來(lái)發(fā)展熱潮。用戶對(duì)于資訊信息需求的不斷提高促使網(wǎng)絡(luò)自媒體平臺(tái)呈現(xiàn)多樣化發(fā)展,從單純地發(fā)布新聞資訊擴(kuò)展到提供生活、娛樂(lè)、社會(huì)、財(cái)經(jīng)等各方面內(nèi)容。相比于傳統(tǒng)媒體,網(wǎng)絡(luò)自媒體平臺(tái)具有較高的自主性,言論尺度相對(duì)寬松。與此同時(shí),由于自媒體平臺(tái)的進(jìn)入門檻較低,導(dǎo)致其中的文章良莠不齊。若不能對(duì)文章進(jìn)行有效篩選,很可能造成錯(cuò)誤的輿論導(dǎo)向。對(duì)待發(fā)布文章進(jìn)行內(nèi)容審核,剔除其中包含低質(zhì)量信息的文章,以確保營(yíng)造積極向上的閱讀環(huán)境是目前各網(wǎng)絡(luò)自媒體平臺(tái)面臨的關(guān)鍵問(wèn)題。然而,在當(dāng)下的信息爆炸時(shí)代,每天產(chǎn)生的資訊文章可達(dá)百萬(wàn)篇。顯然,采用傳統(tǒng)的人工審核方式不僅產(chǎn)生的人力資源成本較高,而且無(wú)法在保證信息時(shí)效性的同時(shí)達(dá)到較為理想的效果。因此,采用機(jī)器審核的手段對(duì)文章進(jìn)行檢測(cè)是解決上述問(wèn)題的關(guān)鍵方法。本文設(shè)計(jì)的文章內(nèi)容低質(zhì)量審核系統(tǒng)采用機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的相關(guān)算法對(duì)文章進(jìn)行審核。從文章的文字內(nèi)容和圖像內(nèi)容著手,去檢測(cè)文章是否符合規(guī)定。作者獨(dú)立設(shè)計(jì)并完成了以下三個(gè)模塊:(1)政治敏感審核模塊提供對(duì)文章政治敏感程度的識(shí)別。比如文章內(nèi)如含有描述危害國(guó)家社會(huì)安全穩(wěn)定的內(nèi)容時(shí),則會(huì)被識(shí)...
【文章來(lái)源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:88 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1對(duì)數(shù)幾率回歸函數(shù)圖??Figure?2-1?Logarithmic?Probability?Regression?Function?Diagram??
Figure?2-2?Convolution?operation?example??卷積運(yùn)算通過(guò)局部感知,參數(shù)共享來(lái)幫助改善神經(jīng)網(wǎng)絡(luò)。??局部感知:從計(jì)算角度來(lái)說(shuō),相對(duì)較小的圖像從整篇圖像種計(jì)算特征是可行的是如果更大的圖像將變得非常耗時(shí),而解決的方法就是對(duì)隱含單元和輸入單的連接加以限制:每個(gè)隱含單元僅僅只能連接輸入單元的一部分,也就是說(shuō)每
因?yàn)樗鼧O大的減少了需要學(xué)習(xí)的自由變量的個(gè)數(shù)。通過(guò)控制模型的規(guī)??模,卷積網(wǎng)絡(luò)對(duì)視覺(jué)問(wèn)題可以具有很好的泛化能力。??(2)池化??池化函數(shù)使用某一位置相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該位置的輸出,??例如最大池化函數(shù)給出相鄰矩形區(qū)域內(nèi)的最大值。當(dāng)不管采用什么樣的池化函數(shù),??當(dāng)輸入做出少量平移時(shí),池化能夠幫助輸入的表示近似不變。平移的不變性就是指??我們對(duì)輸入進(jìn)行少量平移時(shí),經(jīng)過(guò)池化函數(shù)后大多數(shù)的輸出也不會(huì)改變。使用池化??可以看作增加了一個(gè)無(wú)限強(qiáng)的先驗(yàn):這一層學(xué)得的函數(shù)必須具有相對(duì)少量平移的??不變性,當(dāng)這個(gè)假設(shè)成立時(shí),池化可以極大地提高網(wǎng)絡(luò)的統(tǒng)計(jì)效率。??通過(guò)應(yīng)用卷積神經(jīng)網(wǎng)絡(luò),可以很好的對(duì)圖像進(jìn)行分類。??2.2.2循環(huán)神經(jīng)網(wǎng)絡(luò)??循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent?neural?network)簡(jiǎn)稱RNN,它是一■類用于處理序列??數(shù)據(jù)(例如從1到T時(shí)刻;cWxW的數(shù)據(jù))的神經(jīng)網(wǎng)絡(luò)模型,且在序列的演進(jìn)方??向進(jìn)行遞歸,所有的循環(huán)單元是按鏈?zhǔn)竭B接的M。??
【參考文獻(xiàn)】:
期刊論文
[1]大數(shù)據(jù)時(shí)代資訊類App的發(fā)展現(xiàn)狀、問(wèn)題和改進(jìn)策略——以今日頭條為例[J]. 張琳,史靖鈺,王心怡. 新媒體研究. 2018(18)
[2]基于深度學(xué)習(xí)的文本分類研究進(jìn)展[J]. 劉婷婷,朱文東,劉廣一. 電力信息與通信技術(shù). 2018(03)
[3]新一代人工智能發(fā)展規(guī)劃[J]. 科技創(chuàng)新與生產(chǎn)力. 2017(08)
[4]Where Does AlphaGo Go: From Church-Turing Thesis to AlphaGo Thesis and Beyond[J]. Fei-Yue Wang,Jun Jason Zhang,Xinhu Zheng,Xiao Wang,Yong Yuan,Xiaoxiao Dai,Jie Zhang,Liuqing Yang. IEEE/CAA Journal of Automatica Sinica. 2016(02)
[5]深度學(xué)習(xí)研究進(jìn)展[J]. 郭麗麗,丁世飛. 計(jì)算機(jī)科學(xué). 2015(05)
[6]基于改進(jìn)TFIDF算法的文本分類研究[J]. 鄭霖,徐德華. 計(jì)算機(jī)與現(xiàn)代化. 2014(09)
[7]遷移學(xué)習(xí)研究進(jìn)展[J]. 莊福振,羅平,何清,史忠植. 軟件學(xué)報(bào). 2015(01)
[8]TFIDF算法研究綜述[J]. 施聰鶯,徐朝軍,楊曉江. 計(jì)算機(jī)應(yīng)用. 2009(S1)
[9]淺析“自媒體”的特點(diǎn)[J]. 張瑩. 科教文匯(中旬刊). 2008(02)
[10]基于機(jī)器學(xué)習(xí)的文本分類技術(shù)研究進(jìn)展[J]. 蘇金樹,張博鋒,徐昕. 軟件學(xué)報(bào). 2006(09)
本文編號(hào):3568322
【文章來(lái)源】:北京交通大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:88 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1對(duì)數(shù)幾率回歸函數(shù)圖??Figure?2-1?Logarithmic?Probability?Regression?Function?Diagram??
Figure?2-2?Convolution?operation?example??卷積運(yùn)算通過(guò)局部感知,參數(shù)共享來(lái)幫助改善神經(jīng)網(wǎng)絡(luò)。??局部感知:從計(jì)算角度來(lái)說(shuō),相對(duì)較小的圖像從整篇圖像種計(jì)算特征是可行的是如果更大的圖像將變得非常耗時(shí),而解決的方法就是對(duì)隱含單元和輸入單的連接加以限制:每個(gè)隱含單元僅僅只能連接輸入單元的一部分,也就是說(shuō)每
因?yàn)樗鼧O大的減少了需要學(xué)習(xí)的自由變量的個(gè)數(shù)。通過(guò)控制模型的規(guī)??模,卷積網(wǎng)絡(luò)對(duì)視覺(jué)問(wèn)題可以具有很好的泛化能力。??(2)池化??池化函數(shù)使用某一位置相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該位置的輸出,??例如最大池化函數(shù)給出相鄰矩形區(qū)域內(nèi)的最大值。當(dāng)不管采用什么樣的池化函數(shù),??當(dāng)輸入做出少量平移時(shí),池化能夠幫助輸入的表示近似不變。平移的不變性就是指??我們對(duì)輸入進(jìn)行少量平移時(shí),經(jīng)過(guò)池化函數(shù)后大多數(shù)的輸出也不會(huì)改變。使用池化??可以看作增加了一個(gè)無(wú)限強(qiáng)的先驗(yàn):這一層學(xué)得的函數(shù)必須具有相對(duì)少量平移的??不變性,當(dāng)這個(gè)假設(shè)成立時(shí),池化可以極大地提高網(wǎng)絡(luò)的統(tǒng)計(jì)效率。??通過(guò)應(yīng)用卷積神經(jīng)網(wǎng)絡(luò),可以很好的對(duì)圖像進(jìn)行分類。??2.2.2循環(huán)神經(jīng)網(wǎng)絡(luò)??循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent?neural?network)簡(jiǎn)稱RNN,它是一■類用于處理序列??數(shù)據(jù)(例如從1到T時(shí)刻;cWxW的數(shù)據(jù))的神經(jīng)網(wǎng)絡(luò)模型,且在序列的演進(jìn)方??向進(jìn)行遞歸,所有的循環(huán)單元是按鏈?zhǔn)竭B接的M。??
【參考文獻(xiàn)】:
期刊論文
[1]大數(shù)據(jù)時(shí)代資訊類App的發(fā)展現(xiàn)狀、問(wèn)題和改進(jìn)策略——以今日頭條為例[J]. 張琳,史靖鈺,王心怡. 新媒體研究. 2018(18)
[2]基于深度學(xué)習(xí)的文本分類研究進(jìn)展[J]. 劉婷婷,朱文東,劉廣一. 電力信息與通信技術(shù). 2018(03)
[3]新一代人工智能發(fā)展規(guī)劃[J]. 科技創(chuàng)新與生產(chǎn)力. 2017(08)
[4]Where Does AlphaGo Go: From Church-Turing Thesis to AlphaGo Thesis and Beyond[J]. Fei-Yue Wang,Jun Jason Zhang,Xinhu Zheng,Xiao Wang,Yong Yuan,Xiaoxiao Dai,Jie Zhang,Liuqing Yang. IEEE/CAA Journal of Automatica Sinica. 2016(02)
[5]深度學(xué)習(xí)研究進(jìn)展[J]. 郭麗麗,丁世飛. 計(jì)算機(jī)科學(xué). 2015(05)
[6]基于改進(jìn)TFIDF算法的文本分類研究[J]. 鄭霖,徐德華. 計(jì)算機(jī)與現(xiàn)代化. 2014(09)
[7]遷移學(xué)習(xí)研究進(jìn)展[J]. 莊福振,羅平,何清,史忠植. 軟件學(xué)報(bào). 2015(01)
[8]TFIDF算法研究綜述[J]. 施聰鶯,徐朝軍,楊曉江. 計(jì)算機(jī)應(yīng)用. 2009(S1)
[9]淺析“自媒體”的特點(diǎn)[J]. 張瑩. 科教文匯(中旬刊). 2008(02)
[10]基于機(jī)器學(xué)習(xí)的文本分類技術(shù)研究進(jìn)展[J]. 蘇金樹,張博鋒,徐昕. 軟件學(xué)報(bào). 2006(09)
本文編號(hào):3568322
本文鏈接:http://sikaile.net/guanlilunwen/yingxiaoguanlilunwen/3568322.html
最近更新
教材專著