面向汽車領(lǐng)域的命名實體識別研究
發(fā)布時間:2023-02-14 16:33
隨著互聯(lián)網(wǎng)的飛速發(fā)展,結(jié)構(gòu)化和非結(jié)構(gòu)化的文本數(shù)據(jù)增長速度迅猛,如何從海量的文本數(shù)據(jù)中抽取有用信息已經(jīng)成為當前的研究重點。命名實體識別是信息抽取的子任務之一,是從無規(guī)則的非結(jié)構(gòu)化文本中抽取有用信息的底層技術(shù),命名實體識別的效果直接影響很多自然語言處理領(lǐng)域的任務,F(xiàn)代社會汽車已經(jīng)普及,從汽車文本數(shù)據(jù)中抽取命名實體信息也變得越來越重要。因此,面向汽車領(lǐng)域的命名實體識別研究具有重要的意義。近二十年來,以深度學習為首的人工智能再度成為時代的潮流。在自然語言處理領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN)逐漸成為主流方法,尤其是門控循環(huán)單元(Gated Recurrent Unit,GRU)的提出,能夠更好地捕捉時間序列中時間步距離較大的依賴關(guān)系,在自然語言處理領(lǐng)域得到了廣泛應用。隨著Attention機制在自然語言處理領(lǐng)域的成功運用,學術(shù)界已經(jīng)將Attention機制與深度學習巧妙地融合在一起,從而讓深度學習擁有了更加強大的特征抽取能力。本文首先重點介紹了命名實體識別的研究背景和重要意義,介紹了國外和國內(nèi)命名實體識別的研究現(xiàn)狀,并對中文命名實體識別過程中應用到的...
【文章頁數(shù)】:77 頁
【學位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 研究背景及意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 國外研究現(xiàn)狀
1.2.2 國內(nèi)研究現(xiàn)狀
1.3 本文的主要工作
1.4 本文組織結(jié)構(gòu)
第2章 相關(guān)技術(shù)與方法概述
2.1 詞匯語義表示
2.1.1 基于分布的表示方法
2.1.2 基于神經(jīng)網(wǎng)絡的表示方法
2.2 人工神經(jīng)網(wǎng)絡
2.3 文本去重
2.4 命名實體識別介紹
2.4.1 中文命名實體識別概述
2.4.2 汽車領(lǐng)域命名實體識別概述
2.5 相關(guān)工具
2.5.1 Py Torch
2.5.2 scrapy
2.5.3 YEDDA
2.6 本章小結(jié)
第3章 基于BLattice GRU的命名實體識別
3.1 深度神經(jīng)網(wǎng)絡
3.1.1 循環(huán)神經(jīng)網(wǎng)絡
3.1.2 特殊的循環(huán)神經(jīng)網(wǎng)絡
3.2 Lattice LSTM概述
3.3 構(gòu)建基于BLattice GRU的命名實體識別模型
3.3.1 模型結(jié)構(gòu)
3.3.2 BLattice GRU
3.3.3 加入Dropout
3.4 汽車領(lǐng)域命名實體標注數(shù)據(jù)集的構(gòu)建
3.4.1 汽車領(lǐng)域命名實體標注規(guī)范
3.4.2 原始語料爬取
3.4.3 數(shù)據(jù)預處理
3.4.4 數(shù)據(jù)集標注
3.4.5 構(gòu)建數(shù)據(jù)集
3.4.6 詞典構(gòu)建
3.5 實驗設計與結(jié)果分析
3.5.1 實驗環(huán)境
3.5.2 評測指標
3.5.3 不同參數(shù)下的實驗
3.5.4 與基線模型的對比實驗
3.6 本章小結(jié)
第4章 基于BLatticeGRU-Attention的命名實體識別
4.1 Attention機制
4.1.1 Attention機制概述
4.1.2 Scaled Dot-Product Attention
4.2 構(gòu)建基于BLatticeGRU-Attention的命名實體識別模型
4.2.1 模型結(jié)構(gòu)
4.2.2 Self-Attention子層
4.2.3 Feed-Forward子層
4.2.4 殘差連接
4.2.5 位置編碼
4.3 實驗結(jié)果分析
4.3.1 biword對結(jié)果的影響
4.3.2 Transformer層數(shù)對結(jié)果的影響
4.3.3 BLatticeGRU與BLatticeGRU-Attention模型的對比實驗
4.4 本章小結(jié)
第5章 基于BLatticeGRU-Attention-CRF的命名實體識別
5.1 條件隨機場
5.2 維特比算法
5.3 構(gòu)建基于BLatticeGRU-Attention-CRF的命名實體識別模型
5.4 實驗設計與結(jié)果分析
5.4.1 參數(shù)初始化
5.4.2 優(yōu)化算法
5.4.3 預訓練字向量對結(jié)果的影響
5.4.4 Dropout對結(jié)果的影響
5.4.5 不同模型的對比實驗
5.5 本章小結(jié)
第6章 總結(jié)與展望
6.1 工作總結(jié)
6.2 未來展望
參考文獻
作者簡介及在學期間所取得的科研成果
致謝
本文編號:3742622
【文章頁數(shù)】:77 頁
【學位級別】:碩士
【文章目錄】:
摘要
Abstract
第1章 緒論
1.1 研究背景及意義
1.2 國內(nèi)外研究現(xiàn)狀
1.2.1 國外研究現(xiàn)狀
1.2.2 國內(nèi)研究現(xiàn)狀
1.3 本文的主要工作
1.4 本文組織結(jié)構(gòu)
第2章 相關(guān)技術(shù)與方法概述
2.1 詞匯語義表示
2.1.1 基于分布的表示方法
2.1.2 基于神經(jīng)網(wǎng)絡的表示方法
2.2 人工神經(jīng)網(wǎng)絡
2.3 文本去重
2.4 命名實體識別介紹
2.4.1 中文命名實體識別概述
2.4.2 汽車領(lǐng)域命名實體識別概述
2.5 相關(guān)工具
2.5.1 Py Torch
2.5.2 scrapy
2.5.3 YEDDA
2.6 本章小結(jié)
第3章 基于BLattice GRU的命名實體識別
3.1 深度神經(jīng)網(wǎng)絡
3.1.1 循環(huán)神經(jīng)網(wǎng)絡
3.1.2 特殊的循環(huán)神經(jīng)網(wǎng)絡
3.2 Lattice LSTM概述
3.3 構(gòu)建基于BLattice GRU的命名實體識別模型
3.3.1 模型結(jié)構(gòu)
3.3.2 BLattice GRU
3.3.3 加入Dropout
3.4 汽車領(lǐng)域命名實體標注數(shù)據(jù)集的構(gòu)建
3.4.1 汽車領(lǐng)域命名實體標注規(guī)范
3.4.2 原始語料爬取
3.4.3 數(shù)據(jù)預處理
3.4.4 數(shù)據(jù)集標注
3.4.5 構(gòu)建數(shù)據(jù)集
3.4.6 詞典構(gòu)建
3.5 實驗設計與結(jié)果分析
3.5.1 實驗環(huán)境
3.5.2 評測指標
3.5.3 不同參數(shù)下的實驗
3.5.4 與基線模型的對比實驗
3.6 本章小結(jié)
第4章 基于BLatticeGRU-Attention的命名實體識別
4.1 Attention機制
4.1.1 Attention機制概述
4.1.2 Scaled Dot-Product Attention
4.2 構(gòu)建基于BLatticeGRU-Attention的命名實體識別模型
4.2.1 模型結(jié)構(gòu)
4.2.2 Self-Attention子層
4.2.3 Feed-Forward子層
4.2.4 殘差連接
4.2.5 位置編碼
4.3 實驗結(jié)果分析
4.3.1 biword對結(jié)果的影響
4.3.2 Transformer層數(shù)對結(jié)果的影響
4.3.3 BLatticeGRU與BLatticeGRU-Attention模型的對比實驗
4.4 本章小結(jié)
第5章 基于BLatticeGRU-Attention-CRF的命名實體識別
5.1 條件隨機場
5.2 維特比算法
5.3 構(gòu)建基于BLatticeGRU-Attention-CRF的命名實體識別模型
5.4 實驗設計與結(jié)果分析
5.4.1 參數(shù)初始化
5.4.2 優(yōu)化算法
5.4.3 預訓練字向量對結(jié)果的影響
5.4.4 Dropout對結(jié)果的影響
5.4.5 不同模型的對比實驗
5.5 本章小結(jié)
第6章 總結(jié)與展望
6.1 工作總結(jié)
6.2 未來展望
參考文獻
作者簡介及在學期間所取得的科研成果
致謝
本文編號:3742622
本文鏈接:http://sikaile.net/kejilunwen/shengwushengchang/3742622.html
最近更新
教材專著