面向時態(tài)規(guī)劃的動作模型學(xué)習(xí)方法研究
發(fā)布時間:2020-12-31 02:50
時態(tài)動作模型是從邏輯關(guān)系、時間關(guān)系和資源關(guān)系上對智能體改變環(huán)境的行為能力刻畫。手工建立動作模型的方式需要建模專家的大量知識和細致觀察,耗時耗力。近年來,以自動化方式構(gòu)建動作模型的建模輔助的方法成為智能規(guī)劃領(lǐng)域的研究熱點。在總結(jié)國內(nèi)外以STRIPS為表示語言進行自動化動作模型構(gòu)建的基礎(chǔ)上,本文致力于設(shè)計以PDDL2.1為表示語言的自動化動作模型構(gòu)建方法。相對于STRIPS能表示的“經(jīng)典規(guī)劃”問題,PDDL2.1語言能表示建模能力更強的“時態(tài)規(guī)劃”問題,因而本文的工作有助于將動作模型自動構(gòu)建技術(shù)應(yīng)用于更復(fù)雜的現(xiàn)實環(huán)境。圍繞以PDDL2.1為表示語言的“時態(tài)動作模型”自動化構(gòu)建問題,本文將其分解為“狀態(tài)分割”、“邏輯關(guān)系學(xué)習(xí)”、“動作持續(xù)時間學(xué)習(xí)”、“時態(tài)關(guān)系學(xué)習(xí)”等階段,通過綜合各階段結(jié)果實現(xiàn)時態(tài)動作模型的構(gòu)建。具體完成了以下四方面工作。(1)在“狀態(tài)分割”階段,分析了前人相關(guān)方法,運用自然語言處理領(lǐng)域的“詞向量”技術(shù)提出了基于詞向量的狀態(tài)分割新方法,實現(xiàn)了狀態(tài)分割錯誤率的降低。(2)在“動作持續(xù)時間學(xué)習(xí)”階段,設(shè)計了“兩階段線性回歸”方法,實現(xiàn)了具有較低計算代價的動作持續(xù)時間表達式擬合方...
【文章來源】:武漢工程大學(xué)湖北省
【文章頁數(shù)】:91 頁
【學(xué)位級別】:碩士
【部分圖文】:
操作move的邏輯結(jié)構(gòu)和時態(tài)結(jié)構(gòu)
并且假設(shè)在動作ia 之前的狀態(tài)是isj l ∈o,并且對 k ( j<k<i)有l(wèi) o = 10(1kjmiSTRIPS 動作模型學(xué)習(xí)框架如圖首先對原始 STRIPS 規(guī)劃跡樣本分割,得到命題文字所屬狀態(tài)。然構(gòu)建操作效果。接著提取動作對應(yīng)前最后輸出完整的 STRIPS 動作模型,
次提出了兩個模型 CBOW(Continuous Bag-of-Words Model)和 Skip-gram(Continuous Skip-gram Model),如圖 2.7。這兩個模型都只有三層,即,輸入層、映射層和輸出層。該文的實驗結(jié)果顯示 Skip-gram 在語義(Semantic)上的性能要優(yōu)于 CBOW,但其計算速度要低于 CBOW。TomasMikolov 用遞歸神經(jīng)網(wǎng)絡(luò)擊敗了語言模型的世界紀錄,在一定程度上,詞向量模型揭示了單詞之間某些非線性的關(guān)系。例如,用“國王”減去“男人”加上“女人”,能得到“王后”。Word2vec 是在 2013 年由 Google 開發(fā)的一款將詞表征為實數(shù)值向量的高效工具。使用的是 Distributed Representation 的詞向量表示方式。利用深度學(xué)習(xí)思想,通過訓(xùn)練,將文本內(nèi)容簡化為 k 維向量空間中的向量運算。向量空間上的相似度可用來表示文本語義上的相似度。其中一個核心技術(shù)是根據(jù)詞頻用 Huffman 編碼,使得所有詞頻相似的詞隱藏層激活的內(nèi)容基本一致。出現(xiàn)頻率越高的詞語,其激活的隱藏層數(shù)目越少,這樣有效降低了計算的復(fù)雜度。
本文編號:2948806
【文章來源】:武漢工程大學(xué)湖北省
【文章頁數(shù)】:91 頁
【學(xué)位級別】:碩士
【部分圖文】:
操作move的邏輯結(jié)構(gòu)和時態(tài)結(jié)構(gòu)
并且假設(shè)在動作ia 之前的狀態(tài)是isj l ∈o,并且對 k ( j<k<i)有l(wèi) o = 10(1kjmiSTRIPS 動作模型學(xué)習(xí)框架如圖首先對原始 STRIPS 規(guī)劃跡樣本分割,得到命題文字所屬狀態(tài)。然構(gòu)建操作效果。接著提取動作對應(yīng)前最后輸出完整的 STRIPS 動作模型,
次提出了兩個模型 CBOW(Continuous Bag-of-Words Model)和 Skip-gram(Continuous Skip-gram Model),如圖 2.7。這兩個模型都只有三層,即,輸入層、映射層和輸出層。該文的實驗結(jié)果顯示 Skip-gram 在語義(Semantic)上的性能要優(yōu)于 CBOW,但其計算速度要低于 CBOW。TomasMikolov 用遞歸神經(jīng)網(wǎng)絡(luò)擊敗了語言模型的世界紀錄,在一定程度上,詞向量模型揭示了單詞之間某些非線性的關(guān)系。例如,用“國王”減去“男人”加上“女人”,能得到“王后”。Word2vec 是在 2013 年由 Google 開發(fā)的一款將詞表征為實數(shù)值向量的高效工具。使用的是 Distributed Representation 的詞向量表示方式。利用深度學(xué)習(xí)思想,通過訓(xùn)練,將文本內(nèi)容簡化為 k 維向量空間中的向量運算。向量空間上的相似度可用來表示文本語義上的相似度。其中一個核心技術(shù)是根據(jù)詞頻用 Huffman 編碼,使得所有詞頻相似的詞隱藏層激活的內(nèi)容基本一致。出現(xiàn)頻率越高的詞語,其激活的隱藏層數(shù)目越少,這樣有效降低了計算的復(fù)雜度。
本文編號:2948806
本文鏈接:http://sikaile.net/kejilunwen/yysx/2948806.html
最近更新
教材專著