面向時(shí)態(tài)規(guī)劃的動(dòng)作模型學(xué)習(xí)方法研究
發(fā)布時(shí)間:2020-12-31 02:50
時(shí)態(tài)動(dòng)作模型是從邏輯關(guān)系、時(shí)間關(guān)系和資源關(guān)系上對(duì)智能體改變環(huán)境的行為能力刻畫。手工建立動(dòng)作模型的方式需要建模專家的大量知識(shí)和細(xì)致觀察,耗時(shí)耗力。近年來(lái),以自動(dòng)化方式構(gòu)建動(dòng)作模型的建模輔助的方法成為智能規(guī)劃領(lǐng)域的研究熱點(diǎn)。在總結(jié)國(guó)內(nèi)外以STRIPS為表示語(yǔ)言進(jìn)行自動(dòng)化動(dòng)作模型構(gòu)建的基礎(chǔ)上,本文致力于設(shè)計(jì)以PDDL2.1為表示語(yǔ)言的自動(dòng)化動(dòng)作模型構(gòu)建方法。相對(duì)于STRIPS能表示的“經(jīng)典規(guī)劃”問(wèn)題,PDDL2.1語(yǔ)言能表示建模能力更強(qiáng)的“時(shí)態(tài)規(guī)劃”問(wèn)題,因而本文的工作有助于將動(dòng)作模型自動(dòng)構(gòu)建技術(shù)應(yīng)用于更復(fù)雜的現(xiàn)實(shí)環(huán)境。圍繞以PDDL2.1為表示語(yǔ)言的“時(shí)態(tài)動(dòng)作模型”自動(dòng)化構(gòu)建問(wèn)題,本文將其分解為“狀態(tài)分割”、“邏輯關(guān)系學(xué)習(xí)”、“動(dòng)作持續(xù)時(shí)間學(xué)習(xí)”、“時(shí)態(tài)關(guān)系學(xué)習(xí)”等階段,通過(guò)綜合各階段結(jié)果實(shí)現(xiàn)時(shí)態(tài)動(dòng)作模型的構(gòu)建。具體完成了以下四方面工作。(1)在“狀態(tài)分割”階段,分析了前人相關(guān)方法,運(yùn)用自然語(yǔ)言處理領(lǐng)域的“詞向量”技術(shù)提出了基于詞向量的狀態(tài)分割新方法,實(shí)現(xiàn)了狀態(tài)分割錯(cuò)誤率的降低。(2)在“動(dòng)作持續(xù)時(shí)間學(xué)習(xí)”階段,設(shè)計(jì)了“兩階段線性回歸”方法,實(shí)現(xiàn)了具有較低計(jì)算代價(jià)的動(dòng)作持續(xù)時(shí)間表達(dá)式擬合方...
【文章來(lái)源】:武漢工程大學(xué)湖北省
【文章頁(yè)數(shù)】:91 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
操作move的邏輯結(jié)構(gòu)和時(shí)態(tài)結(jié)構(gòu)
并且假設(shè)在動(dòng)作ia 之前的狀態(tài)是isj l ∈o,并且對(duì) k ( j<k<i)有l(wèi) o = 10(1kjmiSTRIPS 動(dòng)作模型學(xué)習(xí)框架如圖首先對(duì)原始 STRIPS 規(guī)劃跡樣本分割,得到命題文字所屬狀態(tài)。然構(gòu)建操作效果。接著提取動(dòng)作對(duì)應(yīng)前最后輸出完整的 STRIPS 動(dòng)作模型,
次提出了兩個(gè)模型 CBOW(Continuous Bag-of-Words Model)和 Skip-gram(Continuous Skip-gram Model),如圖 2.7。這兩個(gè)模型都只有三層,即,輸入層、映射層和輸出層。該文的實(shí)驗(yàn)結(jié)果顯示 Skip-gram 在語(yǔ)義(Semantic)上的性能要優(yōu)于 CBOW,但其計(jì)算速度要低于 CBOW。TomasMikolov 用遞歸神經(jīng)網(wǎng)絡(luò)擊敗了語(yǔ)言模型的世界紀(jì)錄,在一定程度上,詞向量模型揭示了單詞之間某些非線性的關(guān)系。例如,用“國(guó)王”減去“男人”加上“女人”,能得到“王后”。Word2vec 是在 2013 年由 Google 開發(fā)的一款將詞表征為實(shí)數(shù)值向量的高效工具。使用的是 Distributed Representation 的詞向量表示方式。利用深度學(xué)習(xí)思想,通過(guò)訓(xùn)練,將文本內(nèi)容簡(jiǎn)化為 k 維向量空間中的向量運(yùn)算。向量空間上的相似度可用來(lái)表示文本語(yǔ)義上的相似度。其中一個(gè)核心技術(shù)是根據(jù)詞頻用 Huffman 編碼,使得所有詞頻相似的詞隱藏層激活的內(nèi)容基本一致。出現(xiàn)頻率越高的詞語(yǔ),其激活的隱藏層數(shù)目越少,這樣有效降低了計(jì)算的復(fù)雜度。
本文編號(hào):2948806
【文章來(lái)源】:武漢工程大學(xué)湖北省
【文章頁(yè)數(shù)】:91 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
操作move的邏輯結(jié)構(gòu)和時(shí)態(tài)結(jié)構(gòu)
并且假設(shè)在動(dòng)作ia 之前的狀態(tài)是isj l ∈o,并且對(duì) k ( j<k<i)有l(wèi) o = 10(1kjmiSTRIPS 動(dòng)作模型學(xué)習(xí)框架如圖首先對(duì)原始 STRIPS 規(guī)劃跡樣本分割,得到命題文字所屬狀態(tài)。然構(gòu)建操作效果。接著提取動(dòng)作對(duì)應(yīng)前最后輸出完整的 STRIPS 動(dòng)作模型,
次提出了兩個(gè)模型 CBOW(Continuous Bag-of-Words Model)和 Skip-gram(Continuous Skip-gram Model),如圖 2.7。這兩個(gè)模型都只有三層,即,輸入層、映射層和輸出層。該文的實(shí)驗(yàn)結(jié)果顯示 Skip-gram 在語(yǔ)義(Semantic)上的性能要優(yōu)于 CBOW,但其計(jì)算速度要低于 CBOW。TomasMikolov 用遞歸神經(jīng)網(wǎng)絡(luò)擊敗了語(yǔ)言模型的世界紀(jì)錄,在一定程度上,詞向量模型揭示了單詞之間某些非線性的關(guān)系。例如,用“國(guó)王”減去“男人”加上“女人”,能得到“王后”。Word2vec 是在 2013 年由 Google 開發(fā)的一款將詞表征為實(shí)數(shù)值向量的高效工具。使用的是 Distributed Representation 的詞向量表示方式。利用深度學(xué)習(xí)思想,通過(guò)訓(xùn)練,將文本內(nèi)容簡(jiǎn)化為 k 維向量空間中的向量運(yùn)算。向量空間上的相似度可用來(lái)表示文本語(yǔ)義上的相似度。其中一個(gè)核心技術(shù)是根據(jù)詞頻用 Huffman 編碼,使得所有詞頻相似的詞隱藏層激活的內(nèi)容基本一致。出現(xiàn)頻率越高的詞語(yǔ),其激活的隱藏層數(shù)目越少,這樣有效降低了計(jì)算的復(fù)雜度。
本文編號(hào):2948806
本文鏈接:http://sikaile.net/kejilunwen/yysx/2948806.html
最近更新
教材專著