星地融合網(wǎng)絡(luò)中基于Q學(xué)習(xí)的切換算法研究
本文關(guān)鍵詞:星地融合網(wǎng)絡(luò)中基于Q學(xué)習(xí)的切換算法研究
更多相關(guān)文章: 切換 MSS-ATC RSS預(yù)測 Q學(xué)習(xí)
【摘要】:基于地面輔助基站(ATC)的星地融合網(wǎng)絡(luò)(MSS-ATC)具有覆蓋范圍廣、用戶體驗佳的特點,切換機制是該融合網(wǎng)絡(luò)主要研究的問題之一。針對衛(wèi)星鏈路時延大、衛(wèi)星網(wǎng)用戶速度范圍廣的特點,綜合考慮了用戶接收信號強度(RSS)和用戶運動速度,提出了一種基于卡爾曼濾波和Q學(xué)習(xí)的切換決策算法。比較了所提算法與傳統(tǒng)算法在鏈路衰減率、切換次數(shù)和網(wǎng)絡(luò)收益的性能,實驗結(jié)果表明所提算法在性能上得到了很大的提升,并且能很好地適應(yīng)高速運動狀態(tài)。
【作者單位】: 北京郵電大學(xué)泛網(wǎng)無線通信教育部重點實驗室;
【分類號】:TN927.2
【正文快照】: 1引言移動衛(wèi)星通信系統(tǒng)具有頑健性強、覆蓋范圍廣的特點,廣泛應(yīng)用于應(yīng)急通信服務(wù)[1]。由于衛(wèi)星通信鏈路依賴于視距傳輸,為減少陰影物阻擋的影響,星地融合網(wǎng)絡(luò)成為近年來研究的熱點[2]。地面輔助基站(ATC,ancillary terrestrial component)作為通信系統(tǒng)輔助,被廣泛應(yīng)用于星地融
【共引文獻】
中國期刊全文數(shù)據(jù)庫 前10條
1 張冬梅;劉強;;一種基于強化學(xué)習(xí)的傳感器網(wǎng)絡(luò)應(yīng)用重構(gòu)決策方法[J];北京交通大學(xué)學(xué)報;2010年03期
2 楊萍;畢義明;孫淑玲;;具有自主決策能力的機動單元智能體研究[J];兵工學(xué)報;2007年11期
3 趙曉華;李振龍;于泉;張杰;;基于切換模型的兩交叉口信號燈Q學(xué)習(xí)協(xié)調(diào)控制[J];北京工業(yè)大學(xué)學(xué)報;2007年11期
4 孫若瑩;李忱;趙剛;;基于強化學(xué)習(xí)的牛鞭效應(yīng)對策模型[J];北京信息科技大學(xué)學(xué)報(自然科學(xué)版);2011年01期
5 王華;崔曉婷;劉向東;張宇河;;基于Q-學(xué)習(xí)的衛(wèi)星姿態(tài)在線模糊神經(jīng)網(wǎng)絡(luò)控制[J];北京理工大學(xué)學(xué)報;2006年03期
6 畢金波,吳滄浦;有效的自適應(yīng)λ即時差異學(xué)習(xí)(英文)[J];Journal of Beijing Institute of Technology(English Edition);1999年03期
7 童亮;陸際聯(lián);;Multi-Agent Reinforcement Learning Algorithm Based on Action Prediction[J];Journal of Beijing Institute of Technology(English Edition);2006年02期
8 吳洪巖;劉淑華;張崳;;基于RBFNN的強化學(xué)習(xí)在機器人導(dǎo)航中的應(yīng)用[J];吉林大學(xué)學(xué)報(信息科學(xué)版);2009年02期
9 楊銀賢;Multi-agent reinforcement learning using modular neural network Q-learning algorithms[J];Journal of Chongqing University;2005年01期
10 楊東,殷萇茗,陳煥文,吳柏森;基于Q-學(xué)習(xí)的非線性控制[J];長沙電力學(xué)院學(xué)報(自然科學(xué)版);2003年01期
中國重要會議論文全文數(shù)據(jù)庫 前10條
1 毛劍琳;向鳳紅;馮麗輝;;一種改進的IEEE802.15.4自適應(yīng)實時帶寬分配策略[A];第二十七屆中國控制會議論文集[C];2008年
2 馬麗;劉惟一;;多個交通路口調(diào)度博弈模型及其均衡求解的增強學(xué)習(xí)算法[A];第二十七屆中國控制會議論文集[C];2008年
3 ;Complexity Analysis of Quantum Reinforcement Learning[A];第二十九屆中國控制會議論文集[C];2010年
4 樸松昊;洪炳熔;褚海濤;;基于BDI的多Agent協(xié)作模型研究[A];2003中國控制與決策學(xué)術(shù)年會論文集[C];2003年
5 劉長有;孫光余;;一種應(yīng)用Elman型回歸網(wǎng)絡(luò)的Q-學(xué)習(xí)[A];2004中國控制與決策學(xué)術(shù)年會論文集[C];2004年
6 鄒亮;徐建閩;;基于Q-learning的電子地圖動態(tài)最短路徑求解方法[A];2005中國控制與決策學(xué)術(shù)年會論文集(下)[C];2005年
7 ;Hybrid Q-learning Algorithm About Cooperation in MAS[A];2009中國控制與決策會議論文集(3)[C];2009年
8 ;An Adaptive Inventory Control for a Supply Chain[A];2009中國控制與決策會議論文集(3)[C];2009年
9 謝志華;鄭應(yīng)平;;基于再勵學(xué)習(xí)的排隊系統(tǒng)優(yōu)化控制[A];1995年中國控制會議論文集(下)[C];1995年
10 Meng Joo Er;;Modeling and Fuzzy Q-Learning Control of Biped Walking[A];第二十四屆中國控制會議論文集(上冊)[C];2005年
中國博士學(xué)位論文全文數(shù)據(jù)庫 前10條
1 王作為;具有認知能力的智能機器人行為學(xué)習(xí)方法研究[D];哈爾濱工程大學(xué);2010年
2 高延增;超小型水下機器人關(guān)鍵性能提升技術(shù)研究[D];華南理工大學(xué);2010年
3 黃正行;臨床過程分析與優(yōu)化技術(shù)研究[D];浙江大學(xué);2010年
4 林龍信;仿生水下機器人的增強學(xué)習(xí)控制方法研究[D];國防科學(xué)技術(shù)大學(xué);2010年
5 馮奇;POMDP近似解法研究及在中醫(yī)診療方案優(yōu)化中的應(yīng)用[D];北京交通大學(xué);2011年
6 孫祥;大學(xué)生就業(yè)區(qū)域流向及引導(dǎo)策略研究[D];合肥工業(yè)大學(xué);2011年
7 陳學(xué)松;強化學(xué)習(xí)及其在機器人系統(tǒng)中的應(yīng)用研究[D];廣東工業(yè)大學(xué);2011年
8 李s,
本文編號:1195593
本文鏈接:http://sikaile.net/kejilunwen/wltx/1195593.html