智能無(wú)線通信技術(shù)研究概況
發(fā)布時(shí)間:2021-07-08 12:33
近年來(lái),人工智能技術(shù)已被應(yīng)用于無(wú)線通信領(lǐng)域,以解決傳統(tǒng)無(wú)線通信技術(shù)面對(duì)信息爆炸和萬(wàn)物互聯(lián)等新發(fā)展趨勢(shì)所遇到的瓶頸問(wèn)題。首先介紹深度學(xué)習(xí)、深度強(qiáng)化學(xué)習(xí)和聯(lián)邦學(xué)習(xí)三類具有代表性的人工智能技術(shù);然后通過(guò)對(duì)這三類技術(shù)在無(wú)線通信中的無(wú)線傳輸、頻譜管理、資源配置、網(wǎng)絡(luò)接入、網(wǎng)絡(luò)及系統(tǒng)優(yōu)化5個(gè)方面的應(yīng)用進(jìn)行綜述,分析和總結(jié)它們?cè)诮鉀Q無(wú)線通信問(wèn)題時(shí)的原理、適用性、設(shè)計(jì)方法和優(yōu)缺點(diǎn);最后圍繞存在的局限性指出智能無(wú)線通信技術(shù)的未來(lái)發(fā)展趨勢(shì)和研究方向,期望為無(wú)線通信領(lǐng)域的后續(xù)研究提供幫助和參考。
【文章來(lái)源】:通信學(xué)報(bào). 2020,41(07)北大核心EICSCD
【文章頁(yè)數(shù)】:17 頁(yè)
【部分圖文】:
DNN結(jié)構(gòu)
第7期梁應(yīng)敞等:智能無(wú)線通信技術(shù)研究概況·3·圖1DNN結(jié)構(gòu)圖2DNN中隱層1某神經(jīng)元的內(nèi)部結(jié)構(gòu)若給定DNN中的神經(jīng)元連接方式和權(quán)值,源數(shù)據(jù)通過(guò)輸入層進(jìn)入DNN后,經(jīng)過(guò)神經(jīng)元間的信息傳遞規(guī)則層層傳遞后在輸出端可以得到相應(yīng)的目標(biāo)數(shù)據(jù)預(yù)測(cè)值。這一過(guò)程稱為正向傳播。若此時(shí)訓(xùn)練數(shù)據(jù)集中有此源數(shù)據(jù)對(duì)應(yīng)的目標(biāo)數(shù)據(jù)真實(shí)值,那么DNN可以比對(duì)真實(shí)值與預(yù)測(cè)值間的誤差,并將誤差值從輸出層逐層向前傳遞,以此調(diào)整各個(gè)神經(jīng)元的權(quán)值,這一過(guò)程稱為誤差反向傳遞。在DL的訓(xùn)練階段,隨機(jī)梯度下降算法利用訓(xùn)練數(shù)據(jù)集反復(fù)進(jìn)行以上2個(gè)步驟,直至各神經(jīng)元的權(quán)值收斂,則DNN的訓(xùn)練結(jié)束。完成訓(xùn)練后的DNN可以有效地表征源數(shù)據(jù)和目標(biāo)數(shù)據(jù)間的關(guān)系,從而能根據(jù)未知的源數(shù)據(jù)預(yù)測(cè)其目標(biāo)數(shù)據(jù)值。值得注意的是,訓(xùn)練DNN僅能調(diào)整DNN中神經(jīng)元的權(quán)值,而不能改變神經(jīng)元的排列結(jié)構(gòu)和連接方式,即DNN的結(jié)構(gòu)。由圖1可知,源數(shù)據(jù)和目標(biāo)數(shù)據(jù)的維度決定了DNN的輸入層和輸出層,因此隱層的結(jié)構(gòu)決定了DNN的結(jié)構(gòu)。在圖1DNN的隱層中,所有的神經(jīng)元都相互連接,這樣的結(jié)構(gòu)稱為全連接層(fully-connectedlayer)。雖然全連接層是最簡(jiǎn)單的神經(jīng)元排列結(jié)構(gòu),但是它理論上可以捕捉數(shù)據(jù)間的所有特征。然而,采用全連接層會(huì)使權(quán)值的數(shù)量隨著神經(jīng)元個(gè)數(shù)的增加而呈指數(shù)上升,容易造成訓(xùn)練時(shí)間過(guò)長(zhǎng)、泛化能力差等問(wèn)題。因此,設(shè)計(jì)最優(yōu)的DNN需要根據(jù)數(shù)據(jù)的特征或任務(wù)特點(diǎn)采用合適的隱層。根據(jù)所采用的不同隱層結(jié)構(gòu),常見(jiàn)的DNN有卷積神經(jīng)網(wǎng)絡(luò)(CNN,convolutionalneuralnetwork)[5]、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN,recurrentneuralnetwork)[12]、長(zhǎng)短期記憶(LSTM,longshorttermmemory)[1
【參考文獻(xiàn)】:
期刊論文
[1]基于隨機(jī)博弈模型的網(wǎng)絡(luò)攻防量化分析方法[J]. 王元卓,林闖,程學(xué)旗,方濱興. 計(jì)算機(jī)學(xué)報(bào). 2010(09)
本文編號(hào):3271577
【文章來(lái)源】:通信學(xué)報(bào). 2020,41(07)北大核心EICSCD
【文章頁(yè)數(shù)】:17 頁(yè)
【部分圖文】:
DNN結(jié)構(gòu)
第7期梁應(yīng)敞等:智能無(wú)線通信技術(shù)研究概況·3·圖1DNN結(jié)構(gòu)圖2DNN中隱層1某神經(jīng)元的內(nèi)部結(jié)構(gòu)若給定DNN中的神經(jīng)元連接方式和權(quán)值,源數(shù)據(jù)通過(guò)輸入層進(jìn)入DNN后,經(jīng)過(guò)神經(jīng)元間的信息傳遞規(guī)則層層傳遞后在輸出端可以得到相應(yīng)的目標(biāo)數(shù)據(jù)預(yù)測(cè)值。這一過(guò)程稱為正向傳播。若此時(shí)訓(xùn)練數(shù)據(jù)集中有此源數(shù)據(jù)對(duì)應(yīng)的目標(biāo)數(shù)據(jù)真實(shí)值,那么DNN可以比對(duì)真實(shí)值與預(yù)測(cè)值間的誤差,并將誤差值從輸出層逐層向前傳遞,以此調(diào)整各個(gè)神經(jīng)元的權(quán)值,這一過(guò)程稱為誤差反向傳遞。在DL的訓(xùn)練階段,隨機(jī)梯度下降算法利用訓(xùn)練數(shù)據(jù)集反復(fù)進(jìn)行以上2個(gè)步驟,直至各神經(jīng)元的權(quán)值收斂,則DNN的訓(xùn)練結(jié)束。完成訓(xùn)練后的DNN可以有效地表征源數(shù)據(jù)和目標(biāo)數(shù)據(jù)間的關(guān)系,從而能根據(jù)未知的源數(shù)據(jù)預(yù)測(cè)其目標(biāo)數(shù)據(jù)值。值得注意的是,訓(xùn)練DNN僅能調(diào)整DNN中神經(jīng)元的權(quán)值,而不能改變神經(jīng)元的排列結(jié)構(gòu)和連接方式,即DNN的結(jié)構(gòu)。由圖1可知,源數(shù)據(jù)和目標(biāo)數(shù)據(jù)的維度決定了DNN的輸入層和輸出層,因此隱層的結(jié)構(gòu)決定了DNN的結(jié)構(gòu)。在圖1DNN的隱層中,所有的神經(jīng)元都相互連接,這樣的結(jié)構(gòu)稱為全連接層(fully-connectedlayer)。雖然全連接層是最簡(jiǎn)單的神經(jīng)元排列結(jié)構(gòu),但是它理論上可以捕捉數(shù)據(jù)間的所有特征。然而,采用全連接層會(huì)使權(quán)值的數(shù)量隨著神經(jīng)元個(gè)數(shù)的增加而呈指數(shù)上升,容易造成訓(xùn)練時(shí)間過(guò)長(zhǎng)、泛化能力差等問(wèn)題。因此,設(shè)計(jì)最優(yōu)的DNN需要根據(jù)數(shù)據(jù)的特征或任務(wù)特點(diǎn)采用合適的隱層。根據(jù)所采用的不同隱層結(jié)構(gòu),常見(jiàn)的DNN有卷積神經(jīng)網(wǎng)絡(luò)(CNN,convolutionalneuralnetwork)[5]、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN,recurrentneuralnetwork)[12]、長(zhǎng)短期記憶(LSTM,longshorttermmemory)[1
【參考文獻(xiàn)】:
期刊論文
[1]基于隨機(jī)博弈模型的網(wǎng)絡(luò)攻防量化分析方法[J]. 王元卓,林闖,程學(xué)旗,方濱興. 計(jì)算機(jī)學(xué)報(bào). 2010(09)
本文編號(hào):3271577
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3271577.html
最近更新
教材專著