無(wú)線通信中的邊緣智能
發(fā)布時(shí)間:2021-06-06 07:42
本文綜述了機(jī)器學(xué)習(xí)(Machine learning, ML)在無(wú)線邊緣網(wǎng)絡(luò)的主要應(yīng)用、典型學(xué)習(xí)方法、以及性能潛力。首先分析了無(wú)線邊緣智能與傳統(tǒng)人工智能的區(qū)別。而后討論了兩種降低訓(xùn)練ML復(fù)雜度的思路,一種是從學(xué)習(xí)方法角度研究知識(shí)與數(shù)據(jù)聯(lián)合驅(qū)動(dòng)的ML,另一種是從無(wú)線系統(tǒng)角度設(shè)計(jì)合適的訓(xùn)練和決策方法,分析了集中式?jīng)Q策和分布式?jīng)Q策、集中式訓(xùn)練和分布式訓(xùn)練的優(yōu)缺點(diǎn)。進(jìn)一步介紹了聯(lián)邦學(xué)習(xí)在無(wú)線邊緣網(wǎng)絡(luò)中的應(yīng)用現(xiàn)狀和適用場(chǎng)景,總結(jié)了在降低通信開銷和個(gè)性化學(xué)習(xí)方面的研究進(jìn)展與存在的問(wèn)題。最后對(duì)全文進(jìn)行了總結(jié)。
【文章來(lái)源】:信號(hào)處理. 2020,36(11)北大核心CSCD
【文章頁(yè)數(shù)】:15 頁(yè)
【部分圖文】:
無(wú)線邊緣智能的網(wǎng)絡(luò)架構(gòu)
現(xiàn)有研究已經(jīng)表明了聯(lián)邦學(xué)習(xí)用于無(wú)線邊緣網(wǎng)絡(luò)中的潛力,下面討論在哪些應(yīng)用場(chǎng)景能采用聯(lián)邦學(xué)習(xí)來(lái)訓(xùn)練。如圖4所示,在應(yīng)用聯(lián)邦學(xué)習(xí)之前需要考慮以下三個(gè)問(wèn)題:邊緣節(jié)點(diǎn)是否有數(shù)據(jù)?訓(xùn)練數(shù)據(jù)是否涉及隱私?分布式訓(xùn)練是否有優(yōu)勢(shì)?1)邊緣節(jié)點(diǎn)是否有數(shù)據(jù)
分布式訓(xùn)練、分布式?jīng)Q策:在集中式訓(xùn)練過(guò)程中,上傳數(shù)據(jù)不僅有泄露用戶隱私的風(fēng)險(xiǎn),還將產(chǎn)生額外的通信開銷。由于這些數(shù)據(jù)只在訓(xùn)練階段使用,人們開始反思是否有必要把這種只用一次又十分敏感的數(shù)據(jù)從邊緣節(jié)點(diǎn)“搬運(yùn)”到中心節(jié)點(diǎn)[6]。文獻(xiàn)[31]提出的聯(lián)邦學(xué)習(xí)提供了一種分布式訓(xùn)練框架。如圖3(c)所示,每個(gè)邊緣節(jié)點(diǎn)根據(jù)本地?cái)?shù)據(jù)訓(xùn)練局部模型,再把局部模型的參數(shù)或梯度上傳給中心節(jié)點(diǎn);中心節(jié)點(diǎn)合并所有邊緣節(jié)點(diǎn)的局部模型得到全局模型,并把全局模型下發(fā)給邊緣節(jié)點(diǎn)進(jìn)行下一輪學(xué)習(xí)。通過(guò)在邊緣節(jié)點(diǎn)和中心節(jié)點(diǎn)之間進(jìn)行多輪次的通信和迭代,全局模型可以達(dá)到與集中式訓(xùn)練相近的性能[32]。在學(xué)習(xí)過(guò)程中數(shù)據(jù)始終保存在本地,保障了邊緣節(jié)點(diǎn)的數(shù)據(jù)隱私和安全。集中式訓(xùn)練和分布式訓(xùn)練方式主要在以下幾方面有所不同:
本文編號(hào):3213922
【文章來(lái)源】:信號(hào)處理. 2020,36(11)北大核心CSCD
【文章頁(yè)數(shù)】:15 頁(yè)
【部分圖文】:
無(wú)線邊緣智能的網(wǎng)絡(luò)架構(gòu)
現(xiàn)有研究已經(jīng)表明了聯(lián)邦學(xué)習(xí)用于無(wú)線邊緣網(wǎng)絡(luò)中的潛力,下面討論在哪些應(yīng)用場(chǎng)景能采用聯(lián)邦學(xué)習(xí)來(lái)訓(xùn)練。如圖4所示,在應(yīng)用聯(lián)邦學(xué)習(xí)之前需要考慮以下三個(gè)問(wèn)題:邊緣節(jié)點(diǎn)是否有數(shù)據(jù)?訓(xùn)練數(shù)據(jù)是否涉及隱私?分布式訓(xùn)練是否有優(yōu)勢(shì)?1)邊緣節(jié)點(diǎn)是否有數(shù)據(jù)
分布式訓(xùn)練、分布式?jīng)Q策:在集中式訓(xùn)練過(guò)程中,上傳數(shù)據(jù)不僅有泄露用戶隱私的風(fēng)險(xiǎn),還將產(chǎn)生額外的通信開銷。由于這些數(shù)據(jù)只在訓(xùn)練階段使用,人們開始反思是否有必要把這種只用一次又十分敏感的數(shù)據(jù)從邊緣節(jié)點(diǎn)“搬運(yùn)”到中心節(jié)點(diǎn)[6]。文獻(xiàn)[31]提出的聯(lián)邦學(xué)習(xí)提供了一種分布式訓(xùn)練框架。如圖3(c)所示,每個(gè)邊緣節(jié)點(diǎn)根據(jù)本地?cái)?shù)據(jù)訓(xùn)練局部模型,再把局部模型的參數(shù)或梯度上傳給中心節(jié)點(diǎn);中心節(jié)點(diǎn)合并所有邊緣節(jié)點(diǎn)的局部模型得到全局模型,并把全局模型下發(fā)給邊緣節(jié)點(diǎn)進(jìn)行下一輪學(xué)習(xí)。通過(guò)在邊緣節(jié)點(diǎn)和中心節(jié)點(diǎn)之間進(jìn)行多輪次的通信和迭代,全局模型可以達(dá)到與集中式訓(xùn)練相近的性能[32]。在學(xué)習(xí)過(guò)程中數(shù)據(jù)始終保存在本地,保障了邊緣節(jié)點(diǎn)的數(shù)據(jù)隱私和安全。集中式訓(xùn)練和分布式訓(xùn)練方式主要在以下幾方面有所不同:
本文編號(hào):3213922
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3213922.html
最近更新
教材專著