天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 汽車論文 >

基于機器學習的車輛網絡資源分配策略研究

發(fā)布時間:2021-07-08 08:44
  隨著通信網絡的高速發(fā)展,未來的網絡將會成為一個自治系統(tǒng),海量數據與智能算法一定會成為無線網絡進一步發(fā)展的重要基礎。在智能交通方面,隨著人們對車輛智能化需求的不斷增加,車輛網絡亟待研究與發(fā)展。在車輛網絡中,各類車輛服務對緩解交通壓力和減少交通事故有著重要意義。然而,車輛網絡資源有限,隨著車輛服務需求的增加,合理分配車輛網絡中的資源,對保障車輛服務的高可靠低時延需求具有重要意義。首先,介紹了車輛網絡的研究現狀,并介紹了機器學習在車輛網絡中的研究現狀,對車輛網絡中的資源分配策略進行了重點描述,發(fā)現了機器學習方法的可適用性,認為使用機器學習方法來進行車輛網絡的資源分配是一項有意義的研究。然后,提出一個三層車輛網絡架構,包括本地計算層、移動邊緣計算層和云計算層。在此架構的基礎上,考慮到車輛網絡的低時延要求,將完成任務的時延作為系統(tǒng)成本提出了目標函數;針對這個目標函數,為系統(tǒng)制定了相關狀態(tài)、動作及獎勵,提出基于強化學習的資源分配算法,實現了層與層之間高效的動態(tài)計算資源分配。仿真結果表明,所提策略可以使系統(tǒng)總成本最小化,使得服務任務滿足其低時延需求。進一步,在上述工作的基礎上,提出以機器學習算法為基... 

【文章來源】:重慶郵電大學重慶市

【文章頁數】:69 頁

【學位級別】:碩士

【部分圖文】:

基于機器學習的車輛網絡資源分配策略研究


V2X通信常用場景模式

監(jiān)督學習


重慶郵電大學碩士學位論文第2章基于機器學習的資源分配策略概述9人小娜和特斯拉智能車輛正在改變著人們的生活。為了能更好地利用機器學習這一強有力的工具,接下來本章深入學習并研究了機器學習的基礎知識和基本原理。2.1.1機器學習分類根據需要解決的問題及數據種類的不同,對一個問題的建模有不同的方式。在機器學習領域,有不同的學習方式用以解決不同的問題,學習方式一般可分為監(jiān)督學習、無監(jiān)督學習、半監(jiān)督學習和強化學習等四種。1.監(jiān)督學習監(jiān)督學習通常分為“回歸”和“分類”兩大問題。在學習過程中,每個數據都會獲得其對應的標簽,如類別標簽或與數值相關的標簽。對這些帶有標簽的數據進行分析和處理,可以得到預測模型。進一步可以通過調整預測模型的參數,以提高預測的準確率。在得到一個準確率穩(wěn)定的預測模型之后,可以通過這個預測模型對無標注數據進行預測,得到結果。在回歸問題中,一個連續(xù)值將會被預測。也就是說回歸問題的目的是計算出一個連續(xù)的函數將輸入變量和輸出結果對應起來;而在分類問題中,一個離散值將會被預測,試圖將輸入變量與離散的類別對應起來[23]。圖2.1為監(jiān)督學習的一般過程。圖2.1監(jiān)督學習2.無監(jiān)督學習與監(jiān)督學習不同,在無監(jiān)督學習中,輸入數據是沒有標簽的,輸出結果同樣也沒有明確的標簽。因為樣本數據類別未知,所以需要根據樣本間的相似性對輸入數據集進行分類,使同一類的數據間的差距最小化,不同類的數據間差距最大化。主要方法是基于輸入數據的相似性進行聚類,其原理是發(fā)現并規(guī)定出不同類的核或初始內核,然后依據數據與核之間的相似性度量將輸入數據聚集成不同的類別[23]。圖2.2為無監(jiān)督學習的一般過程。

監(jiān)督學習


重慶郵電大學碩士學位論文第2章基于機器學習的資源分配策略概述10圖2.2無監(jiān)督學習3.半監(jiān)督學習在此學習方式下,輸入數據部分被標記,部分沒有被標記,故為監(jiān)督學習和無監(jiān)督學習的結合[23]。圖2.3為半無監(jiān)督學習的一般過程。在很多實際問題中,因為只有少量數據的帶有標簽,所以對所有數據進行標記的代價有時很高。為了實現半監(jiān)督分類,增強分類效果,通常在有監(jiān)督的分類算法中加入無標簽的樣本數據來實現半監(jiān)督學習。圖2.3半監(jiān)督學習4.強化學習強化學習是一種學習模型,通常通過某種激勵機制,給予正確行為獎勵,懲罰錯誤行為,不斷進行訓練,以達到最優(yōu)的行為集合。圖2.4為強化學習的一般過程。強化學習的主體是一個智能體。在強化學習中不需要有標簽的數據,而是由數據生成環(huán)境。在這一環(huán)境中的不同狀態(tài)下的智能體可以做出不同的動作,每個動作都有規(guī)定的獎勵或懲罰。其目的是在進行不斷的循環(huán)學習后,智能體可以在這個環(huán)境中所作的每一個動作都能獲得其最大獎勵[24]。由最佳動作組成的集合即為最優(yōu)的行為集合,也是進行強化學習之后得到的最終結果。圖2.4強化學習

【參考文獻】:
期刊論文
[1]Engineering[J].   Engineering. 2020(05)
[2]移動邊緣計算在車聯(lián)網中的應用[J]. 李佐昭,劉金旭.  現代電信科技. 2017(03)
[3]邊緣計算:萬物互聯(lián)時代新型計算模型[J]. 施巍松,孫輝,曹杰,張權,劉偉.  計算機研究與發(fā)展. 2017(05)
[4]全球車聯(lián)網發(fā)展態(tài)勢研究[J]. 曹磊.  競爭情報. 2014(04)
[5]云計算研究進展綜述[J]. 張建勛,古志民,鄭超.  計算機應用研究. 2010(02)



本文編號:3271244

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/qiche/3271244.html


Copyright(c)文論論文網All Rights Reserved | 網站地圖 |

版權申明:資料由用戶423fe***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com