基于機器學習的Turbo碼閉集識別技術
發(fā)布時間:2021-10-16 04:07
信道編碼技術在通信領域是非常重要的,而Turbo碼是一種得到廣泛應用的重要編碼方式,機器學習手段在當今自然語言處理、圖像領域得到了很大發(fā)展并成為了其核心技術,而基于機器學習方法的Turbo碼閉集識別卻無人研究,為了碼字識別計算智能化的發(fā)展,研究基于機器學習手段的Turbo碼識別是非常重要的。Turbo碼的生成可以看作是由編碼器和交織器組成。本文對編碼的各個部分進行了研究,分別是基于機器學習的m序列預測、卷積碼閉集識別和Turbo碼閉集識別。其中m序列部分有望應用于交織器部分,卷積碼部分的研究則可以廣泛適應于Turbo碼的編碼器部分,最后部分是Turbo碼閉集識別的單幀和多幀實驗。本文主要研究成果主要分為三部分:1、首次研究了機器學習對偽隨機序列的識別問題,在理論上證明了神經(jīng)網(wǎng)絡對m序列完備的學習能力,討論了網(wǎng)絡基本設置并實驗了25、50、75、100階下網(wǎng)絡對不同系數(shù)稀疏程度的m序列表現(xiàn)能力,使用截取的2000、5000、10000長度的信息序列可以分別學習出25、50、75階下m序列的稀疏系數(shù),并給出了參考使用的網(wǎng)絡結構,通過對含錯序列的實驗,探究了神經(jīng)網(wǎng)絡能夠?qū)序列容錯的原因,由...
【文章來源】:電子科技大學四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:80 頁
【學位級別】:碩士
【部分圖文】:
卷積型神經(jīng)網(wǎng)絡結構
第三章基于機器學習的m序列預測19梯度下降法的訓練,并提供了網(wǎng)絡的稀疏表達能力,大多數(shù)情況下ReLu函數(shù)可以較好的替代Sigmoid,實際中可能存在更好的函數(shù),作為研究的初期,ReLu函數(shù)沒有引入額外的參數(shù)設置,是非常好的首位選擇,實際中為了提高性能,可以對其他的各種激活函數(shù)依次嘗試對比替換Relu使用。圖3-4不同激活函數(shù)下訓練對比圖圖3-5不同激活函數(shù)下測試對比圖3.3.2BN正則BN(BatchNormalization)層的放置可以極大地改善訓練過程,加速運算[31]。BN算法的強大之處在下面幾個方面:1、調(diào)節(jié)數(shù)據(jù)范圍,極快的增大學習速度。2、引入數(shù)據(jù)擾動,保障訓練的有效進行。由于樣本量有限,BN層可以對數(shù)據(jù)添加擾動,保障訓練速度和有效進行,甚至不加BN層有時帶來訓練無法進行。
第三章基于機器學習的m序列預測19梯度下降法的訓練,并提供了網(wǎng)絡的稀疏表達能力,大多數(shù)情況下ReLu函數(shù)可以較好的替代Sigmoid,實際中可能存在更好的函數(shù),作為研究的初期,ReLu函數(shù)沒有引入額外的參數(shù)設置,是非常好的首位選擇,實際中為了提高性能,可以對其他的各種激活函數(shù)依次嘗試對比替換Relu使用。圖3-4不同激活函數(shù)下訓練對比圖圖3-5不同激活函數(shù)下測試對比圖3.3.2BN正則BN(BatchNormalization)層的放置可以極大地改善訓練過程,加速運算[31]。BN算法的強大之處在下面幾個方面:1、調(diào)節(jié)數(shù)據(jù)范圍,極快的增大學習速度。2、引入數(shù)據(jù)擾動,保障訓練的有效進行。由于樣本量有限,BN層可以對數(shù)據(jù)添加擾動,保障訓練速度和有效進行,甚至不加BN層有時帶來訓練無法進行。
【參考文獻】:
期刊論文
[1]基于校驗方程系數(shù)特性的(n,1,m)卷積碼盲識別方法[J]. 韓樹楠,張旻,李歆昊. 吉林大學學報(工學版). 2019(02)
[2]高誤碼率下Turbo碼交織器的恢復方法[J]. 任亞博,張健,劉以農(nóng). 電子與信息學報. 2015(08)
[3]基于模擬退火算法的(2,1,m)卷積碼盲識別[J]. 劉杰,張立民,鐘兆根. 無線電通信技術. 2014(06)
[4]歸零Turbo碼識別算法[J]. 李嘯天,張潤生,李艷斌. 西安電子科技大學學報. 2013(04)
[5]一種利用軟判決的信道編碼識別新算法[J]. 于沛東,李靜,彭華. 電子學報. 2013(02)
[6]基于遺傳算法的(2,1,m)卷積碼盲識別[J]. 劉建成,楊曉靜. 電子信息對抗技術. 2012(05)
[7]基于Walsh-Hadamard變換的卷積碼盲識別[J]. 劉健,王曉君,周希元. 電子與信息學報. 2010(04)
[8]系統(tǒng)卷積碼盲識別[J]. 薛國慶,李易,柳衛(wèi)平. 信息安全與通信保密. 2009(02)
[9]關鍵方程的新推廣[J]. 鄒艷,陸佩忠. 計算機學報. 2006(05)
本文編號:3439115
【文章來源】:電子科技大學四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:80 頁
【學位級別】:碩士
【部分圖文】:
卷積型神經(jīng)網(wǎng)絡結構
第三章基于機器學習的m序列預測19梯度下降法的訓練,并提供了網(wǎng)絡的稀疏表達能力,大多數(shù)情況下ReLu函數(shù)可以較好的替代Sigmoid,實際中可能存在更好的函數(shù),作為研究的初期,ReLu函數(shù)沒有引入額外的參數(shù)設置,是非常好的首位選擇,實際中為了提高性能,可以對其他的各種激活函數(shù)依次嘗試對比替換Relu使用。圖3-4不同激活函數(shù)下訓練對比圖圖3-5不同激活函數(shù)下測試對比圖3.3.2BN正則BN(BatchNormalization)層的放置可以極大地改善訓練過程,加速運算[31]。BN算法的強大之處在下面幾個方面:1、調(diào)節(jié)數(shù)據(jù)范圍,極快的增大學習速度。2、引入數(shù)據(jù)擾動,保障訓練的有效進行。由于樣本量有限,BN層可以對數(shù)據(jù)添加擾動,保障訓練速度和有效進行,甚至不加BN層有時帶來訓練無法進行。
第三章基于機器學習的m序列預測19梯度下降法的訓練,并提供了網(wǎng)絡的稀疏表達能力,大多數(shù)情況下ReLu函數(shù)可以較好的替代Sigmoid,實際中可能存在更好的函數(shù),作為研究的初期,ReLu函數(shù)沒有引入額外的參數(shù)設置,是非常好的首位選擇,實際中為了提高性能,可以對其他的各種激活函數(shù)依次嘗試對比替換Relu使用。圖3-4不同激活函數(shù)下訓練對比圖圖3-5不同激活函數(shù)下測試對比圖3.3.2BN正則BN(BatchNormalization)層的放置可以極大地改善訓練過程,加速運算[31]。BN算法的強大之處在下面幾個方面:1、調(diào)節(jié)數(shù)據(jù)范圍,極快的增大學習速度。2、引入數(shù)據(jù)擾動,保障訓練的有效進行。由于樣本量有限,BN層可以對數(shù)據(jù)添加擾動,保障訓練速度和有效進行,甚至不加BN層有時帶來訓練無法進行。
【參考文獻】:
期刊論文
[1]基于校驗方程系數(shù)特性的(n,1,m)卷積碼盲識別方法[J]. 韓樹楠,張旻,李歆昊. 吉林大學學報(工學版). 2019(02)
[2]高誤碼率下Turbo碼交織器的恢復方法[J]. 任亞博,張健,劉以農(nóng). 電子與信息學報. 2015(08)
[3]基于模擬退火算法的(2,1,m)卷積碼盲識別[J]. 劉杰,張立民,鐘兆根. 無線電通信技術. 2014(06)
[4]歸零Turbo碼識別算法[J]. 李嘯天,張潤生,李艷斌. 西安電子科技大學學報. 2013(04)
[5]一種利用軟判決的信道編碼識別新算法[J]. 于沛東,李靜,彭華. 電子學報. 2013(02)
[6]基于遺傳算法的(2,1,m)卷積碼盲識別[J]. 劉建成,楊曉靜. 電子信息對抗技術. 2012(05)
[7]基于Walsh-Hadamard變換的卷積碼盲識別[J]. 劉健,王曉君,周希元. 電子與信息學報. 2010(04)
[8]系統(tǒng)卷積碼盲識別[J]. 薛國慶,李易,柳衛(wèi)平. 信息安全與通信保密. 2009(02)
[9]關鍵方程的新推廣[J]. 鄒艷,陸佩忠. 計算機學報. 2006(05)
本文編號:3439115
本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/3439115.html
最近更新
教材專著