基于人工神經(jīng)網(wǎng)絡(luò)的汽車電路圖字符識別方法設(shè)計與實現(xiàn)
發(fā)布時間:2021-11-29 10:42
人工智能的新時代的到來對人們的生活方式也帶來了巨大的改變,深度學(xué)習(xí)作為人工智能的一個分支已經(jīng)被廣泛地使用到各個領(lǐng)域,它擴大了人工智能的領(lǐng)域,其中在特定環(huán)境下的字符檢測和字符識別已經(jīng)成功地應(yīng)用。隨著汽車與人工智能的不斷結(jié)合,汽車電路圖也更加精細(xì)和復(fù)雜,并且由于當(dāng)前我國生產(chǎn)汽車型號的汽車電路圖與國外些許差異,這使維修人員在汽車維修時降低了人工識別的效率且難度增加。深度學(xué)習(xí)中的字符識別技術(shù)可以對汽車電路圖進(jìn)行信息提取,將圖片信息轉(zhuǎn)化為文本信息,通過汽車電路維修協(xié)助系統(tǒng)將大大提高對汽車電路圖的讀取效率同時對維修人員的檢修工作提供了重要的協(xié)助。在實際應(yīng)用中通常使用傳統(tǒng)算法來對圖像中的字符進(jìn)行識別和提取,但是由于人工制定特征不普遍,使應(yīng)用具有一定的局限性。常用的目標(biāo)檢測算法在實時性和準(zhǔn)確性雖有一定程度地提高但仍有很大的改進(jìn)空間,字符識別算法不僅在傳輸過程中會產(chǎn)生信息損失且提高了計算成本,在區(qū)分不同的姿勢和和其他方面的差異性的效果不是很好。因此本文創(chuàng)新地使用了如今發(fā)展相對成熟的人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)對于汽車電路圖的字符提取,從字符檢測和字符識別兩個方面設(shè)計系統(tǒng)。人工神經(jīng)網(wǎng)絡(luò)訓(xùn)練得到的網(wǎng)絡(luò)模型具有很強的泛化...
【文章來源】:吉林大學(xué)吉林省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:59 頁
【學(xué)位級別】:碩士
【部分圖文】:
感知機結(jié)構(gòu)圖
第2章神經(jīng)網(wǎng)絡(luò)概述9圖2.2常用激活函數(shù)曲線圖Sigmoid函數(shù)計算如公式2.2所示。該函數(shù)的取值范圍為[0,1],是Logistic函數(shù)的特例,可用于二分類。也稱為神經(jīng)元的飽和激發(fā)率(firingrate):xex11)(………………………………(2.2)tanh函數(shù)計算如公式2.3所示。該函數(shù)的取值范圍為[-1,1]并且穿過零點:xxxxeeeexf)(……………………………(2.3)ReLU函數(shù)計算如式子2.4所示該函數(shù)在x>0范圍內(nèi)保持梯度增加,減少梯度消失的概率并提高計算效率。激活函數(shù)曲線圖如圖2.4所示:xxf),0max()(…………………………(2.4)LeakyReLU函數(shù)計算如式子2.5所示。該函數(shù)避免出現(xiàn)神經(jīng)元“kill”的現(xiàn)象:xxx),01.0max()(……………………(2.5)ELU函數(shù)計算如式子2.6所示。該函數(shù)繼承了ReLU函數(shù)的優(yōu)勢;輸出均值接近零:………………(2.6)以上這些函數(shù)都具有一定的缺陷,例如Sigmoid函數(shù)會引起飽和神經(jīng)元出現(xiàn)梯度消失的現(xiàn)象,該函數(shù)輸出不是零中心的exp()運算導(dǎo)致計算較復(fù)雜;tanh函
第2章神經(jīng)網(wǎng)絡(luò)概述10數(shù)的飽和神經(jīng)元仍然會“kill”梯度;ReLU函數(shù)的輸出非零中心;x<0的范圍無梯度,無法更新權(quán)重的現(xiàn)象出現(xiàn);ELU函數(shù)exp()運算較復(fù)雜。Softmax函數(shù)計算如公式2.7所示。該函數(shù)先對每一個Zi取指數(shù)并使其值大于零,之后除以所有項之和得到一個新的數(shù)值:),...,1()exp()exp()(1KizzziKji……………………(2.7)一個神經(jīng)網(wǎng)絡(luò)有一個規(guī)定的輸入,如果訓(xùn)練后的輸出與設(shè)定的預(yù)期輸出不一致,就會產(chǎn)生誤差。對于這種現(xiàn)象可以通過改變標(biāo)量神經(jīng)元的參數(shù),將輸入通過網(wǎng)絡(luò)生成期望輸出。神經(jīng)網(wǎng)絡(luò)的另一個重要概念是成本函數(shù)的計算,感知器通過被稱為均方誤差的代價函數(shù)計算來學(xué)習(xí),還有許多其他類型的成本函數(shù)可以用來確定輸出誤差。梯度下降要求成本函數(shù)是凸的,從而引入隨機梯度下降。圖2.3神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程訓(xùn)練過程如圖2.3所示。對于分類問題,標(biāo)簽為類別;對于檢測問題,標(biāo)簽為一個邊界框。使用訓(xùn)練數(shù)據(jù)訓(xùn)練模型和計算損失,通過不斷調(diào)整模型參數(shù)來改變訓(xùn)練數(shù)據(jù),最終生成模型。通過測試數(shù)據(jù)來測試最終的模型是否理想,最終實
【參考文獻(xiàn)】:
期刊論文
[1]卷積神經(jīng)網(wǎng)絡(luò)在圖像識別中的應(yīng)用[J]. 圣文順,孫艷文. 軟件工程. 2019(02)
[2]卷積神經(jīng)網(wǎng)絡(luò)在圖像分類和目標(biāo)檢測應(yīng)用綜述[J]. 周俊宇,趙艷明. 計算機工程與應(yīng)用. 2017(13)
[3]深度卷積神經(jīng)網(wǎng)絡(luò)在計算機視覺中的應(yīng)用研究綜述[J]. 盧宏濤,張秦川. 數(shù)據(jù)采集與處理. 2016(01)
[4]汽車電路的識別及維修[J]. 劉宏濤. 硅谷. 2013(08)
[5]汽車修理中電路圖的設(shè)置與識別[J]. 劉亞林. 民營科技. 2012(09)
[6]促進(jìn)學(xué)生深度學(xué)習(xí)[J]. 何玲,黎加厚. 現(xiàn)代教學(xué). 2005(05)
[7]基于神經(jīng)網(wǎng)絡(luò)自學(xué)習(xí)的圖像檢索方法[J]. 張磊,林福宗,張鈸. 軟件學(xué)報. 2001(10)
本文編號:3526360
【文章來源】:吉林大學(xué)吉林省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:59 頁
【學(xué)位級別】:碩士
【部分圖文】:
感知機結(jié)構(gòu)圖
第2章神經(jīng)網(wǎng)絡(luò)概述9圖2.2常用激活函數(shù)曲線圖Sigmoid函數(shù)計算如公式2.2所示。該函數(shù)的取值范圍為[0,1],是Logistic函數(shù)的特例,可用于二分類。也稱為神經(jīng)元的飽和激發(fā)率(firingrate):xex11)(………………………………(2.2)tanh函數(shù)計算如公式2.3所示。該函數(shù)的取值范圍為[-1,1]并且穿過零點:xxxxeeeexf)(……………………………(2.3)ReLU函數(shù)計算如式子2.4所示該函數(shù)在x>0范圍內(nèi)保持梯度增加,減少梯度消失的概率并提高計算效率。激活函數(shù)曲線圖如圖2.4所示:xxf),0max()(…………………………(2.4)LeakyReLU函數(shù)計算如式子2.5所示。該函數(shù)避免出現(xiàn)神經(jīng)元“kill”的現(xiàn)象:xxx),01.0max()(……………………(2.5)ELU函數(shù)計算如式子2.6所示。該函數(shù)繼承了ReLU函數(shù)的優(yōu)勢;輸出均值接近零:………………(2.6)以上這些函數(shù)都具有一定的缺陷,例如Sigmoid函數(shù)會引起飽和神經(jīng)元出現(xiàn)梯度消失的現(xiàn)象,該函數(shù)輸出不是零中心的exp()運算導(dǎo)致計算較復(fù)雜;tanh函
第2章神經(jīng)網(wǎng)絡(luò)概述10數(shù)的飽和神經(jīng)元仍然會“kill”梯度;ReLU函數(shù)的輸出非零中心;x<0的范圍無梯度,無法更新權(quán)重的現(xiàn)象出現(xiàn);ELU函數(shù)exp()運算較復(fù)雜。Softmax函數(shù)計算如公式2.7所示。該函數(shù)先對每一個Zi取指數(shù)并使其值大于零,之后除以所有項之和得到一個新的數(shù)值:),...,1()exp()exp()(1KizzziKji……………………(2.7)一個神經(jīng)網(wǎng)絡(luò)有一個規(guī)定的輸入,如果訓(xùn)練后的輸出與設(shè)定的預(yù)期輸出不一致,就會產(chǎn)生誤差。對于這種現(xiàn)象可以通過改變標(biāo)量神經(jīng)元的參數(shù),將輸入通過網(wǎng)絡(luò)生成期望輸出。神經(jīng)網(wǎng)絡(luò)的另一個重要概念是成本函數(shù)的計算,感知器通過被稱為均方誤差的代價函數(shù)計算來學(xué)習(xí),還有許多其他類型的成本函數(shù)可以用來確定輸出誤差。梯度下降要求成本函數(shù)是凸的,從而引入隨機梯度下降。圖2.3神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程訓(xùn)練過程如圖2.3所示。對于分類問題,標(biāo)簽為類別;對于檢測問題,標(biāo)簽為一個邊界框。使用訓(xùn)練數(shù)據(jù)訓(xùn)練模型和計算損失,通過不斷調(diào)整模型參數(shù)來改變訓(xùn)練數(shù)據(jù),最終生成模型。通過測試數(shù)據(jù)來測試最終的模型是否理想,最終實
【參考文獻(xiàn)】:
期刊論文
[1]卷積神經(jīng)網(wǎng)絡(luò)在圖像識別中的應(yīng)用[J]. 圣文順,孫艷文. 軟件工程. 2019(02)
[2]卷積神經(jīng)網(wǎng)絡(luò)在圖像分類和目標(biāo)檢測應(yīng)用綜述[J]. 周俊宇,趙艷明. 計算機工程與應(yīng)用. 2017(13)
[3]深度卷積神經(jīng)網(wǎng)絡(luò)在計算機視覺中的應(yīng)用研究綜述[J]. 盧宏濤,張秦川. 數(shù)據(jù)采集與處理. 2016(01)
[4]汽車電路的識別及維修[J]. 劉宏濤. 硅谷. 2013(08)
[5]汽車修理中電路圖的設(shè)置與識別[J]. 劉亞林. 民營科技. 2012(09)
[6]促進(jìn)學(xué)生深度學(xué)習(xí)[J]. 何玲,黎加厚. 現(xiàn)代教學(xué). 2005(05)
[7]基于神經(jīng)網(wǎng)絡(luò)自學(xué)習(xí)的圖像檢索方法[J]. 張磊,林福宗,張鈸. 軟件學(xué)報. 2001(10)
本文編號:3526360
本文鏈接:http://sikaile.net/kejilunwen/qiche/3526360.html
最近更新
教材專著