基于神經(jīng)網(wǎng)絡(luò)的人民幣紙幣污漬清分算法研究與實(shí)現(xiàn)
發(fā)布時(shí)間:2021-09-06 19:53
隨著現(xiàn)代社會(huì)經(jīng)濟(jì)不斷發(fā)展,人民幣紙幣的數(shù)量急劇增加,而人民幣紙幣在使用過程中不可避免的會(huì)沾染到污漬,進(jìn)而影響人民幣紙幣的正常使用。因此銀行相關(guān)方面需要一個(gè)自動(dòng)化的人民幣紙幣清分程序,用于完成人民幣紙幣不同面額的分類,以及人民幣紙幣是否存在污漬的辨識(shí)。本課題以此為背景,進(jìn)行了基于神經(jīng)網(wǎng)絡(luò)的人民幣紙幣圖片分類程序研究,以及基于計(jì)算機(jī)視覺的人民幣紙幣圖片污漬辨識(shí)程序的研究和實(shí)現(xiàn)。由于不同神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)所需要的輸入圖片大小不同,所以首先利用計(jì)算機(jī)視覺圖像處理技術(shù),對(duì)輸入的人民幣紙幣原始圖片進(jìn)行裁剪和雙線性插值壓縮,為后續(xù)不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)提供尺寸大小合適的人民幣紙幣輸入圖片。由于輸入的人民幣紙幣原始圖片紋理比較復(fù)雜,使用特征點(diǎn)和輪廓檢測(cè)的方法不僅算法自身會(huì)難度過高,而且非常容易受到光照、圖片漂移等因素影響,所以本課題中采用搭建并訓(xùn)練神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的方式來完成輸入人民幣紙幣圖片的分類任務(wù)。本課題中自行搭建并訓(xùn)練了一個(gè)全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),除此神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)外,對(duì)LeNet-5神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和AlexNet神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)做了基于本課題實(shí)際應(yīng)用場(chǎng)景的適應(yīng)性調(diào)整并訓(xùn)練。為提高分類準(zhǔn)確度,設(shè)計(jì)了一個(gè)綜合分類程序,利...
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:71 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
系統(tǒng)算法流程圖
哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文素坐標(biāo),進(jìn)而明確地獲取每個(gè)像素坐標(biāo)點(diǎn)上的像素值坐標(biāo)系的具體定義可以更好地完成圖片裁剪和基于雙覺圖片坐標(biāo)系不同于常規(guī)的平面直角坐標(biāo)系。計(jì)算機(jī)視片的左上角,不同環(huán)境中原點(diǎn)的坐標(biāo)也有所不同,M1,1),而在 OpenCV 環(huán)境中原點(diǎn)的坐標(biāo)為(0,0),常于圖片的左下角,原點(diǎn)的坐標(biāo)為(0,0)。計(jì)算機(jī)視覺的左邊界,方向自上而下,Y 軸位于圖片的上邊界,方坐標(biāo)系的 X 軸位于圖片的下邊界,方向自左而右,Y自下向上。計(jì)算機(jī)視覺圖片坐標(biāo)系 X 軸以及 Y 軸的單平面直角坐標(biāo)系 X 軸以及 Y 軸的單位長(zhǎng)度則取決于具體片坐標(biāo)系在 Matlab 環(huán)境中和 OpenCV 環(huán)境中具體示意
圖片壓縮B輸入圖片
【參考文獻(xiàn)】:
期刊論文
[1]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 張亞倩. 信息通信. 2018(11)
[2]無(wú)坡口對(duì)接焊縫特征角點(diǎn)檢測(cè)方法[J]. 王文超,高向東,丁曉東,張南峰. 焊接學(xué)報(bào). 2018(09)
[3]改進(jìn)深度殘差卷積神經(jīng)網(wǎng)絡(luò)的LDCT圖像估計(jì)[J]. 高凈植,劉祎,張權(quán),桂志國(guó). 計(jì)算機(jī)工程與應(yīng)用. 2018(16)
[4]基于跨連接LeNet-5網(wǎng)絡(luò)的面部表情識(shí)別[J]. 李勇,林小竹,蔣夢(mèng)瑩. 自動(dòng)化學(xué)報(bào). 2018(01)
[5]基于CNN深度模型的小麥不完善粒識(shí)別[J]. 曹婷翠,何小海,董德良,石恒,熊淑華. 現(xiàn)代計(jì)算機(jī)(專業(yè)版). 2017(36)
[6]一種抑制高斯噪聲的加權(quán)濾波算法[J]. 沈德海,侯建,鄂旭,閻琦. 渤海大學(xué)學(xué)報(bào)(自然科學(xué)版). 2016(04)
[7]計(jì)算機(jī)視覺技術(shù)及其在自動(dòng)化中的應(yīng)用[J]. 崔天依. 電腦知識(shí)與技術(shù). 2016(03)
[8]神經(jīng)網(wǎng)絡(luò)在智能信息處理技術(shù)中的應(yīng)用研究[J]. 張靜. 科技展望. 2015(24)
[9]紙幣清分系統(tǒng)中的紙幣污損檢測(cè)[J]. 金野,宋玲,劉松波,唐降龍. 自動(dòng)化學(xué)報(bào). 2007(09)
碩士論文
[1]紅頭文件檢測(cè)關(guān)鍵技術(shù)研究[D]. 王昌杰.浙江理工大學(xué) 2018
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法研究[D]. 郭田梅.濟(jì)南大學(xué) 2017
本文編號(hào):3388074
【文章來源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:71 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
系統(tǒng)算法流程圖
哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文素坐標(biāo),進(jìn)而明確地獲取每個(gè)像素坐標(biāo)點(diǎn)上的像素值坐標(biāo)系的具體定義可以更好地完成圖片裁剪和基于雙覺圖片坐標(biāo)系不同于常規(guī)的平面直角坐標(biāo)系。計(jì)算機(jī)視片的左上角,不同環(huán)境中原點(diǎn)的坐標(biāo)也有所不同,M1,1),而在 OpenCV 環(huán)境中原點(diǎn)的坐標(biāo)為(0,0),常于圖片的左下角,原點(diǎn)的坐標(biāo)為(0,0)。計(jì)算機(jī)視覺的左邊界,方向自上而下,Y 軸位于圖片的上邊界,方坐標(biāo)系的 X 軸位于圖片的下邊界,方向自左而右,Y自下向上。計(jì)算機(jī)視覺圖片坐標(biāo)系 X 軸以及 Y 軸的單平面直角坐標(biāo)系 X 軸以及 Y 軸的單位長(zhǎng)度則取決于具體片坐標(biāo)系在 Matlab 環(huán)境中和 OpenCV 環(huán)境中具體示意
圖片壓縮B輸入圖片
【參考文獻(xiàn)】:
期刊論文
[1]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 張亞倩. 信息通信. 2018(11)
[2]無(wú)坡口對(duì)接焊縫特征角點(diǎn)檢測(cè)方法[J]. 王文超,高向東,丁曉東,張南峰. 焊接學(xué)報(bào). 2018(09)
[3]改進(jìn)深度殘差卷積神經(jīng)網(wǎng)絡(luò)的LDCT圖像估計(jì)[J]. 高凈植,劉祎,張權(quán),桂志國(guó). 計(jì)算機(jī)工程與應(yīng)用. 2018(16)
[4]基于跨連接LeNet-5網(wǎng)絡(luò)的面部表情識(shí)別[J]. 李勇,林小竹,蔣夢(mèng)瑩. 自動(dòng)化學(xué)報(bào). 2018(01)
[5]基于CNN深度模型的小麥不完善粒識(shí)別[J]. 曹婷翠,何小海,董德良,石恒,熊淑華. 現(xiàn)代計(jì)算機(jī)(專業(yè)版). 2017(36)
[6]一種抑制高斯噪聲的加權(quán)濾波算法[J]. 沈德海,侯建,鄂旭,閻琦. 渤海大學(xué)學(xué)報(bào)(自然科學(xué)版). 2016(04)
[7]計(jì)算機(jī)視覺技術(shù)及其在自動(dòng)化中的應(yīng)用[J]. 崔天依. 電腦知識(shí)與技術(shù). 2016(03)
[8]神經(jīng)網(wǎng)絡(luò)在智能信息處理技術(shù)中的應(yīng)用研究[J]. 張靜. 科技展望. 2015(24)
[9]紙幣清分系統(tǒng)中的紙幣污損檢測(cè)[J]. 金野,宋玲,劉松波,唐降龍. 自動(dòng)化學(xué)報(bào). 2007(09)
碩士論文
[1]紅頭文件檢測(cè)關(guān)鍵技術(shù)研究[D]. 王昌杰.浙江理工大學(xué) 2018
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類算法研究[D]. 郭田梅.濟(jì)南大學(xué) 2017
本文編號(hào):3388074
本文鏈接:http://sikaile.net/jingjilunwen/huobiyinxinglunwen/3388074.html
最近更新
教材專著