基于深度學(xué)習(xí)的駕駛員疲勞檢測(cè)
發(fā)布時(shí)間:2021-10-29 04:54
駕駛員疲勞駕駛是導(dǎo)致交通事故發(fā)生的重要原因,對(duì)駕駛員駕駛狀態(tài)的檢測(cè)和預(yù)警,可有效避免交通事故的發(fā)生。駕駛員疲勞檢測(cè)成為當(dāng)前交通領(lǐng)域的研究熱點(diǎn),但目前的檢測(cè)方法的準(zhǔn)確率仍然較低。本文研究基于深度學(xué)習(xí)的駕駛員疲勞檢測(cè)算法,融合人臉及特征點(diǎn)通過卷積神經(jīng)網(wǎng)絡(luò)識(shí)別駕駛員狀態(tài)。論文主要工作如下:(1)提出基于多任務(wù)級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)MTCNN(Multi-Task Convolutional Neural Networks,MTCNN)的人臉及特征點(diǎn)檢測(cè)算法,實(shí)現(xiàn)真實(shí)駕駛環(huán)境下駕駛員臉部區(qū)域的精確檢測(cè)和相關(guān)特征點(diǎn)的定位。算法增加了訓(xùn)練特征點(diǎn),提升了網(wǎng)絡(luò)特征提取的準(zhǔn)確性和頭部姿態(tài)判斷的可行性;替換網(wǎng)絡(luò)的激勵(lì)函數(shù),添加BN層,以提高網(wǎng)絡(luò)的運(yùn)算速度;同時(shí),在O-Net網(wǎng)絡(luò)結(jié)構(gòu)中添加多尺度池化層,進(jìn)一步提高網(wǎng)絡(luò)模型對(duì)不同尺度特征的描述能力。(2)提出基于深度可分離卷積神經(jīng)網(wǎng)絡(luò)的眼睛和嘴巴狀態(tài)識(shí)別模型。提取眼睛和嘴巴特征,輸入到深度可分離卷積神經(jīng)網(wǎng)絡(luò)模型判斷特征狀態(tài),大大提高了檢測(cè)效率。同時(shí),根據(jù)人臉特征點(diǎn)對(duì)頭部姿態(tài)進(jìn)行判斷,以用于后續(xù)多特征融合的疲勞判定。(3)提出多特征融合的駕駛員疲勞判定算法。根據(jù)識(shí)別出...
【文章來源】:山東科技大學(xué)山東省
【文章頁數(shù)】:69 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.3?MTCNN整體框架圖??Fig.2.3?Overall?framework?of?mtcnn??2.2.?2?MTCNN網(wǎng)絡(luò)結(jié)構(gòu)及損失函數(shù)??
山東科技大學(xué)工程碩士學(xué)位論文?2算法整體框架和人臉及特征點(diǎn)檢測(cè)算法??P-Net??I?#^:3?3?'?1??/y?■-}*->?卷積:3*3?卷積:3*3?I??|?廠圓?人臉分類器??|?r>D丨??—''…?'?????1?*?1?*32??輸入尺寸:?5*5+1〇?3*3*16?特征點(diǎn)定位??12*12*3?I??1*1*10?I??圖2.4?P-Net網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2.4?P-Net?network?structure??R-Net的網(wǎng)絡(luò)結(jié)構(gòu)如圖2.5所示,輸入大小為24*24*3的圖片,經(jīng)過28?jìng)(gè)3*3的卷積??核和步長為2,大小為3*3的池化層處理,得到28?jìng)(gè)11*11的特征圖。然后,經(jīng)過48?jìng)(gè)??3*3的卷積核和步長為2,大小為3*3的池化層處理,得到48?jìng)(gè)4*4的特征圖,再經(jīng)過64??個(gè)2*2的卷積核處理生成64個(gè)3*3的特征圖。最后,將生成的特征圖轉(zhuǎn)換成128大小的??全連接層并利用2個(gè)1*1的卷積核處理,得到2個(gè)1*1的特征圖用于分類;利用4個(gè)1*1??的卷積核處理,得到4個(gè)1*1的特征圖用于邊界框回歸;利用10個(gè)1*1的卷積核處理,??得到10個(gè)1*1的特征圖用于人臉特征點(diǎn)定位。??R-Net??I?卷積:2*2全連接層卩?]??I?池化:J?J?J??i—?u?人臉分類器??|口醫(yī)_辱卜。哓??輸入尺寸:?4*4*48?U?特征點(diǎn)定位?I??I?24*24*3?—?10?I??I????圖2.5?R-Net網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2.5?R-Net?network?structure??O-Net的網(wǎng)絡(luò)結(jié)構(gòu)如圖2
山東科技大學(xué)工程碩士學(xué)位論文?2算法整體框架和人臉及特征點(diǎn)檢測(cè)算法??P-Net??I?#^:3?3?'?1??/y?■-}*->?卷積:3*3?卷積:3*3?I??|?廠圓?人臉分類器??|?r>D丨??—''…?'?????1?*?1?*32??輸入尺寸:?5*5+1〇?3*3*16?特征點(diǎn)定位??12*12*3?I??1*1*10?I??圖2.4?P-Net網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2.4?P-Net?network?structure??R-Net的網(wǎng)絡(luò)結(jié)構(gòu)如圖2.5所示,輸入大小為24*24*3的圖片,經(jīng)過28?jìng)(gè)3*3的卷積??核和步長為2,大小為3*3的池化層處理,得到28?jìng)(gè)11*11的特征圖。然后,經(jīng)過48?jìng)(gè)??3*3的卷積核和步長為2,大小為3*3的池化層處理,得到48?jìng)(gè)4*4的特征圖,再經(jīng)過64??個(gè)2*2的卷積核處理生成64個(gè)3*3的特征圖。最后,將生成的特征圖轉(zhuǎn)換成128大小的??全連接層并利用2個(gè)1*1的卷積核處理,得到2個(gè)1*1的特征圖用于分類;利用4個(gè)1*1??的卷積核處理,得到4個(gè)1*1的特征圖用于邊界框回歸;利用10個(gè)1*1的卷積核處理,??得到10個(gè)1*1的特征圖用于人臉特征點(diǎn)定位。??R-Net??I?卷積:2*2全連接層卩?]??I?池化:J?J?J??i—?u?人臉分類器??|口醫(yī)_辱卜!-_丨??輸入尺寸:?4*4*48?U?特征點(diǎn)定位?I??I?24*24*3?—?10?I??I????圖2.5?R-Net網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2.5?R-Net?network?structure??O-Net的網(wǎng)絡(luò)結(jié)構(gòu)如圖2
本文編號(hào):3464003
【文章來源】:山東科技大學(xué)山東省
【文章頁數(shù)】:69 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.3?MTCNN整體框架圖??Fig.2.3?Overall?framework?of?mtcnn??2.2.?2?MTCNN網(wǎng)絡(luò)結(jié)構(gòu)及損失函數(shù)??
山東科技大學(xué)工程碩士學(xué)位論文?2算法整體框架和人臉及特征點(diǎn)檢測(cè)算法??P-Net??I?#^:3?3?'?1??/y?■-}*->?卷積:3*3?卷積:3*3?I??|?廠圓?人臉分類器??|?r>D丨??—''…?'?????1?*?1?*32??輸入尺寸:?5*5+1〇?3*3*16?特征點(diǎn)定位??12*12*3?I??1*1*10?I??圖2.4?P-Net網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2.4?P-Net?network?structure??R-Net的網(wǎng)絡(luò)結(jié)構(gòu)如圖2.5所示,輸入大小為24*24*3的圖片,經(jīng)過28?jìng)(gè)3*3的卷積??核和步長為2,大小為3*3的池化層處理,得到28?jìng)(gè)11*11的特征圖。然后,經(jīng)過48?jìng)(gè)??3*3的卷積核和步長為2,大小為3*3的池化層處理,得到48?jìng)(gè)4*4的特征圖,再經(jīng)過64??個(gè)2*2的卷積核處理生成64個(gè)3*3的特征圖。最后,將生成的特征圖轉(zhuǎn)換成128大小的??全連接層并利用2個(gè)1*1的卷積核處理,得到2個(gè)1*1的特征圖用于分類;利用4個(gè)1*1??的卷積核處理,得到4個(gè)1*1的特征圖用于邊界框回歸;利用10個(gè)1*1的卷積核處理,??得到10個(gè)1*1的特征圖用于人臉特征點(diǎn)定位。??R-Net??I?卷積:2*2全連接層卩?]??I?池化:J?J?J??i—?u?人臉分類器??|口醫(yī)_辱卜。哓??輸入尺寸:?4*4*48?U?特征點(diǎn)定位?I??I?24*24*3?—?10?I??I????圖2.5?R-Net網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2.5?R-Net?network?structure??O-Net的網(wǎng)絡(luò)結(jié)構(gòu)如圖2
山東科技大學(xué)工程碩士學(xué)位論文?2算法整體框架和人臉及特征點(diǎn)檢測(cè)算法??P-Net??I?#^:3?3?'?1??/y?■-}*->?卷積:3*3?卷積:3*3?I??|?廠圓?人臉分類器??|?r>D丨??—''…?'?????1?*?1?*32??輸入尺寸:?5*5+1〇?3*3*16?特征點(diǎn)定位??12*12*3?I??1*1*10?I??圖2.4?P-Net網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2.4?P-Net?network?structure??R-Net的網(wǎng)絡(luò)結(jié)構(gòu)如圖2.5所示,輸入大小為24*24*3的圖片,經(jīng)過28?jìng)(gè)3*3的卷積??核和步長為2,大小為3*3的池化層處理,得到28?jìng)(gè)11*11的特征圖。然后,經(jīng)過48?jìng)(gè)??3*3的卷積核和步長為2,大小為3*3的池化層處理,得到48?jìng)(gè)4*4的特征圖,再經(jīng)過64??個(gè)2*2的卷積核處理生成64個(gè)3*3的特征圖。最后,將生成的特征圖轉(zhuǎn)換成128大小的??全連接層并利用2個(gè)1*1的卷積核處理,得到2個(gè)1*1的特征圖用于分類;利用4個(gè)1*1??的卷積核處理,得到4個(gè)1*1的特征圖用于邊界框回歸;利用10個(gè)1*1的卷積核處理,??得到10個(gè)1*1的特征圖用于人臉特征點(diǎn)定位。??R-Net??I?卷積:2*2全連接層卩?]??I?池化:J?J?J??i—?u?人臉分類器??|口醫(yī)_辱卜!-_丨??輸入尺寸:?4*4*48?U?特征點(diǎn)定位?I??I?24*24*3?—?10?I??I????圖2.5?R-Net網(wǎng)絡(luò)結(jié)構(gòu)??Fig.2.5?R-Net?network?structure??O-Net的網(wǎng)絡(luò)結(jié)構(gòu)如圖2
本文編號(hào):3464003
本文鏈接:http://sikaile.net/kejilunwen/qiche/3464003.html
最近更新
教材專著