天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 信息工程論文 >

基于EOG的閱讀行為識(shí)別中眨眼信號(hào)去除算法研究

發(fā)布時(shí)間:2018-01-10 12:28

  本文關(guān)鍵詞:基于EOG的閱讀行為識(shí)別中眨眼信號(hào)去除算法研究 出處:《信號(hào)處理》2017年02期  論文類型:期刊論文


  更多相關(guān)文章: 眼電圖 獨(dú)立分量分析算法 主分量分析算法 低通濾波器 峭度


【摘要】:由于眼電圖(EOG)能反映不同行為狀態(tài)下的眼球運(yùn)動(dòng)模式,因此,基于EOG的閱讀行為識(shí)別已經(jīng)成為一個(gè)新的研究熱點(diǎn)。為了降低眨眼信號(hào)對(duì)閱讀行為識(shí)別的影響,提高正確率,本文提出了一種基于獨(dú)立分量分析(ICA)的眨眼信號(hào)去除算法。該算法首先利用ICA方法從原始多通道EOG信號(hào)中分離出眨眼信號(hào),然后通過(guò)計(jì)算各輸出通道的峭度值,自動(dòng)識(shí)別眨眼信號(hào)通道,將其置零后映射回原始觀測(cè)信號(hào)以達(dá)到噪聲去除目的。實(shí)驗(yàn)室環(huán)境下,對(duì)降噪后的EOG信號(hào)進(jìn)行閱讀狀態(tài)識(shí)別,其平均正確率達(dá)到95.5%,相比較原始EOG信號(hào)、帶通濾波法及主分量分析方法(PCA)分別提升了3.39%,5.00%和2.70%,實(shí)驗(yàn)結(jié)果驗(yàn)證了所提算法的有效性。
[Abstract]:EOG (EOG) can reflect the pattern of eye movement in different behavior. Reading behavior recognition based on EOG has become a new research hotspot. In order to reduce the effect of blinking signal on reading behavior recognition and improve the accuracy. In this paper, a blink signal removal algorithm based on independent component analysis (ICA) is proposed. Firstly, the blink signal is separated from the original multi-channel EOG signal by using ICA method. Then, by calculating the kurtosis value of each output channel, the blinking signal channel is automatically identified and mapped back to the original observation signal after setting zero to achieve the purpose of noise removal. The average correct rate of the EOG signal after denoising is 95.5, which is compared with the original EOG signal. The bandpass filtering method and the principal component analysis (PCA) method have increased 3.390.00% and 2.70%, respectively. The experimental results show that the proposed algorithm is effective.
【作者單位】: 安徽大學(xué)計(jì)算智能與信號(hào)處理教育部重點(diǎn)實(shí)驗(yàn)室;安徽大學(xué)信息保障技術(shù)協(xié)同創(chuàng)新中心;
【基金】:國(guó)家自然科學(xué)基金(61401002,61271352) 安徽省自然科學(xué)基金(1408085QF125) 安徽高校省級(jí)自然科學(xué)研究重點(diǎn)項(xiàng)目(KJ2014A011)課題資助
【分類號(hào)】:R770.43;TN911.7
【正文快照】: 1引言研究表明,人在進(jìn)行特定活動(dòng)時(shí)所引發(fā)的眼動(dòng)模式在很大程度上能夠揭示其當(dāng)前的行為狀態(tài),而這種眼動(dòng)模式可以通過(guò)對(duì)眼球運(yùn)動(dòng)情況的跟蹤來(lái)獲取,因此基于眼動(dòng)信息的人體行為識(shí)別(HumanActivity Recognition,HAR)算法的設(shè)計(jì)與實(shí)現(xiàn)已經(jīng)成為新的研究熱點(diǎn)[1-4]。我們知道,在人體

【相似文獻(xiàn)】

相關(guān)期刊論文 前1條

1 孫長(zhǎng)青;李新慧;劉玉紅;康曉東;;培育和鑄造醫(yī)院文化管理理念[J];兵團(tuán)醫(yī)學(xué);2003年04期

相關(guān)會(huì)議論文 前7條

1 苗強(qiáng);周興社;於志文;倪紅波;;一種非覺(jué)察式的睡眠行為識(shí)別技術(shù)研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

2 齊娟;陳益強(qiáng);劉軍發(fā);;基于多模信息感知與融合的行為識(shí)別[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識(shí)別[A];2007中國(guó)控制與決策學(xué)術(shù)年會(huì)論文集[C];2007年

4 黃紫藤;吳玲達(dá);;監(jiān)控視頻中簡(jiǎn)單人物行為識(shí)別研究[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

5 安國(guó)成;羅志強(qiáng);李洪研;;改進(jìn)運(yùn)動(dòng)歷史圖的異常行為識(shí)別算法[A];第八屆中國(guó)智能交通年會(huì)優(yōu)秀論文集——智能交通與安全[C];2013年

6 王忠民;曹棟;;坐標(biāo)轉(zhuǎn)換在移動(dòng)用戶行為識(shí)別中的應(yīng)用研究[A];2013年全國(guó)通信軟件學(xué)術(shù)會(huì)議論文集[C];2013年

7 劉威;李石堅(jiān);潘綱;;uRecorder:基于位置的社會(huì)行為自動(dòng)日志[A];第18屆全國(guó)多媒體學(xué)術(shù)會(huì)議(NCMT2009)、第5屆全國(guó)人機(jī)交互學(xué)術(shù)會(huì)議(CHCI2009)、第5屆全國(guó)普適計(jì)算學(xué)術(shù)會(huì)議(PCC2009)論文集[C];2009年

相關(guān)重要報(bào)紙文章 前4條

1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟(jì)日?qǐng)?bào);2001年

2 農(nóng)發(fā)行鹿邑支行黨支部書(shū)記 行長(zhǎng) 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日?qǐng)?bào);2007年

3 東林;行為識(shí)別新技術(shù)讓監(jiān)控沒(méi)有“死角”[N];人民公安報(bào);2007年

4 田凱 徐蕊 李政育 信木祥;博物館安全的國(guó)際經(jīng)驗(yàn)[N];中國(guó)文物報(bào);2014年

相關(guān)博士學(xué)位論文 前10條

1 邵延華;基于計(jì)算機(jī)視覺(jué)的人體行為識(shí)別研究[D];重慶大學(xué);2015年

2 仝鈺;基于條件隨機(jī)場(chǎng)的智能家居行為識(shí)別研究[D];大連海事大學(xué);2015年

3 馮銀付;多模態(tài)人體行為識(shí)別技術(shù)研究[D];浙江大學(xué);2015年

4 姜新波;基于三維骨架序列的人體行為識(shí)別研究[D];山東大學(xué);2015年

5 韓姍姍;基于視覺(jué)的運(yùn)動(dòng)人體特征描述與行為識(shí)別研究[D];浙江工業(yè)大學(xué);2015年

6 裴利沈;視頻中人體行為識(shí)別若干問(wèn)題研究[D];電子科技大學(xué);2016年

7 周同馳;行為識(shí)別中基于局部時(shí)空關(guān)系的特征模型研究[D];東南大學(xué);2016年

8 徐海燕;復(fù)雜環(huán)境下行為識(shí)別特征提取方法研究[D];東南大學(xué);2016年

9 何衛(wèi)華;人體行為識(shí)別關(guān)鍵技術(shù)研究[D];重慶大學(xué);2012年

10 吳秋霞;復(fù)雜場(chǎng)景下的人體行為識(shí)別[D];華南理工大學(xué);2012年

相關(guān)碩士學(xué)位論文 前10條

1 唐小琴;基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究[D];西南大學(xué);2015年

2 胡秋揚(yáng);可穿戴式個(gè)人室內(nèi)位置和行為監(jiān)測(cè)系統(tǒng)[D];浙江大學(xué);2015年

3 陳鈺昕;基于時(shí)空特性的人體行為識(shí)別研究[D];燕山大學(xué);2015年

4 任亮;智能車環(huán)境下車輛典型行為識(shí)別方法研究[D];長(zhǎng)安大學(xué);2015年

5 金澤豪;并行化的人體行為識(shí)別方法研究與實(shí)現(xiàn)[D];華南理工大學(xué);2015年

6 王呈;穿戴式多傳感器人體日常活動(dòng)監(jiān)測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年

7 王露;基于稀疏時(shí)空特征的人體行為識(shí)別研究[D];蘇州大學(xué);2015年

8 于靜;基于物品信息和人體深度信息的行為識(shí)別研究[D];山東大學(xué);2015年

9 章瑜;人體運(yùn)動(dòng)行為識(shí)別相關(guān)方法研究[D];南京師范大學(xué);2015年

10 趙揚(yáng);家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學(xué);2015年

,

本文編號(hào):1405304

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/kejilunwen/xinxigongchenglunwen/1405304.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶da651***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com