天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 社科論文 > 心理論文 >

動態(tài)面孔和語音情緒信息的整合加工及神經生理機制

發(fā)布時間:2018-06-16 05:41

  本文選題:面孔情緒 + 語音情緒 ; 參考:《心理科學進展》2015年07期


【摘要】:面孔、語音情緒信息的整合加工是社會交往的重要技能,近年來逐漸引起心理學、神經科學研究的關注。當前研究較為系統(tǒng)地考察了雙通道情緒信息整合加工的行為表現(xiàn)和影響因素,也很好地回答了"何時整合"與"在哪里整合"兩個認知神經科學關注的問題,但對"面孔、語音情緒信息能否整合為一致情緒客體?雙通道情緒信息在大腦中如何整合為一?"兩個關鍵問題都還缺乏系統(tǒng)研究。因此,本項目擬系統(tǒng)操縱面孔、語音刺激的情緒凸顯度和任務要求,引入動態(tài)面孔-語音刺激以增加外部效度,綜合運用行為和電生理技術,從多角度挖掘數(shù)據(jù),特別是引入神經振蕩(時頻、相干)分析,系統(tǒng)考察動態(tài)性面孔和語音情緒信息是否能整合成一致情緒客體,并在神經振蕩層面探明雙通道情緒信息整合的機制。
[Abstract]:The integration and processing of facial and phonetic emotional information is an important skill in social communication, which has gradually attracted the attention of psychology and neuroscience research in recent years. The present study has systematically examined the behavioral performance and influencing factors of two-channel emotional information integration, and has also answered the questions of "when and where to integrate" and "where to integrate", but also to "face," Can phonetic emotional information be integrated into consistent emotional objects? How do two channels of emotional information integrate into one in the brain? " The two key problems are still lack of systematic research. Therefore, this project intends to systematically manipulate faces, emotional saliency and task requirements of speech stimulation, introduce dynamic face-phonetic stimulation to increase external validity, and comprehensively use behavioral and electrophysiological techniques to mine data from multiple angles. In particular, the neural oscillation (time-frequency, coherent) analysis is introduced to investigate systematically whether dynamic facial and phonetic emotional information can be integrated into consistent emotional objects, and to explore the mechanism of two-channel emotional information integration at the level of neural oscillation.
【作者單位】: 陜西省行為與認知神經科學重點實驗室陜西師范大學心理學院;
【基金】:國家自然科學基金項目(31300835) 教育部人文社科基金(12XJC190003) 中央高;究蒲袠I(yè)務費(14SZYB07)資助
【分類號】:B842

【參考文獻】

相關期刊論文 前3條

1 張亮;孫向紅;張侃;;情緒信息的多通道整合[J];心理科學進展;2009年06期

2 吳奇;申尋兵;傅小蘭;;微表情研究及其應用[J];心理科學進展;2010年09期

3 陳煦海;楊曉虹;楊玉芳;;語音情緒變化內隱加工的神經生理機制[J];心理學報;2013年04期

【共引文獻】

相關期刊論文 前10條

1 時暢;;從“微表情”看訪談節(jié)目中的人際傳播[J];電影評介;2011年18期

2 羅曉;;試論微表情在審訊過程中的運用[J];重慶城市管理職業(yè)學院學報;2012年03期

3 潘峰;;人類微反應識別在課堂行為觀察中的應用初探[J];長春師范學院學報;2013年07期

4 潘峰;;試論微反應識別在學生課堂行為觀察法中的應用——基于課堂教學實踐的思考[J];大理學院學報;2013年08期

5 莫梅鋒;;多感官整合設計理念在廣告中的應用[J];包裝工程;2013年20期

6 石祖強;王震寰;季公俊;宋永瑞;;顳上溝MRI形態(tài)學及拐點的立體定位研究[J];蚌埠醫(yī)學院學報;2014年01期

7 鄭智;;刑訊與五聽:“情實”背后的身體思維模式[J];法律科學(西北政法大學學報);2014年03期

8 謝小劍;顏翔;;論同步錄音錄像的口供功能[J];證據(jù)科學;2014年02期

9 姚洪祥;安寧豫;張熙;王盼;周波;張增強;;遺忘型輕度認知障礙杏仁核功能連接靜息態(tài)縱向變化功能磁共振研究[J];放射學實踐;2014年06期

10 莊東哲;;偵查訊問中的行為科學技術方法[J];中國人民公安大學學報(社會科學版);2014年03期

相關博士學位論文 前10條

1 肖宵;環(huán)境中沖突信息加工的認知與神經機制[D];西南大學;2013年

2 潘發(fā)達;混合情緒加工中的沖突反應[D];華東師范大學;2013年

3 汪海彬;職前教師情緒覺察的特點及優(yōu)化[D];上海師范大學;2013年

4 龍丹;基于多模態(tài)磁共振信息的早期帕金森病影像標記及計算機輔助診斷研究[D];浙江大學;2012年

5 王麗巖;運動信息模式結構特征及中樞加工機制[D];上海體育學院;2013年

6 徐強;場景對面部表情加工的影響[D];華東師范大學;2014年

7 劉青;病理和生理狀態(tài)對嗅球功能活動和連接的影響[D];中國科學院研究生院(武漢物理與數(shù)學研究所);2013年

8 王偉;非注意條件下面孔結構信息自動加工腦機制[D];第四軍醫(yī)大學;2014年

9 于凱;電磁場對神經元網絡同步影響的研究[D];天津大學;2013年

10 劉桂榮;大學生負性情緒問題的文化調適研究[D];安徽師范大學;2014年

【二級參考文獻】

相關期刊論文 前1條

1 江愛世;陳煦海;楊玉芳;;言語情緒韻律加工的時間進程[J];心理科學進展;2009年06期

【相似文獻】

相關會議論文 前8條

1 張紅兵;;混響對語音鑒定影響的研究[A];運輸噪聲的預測與控制——2009全國環(huán)境聲學學術會議論文集[C];2009年

2 徐近霈;劉明寶;楊子云;;高噪環(huán)境下頑健語音特征抽取[A];第三屆全國人機語音通訊學術會議論文集[C];1994年

3 陳俊;孫洪;姜琳峰;;基于語音檢測的回聲抑制[A];武漢市首屆學術年會通信學會2004年學術年會論文集[C];2004年

4 吳超;楊震;;一種采用高頻正弦模型的寬帶語音編碼器[A];第十三屆全國信號處理學術年會(CCSP-2007)論文集[C];2007年

5 姚艷軍;景新幸;;一種基于STRAIGHT模型的語音轉換方法[A];中國聲學學會2009年青年學術會議[CYCA’09]論文集[C];2009年

6 岳振軍;王浩;張雄偉;;基于正弦諧波模型和BP神經網絡的語音變換算法及實現(xiàn)[A];第十二屆全國信號處理學術年會(CCSP-2005)論文集[C];2005年

7 劉亞斌;李愛軍;;朗讀語料與自然口語的差異分析[A];第六屆全國人機語音通訊學術會議論文集[C];2001年

8 徐健;程曉斌;李曉東;;移動電話車載免持底座的研制[A];中國聲學學會2003年青年學術會議[CYCA'03]論文集[C];2003年



本文編號:2025586

資料下載
論文發(fā)表

本文鏈接:http://sikaile.net/shekelunwen/xinlixingwei/2025586.html


Copyright(c)文論論文網All Rights Reserved | 網站地圖 |

版權申明:資料由用戶d4c0a***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com