基于情感上下文的视觉语音多模态协同情感分析方法研究

基本信息
批准号:61272211
项目类别:面上项目
资助金额:78.00
负责人:毛启容
学科分类:
依托单位:江苏大学
批准年份:2012
结题年份:2016
起止时间:2013-01-01 - 2016-12-31
项目状态: 已结题
项目参与者:詹永照,韩飞,林庆,宋和平,柯佳,刘金平,赵小蕾,董俊健,白李娟
关键词:
情感计算协同决策分析结构化稀疏表示人机交互视觉语音
结项摘要

Vision-speech emotion analysis is one of key problems in harmonious human interaction. In this project, extracted methods of emotional context, postures, speech and expressions, strcutured sparse representation methods and emotion collaborative analysis methods based on emotion agents are researched to analysis emotions accurately in the spontaneous interation enviroment with missing data. The main research contents included: 1) Dynamic extration methods of emotion contextes based on environment and analyzed objects are researched, and these methods can get emotion context information dynamically from the aspects of environments, scenes of actions, personal information of objectes analyzed, speech and vision. 2) Two-level emotion feature extraction methods of postures are researched, and these methods can extract the emotion featrures of postures accurately from each video frame and a sequence of video frames on time. 3)Structured sparsity representation methods of emotion features with the distinguishing capability are researched. This emotion feature representation methods can express the relationships among emotion features and have the nonlinear recognition capability. 4)multi-modal collaborative analysis methods of emotions based on emotion classifing agents are researched. These methods can improve the accuracy and the robustness of the emotion analysis in the real interaction environment by the negotiation and the collaboration among the emotion classifing agents. In a word, the research achievements in this project will accelerate the development of the advanced human-computer interaction technology.

本项目旨在利用情感上下文、姿态、语音以及表情中包含大量情感信息且这些信息互为补充的特性,结合结构化稀疏表示和多情感代理协同分析,解决在部分通道信息丢失的情况下准确分析待分析者情感的问题。本项目主要研究基于情景和分析对象的情感上下文动态提取和分析方法,针对环境、情景、分析者个人信息、语音情感上下文以及视觉上下文研究不同的情感上下文动态提取方法;研究基于视频跟踪的两级姿态情感特征提取方法,从视频帧和视频序列两个角度研究分析对象姿态特征的实时提取方法;研究情感特征结构化稀疏表示方法,该方法能够表示出情感特征之间的关联关系。从而更具有分类鉴别能力;研究基于情感分类代理的多模态协同情感分析方法,融合多通道情感特征,通过情感分类代理的相互协商、协作,优势互补,提高自然交互环境下情感分析的准确性和鲁棒性。本项目的研究成果可应用于开发智能化、人性化的新型人机交互环境,将产生很好的经济效益和社会效益。

项目摘要

情感分析是新型人机交互和人工智能技术中非常重要而又异常困难的问题之一。本项目旨在利用情感上下文、语音以及表情中包含大量情感信息且这些信息互为补充的特性,结合深度学习、迁移学习、图模型、结构化稀疏表示和多模态协同分析,解决自然场景下准确分析待分析者情感的问题。主要研究内容包括:研究可鉴别音频情感特征学习和识别方法,以通过自动学习的方式获得容忍说话人、说话内容变化、环境噪声以及语言变化的情感特征;研究自然场景下人脸表情特征学习和识别方法,使得学习到的表情特征和识别方法能够容忍人脸姿态、光照、分辨率等自然条件的变化;研究情感上下文信息动态学习与分析方法,挖掘情感表达的连续性,改善情感分析的准确度;研究基于视觉语音的多模态情感特征学习、表示和协同决策方法,利用不同模态间信息表达的互补性,协同识别情感状态,提高情感分析的准确性。最后,研发了视觉语音协同的情感分析原型系统。本项目研究对推动人机交互的拟人化、智能化技术发展具有重要的理论意义和实际应用价值。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

基于SSVEP 直接脑控机器人方向和速度研究

基于SSVEP 直接脑控机器人方向和速度研究

DOI:10.16383/j.aas.2016.c150880
发表时间:2016
2

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

DOI:
发表时间:2022
3

基于细粒度词表示的命名实体识别研究

基于细粒度词表示的命名实体识别研究

DOI:10.3969/j.issn.1003-0077.2018.11.009
发表时间:2018
4

基于协同表示的图嵌入鉴别分析在人脸识别中的应用

基于协同表示的图嵌入鉴别分析在人脸识别中的应用

DOI:10.3724/sp.j.1089.2022.19009
发表时间:2022
5

多空间交互协同过滤推荐

多空间交互协同过滤推荐

DOI:10.11896/jsjkx.201100031
发表时间:2021

相似国自然基金

1

基于人脸表情、身体姿态和语音的多模态情感识别方法研究

批准号:61501249
批准年份:2015
负责人:闫静杰
学科分类:F0116
资助金额:19.00
项目类别:青年科学基金项目
2

基于多模态情感识别技术的情感学习模型研究

批准号:60873132
批准年份:2008
负责人:申丽萍
学科分类:F0213
资助金额:20.00
项目类别:面上项目
3

跨文化多模态情感语音的心理、生理及声学研究

批准号:60975081
批准年份:2009
负责人:方强
学科分类:F0605
资助金额:34.00
项目类别:面上项目
4

情感语音音色分析及补偿方法研究

批准号:61771472
批准年份:2017
负责人:刘斌
学科分类:F0117
资助金额:62.00
项目类别:面上项目