一、基于支持向量机的语音情感识别(英文)(论文文献综述)
邬卓恒,时小芳[1](2022)在《基于机器学习的语音情感识别技术研究》文中指出针对快速发展的语音情感识别技术,归纳总结了机器学习算法在语音情感识别领域的发展过程并预测语音情感识别技术的发展方向。首先针对语音情感的离散描述模型,总结语音情感识别模型训练和识别算法的一般过程;然后,根据机器学习算法的发展阶段,分别对比分析传统机器学习算法,深度神经网络、卷积神经网络、循环神经网络等深度学习算法与语音情感特征结合在情感识别中优缺点;最后,总结现阶段语音情感识别领域存在的问题,并预测该领域的发展方向。
郭景诗[2](2021)在《基于机器学习的心电信号情绪识别研究》文中研究指明情绪识别和情感计算是人机情感交互的关键环节,也是研究热点。目前的情绪识别主要是基于语音语调、面部表情、身体姿态、文本信息、生理信号等。其中,基于生理信号的情绪识别研究尤为突出,主要包含生理信号的采集、特征提取和特征识别三个方面的研究。论文主要围绕情绪诱发范式的实验设计、心电(Electrocatdiogram,ECG)信号采集与预处理、心电波形检测与心率变异性(Heart Rate Variability,HRV)信号获取、心电和心率变异特征提取以及不同情绪状态下的ECG和HRV信号情感识别等方面进行了相关研究,旨在利用ECG生理信号实现较高的机器情绪识别准确率。主要完成工作和研究内容如下:1).情绪诱发实验范式设计。针对高兴、自豪、恐惧、愤怒4种情绪,通过精心挑选视频片段并打分评价,作为情感诱发素材,采用Superlab软件设计情绪诱发实验范式,诱发被试产生对应的四种正负性情绪。2).心电信号采集与预处理。首先利用MIT-BIH Arrhythmia数据集进行异常心电分析,将病理性心电剔除;再采用Augsburg情感生理数据集中的心电信号进行预处理后,获得纯净的情感心电数据;此外,通过MP150生理信号测量仪,自采集了4种情绪状态下的心电信号,利用Acknowledge 4.4软件去除采集心电信号中的工频干扰、基线漂移和运动伪迹,建立情感心电数据集。3).心电波形检测与HRV信号获取。采用小波变换提取心电信号小波系数的模极值和过零点,设置合适的阈值,检测心电R波,计算其一阶差分,进而获得不同情绪状态下的心率变异性信号。4).情感生理信号的特征提取。采用峰值检测分析法,提取不同情绪状态下的心电信号的时域统计特征,获得7维ECG特征向量;然后,提取心率变异性信号的时域、频域、时频域和非线性域特征,获得14维HRV特征向量。5).机器学习情感特征分类。为了对心电信号和心率变异性信号进行对比,选取心电和心率变异性信号特征,利用不同分类器进行情感识别。对于7维心电和心率变异性信号特征,采用萤火虫算法改进的支持向量机分类器,设计了基于ECG特征以及HRV特征的机器学习情绪分类模型,分别取得了91.5%和93.5%的平均分类正确率;设计子空间K近邻分类器,实现心电和心率变异性信号的情绪识别,分别取得了87.16%和88.78%的平均分类正确率;利用随机森林的树模型分类器算法,对心电以及心率变异性信号特征进行情绪分类识别,分别取得了79.19%和92.97%的分类准确率。此外,融合所提取的14维心率变异性信号特征,采用萤火虫算法改进的支持向量机、子空间K近邻、随机森林三种机器学习分类方法,进行情绪识别,分别取得了95%、91.84%和94.22%的平均分类准确率。6).情绪识别分类器性能评价。对比分析了三种分类器用于生理信号情绪识别的性能,包括改进的支持向量机、子空间K近邻、随机森林方法的情绪识别效果。结果表明:采用三种不同分类器算法,心率变异性信号的情绪识别正确率均高于心电信号;萤火虫算法改进的支持向量机对情绪识别的准确率要高于随机森林和子空间K近邻算法。此外,基于萤火虫算法改进的支持向量机分类器的F1-Score较高,平均为0.94,表明该分类器情绪识别泛化能力较强。因此,提取心率变异性信号多维特征,利用萤火虫算法改进的支持向量机分类方法,可以获得较好的分类性能,更好的实现生理信号情感识别。论文的研究成果在情感机器人、医疗健康、心理学、情境学习、多媒体游戏开发、以及商业领域有着重要的科学与应用价值。
马浩杰[3](2021)在《PAD维度下的深度情感关联模型研究》文中认为如何使计算机正确识别、理解和表述人类语音中的情感信息是人工智能领域是主要研究方向之一。在语音情感识别中,选取合适的情感识别模型是实现情感有效分类的关键之一,但是当前所使用的情感识别模型大多是对情感进行单独划分,并没有考虑到情感之间的相互影响。人类的情感不是独立的,而是以系统的方式相互关联。PAD三维描述模型在维度空间中从愉悦度、激活度以及优势度三个方面描述不同情感,因此,提出用PAD情感维度预测值表征情感之间的关联度,使用PAD情感维度预测值计算关联认知网络的权值,结合多层限制玻尔兹曼机构建深度情感关联模型,实验结果表明,本模型在TYUT2.0情感语音数据库的识别率达到80.85%,在EMO-DB情感语音数据库识别率达到95.74%,是一种可以有效进行情感分类的模型。本文主要研究内容如下:(1)使用PAD情感维度预测值计算情感之间关联度。因不同数据库甚至同一数据库中不同语句的PAD值都是不一样的,如果仅固定使用PAD值(基本情感PAD值)表示情感之间的关联程度会对识别效果造成影响,因此,提出使用PAD情感维度预测的方法针对不同情感语句进行PAD预测,并用预测值计算情感之间的关联程度,将情感关联度作为关联认知网络的权值。通过实验证明其有效性,实验结果表明,使用PAD预测值计算关联认知网络权值的方案在TYUT2.0和EMO-DB的识别率分别为76.60%、91.49%,使用基本情感PAD值计算关联认知网络权值的方案在TYUT2.0和EMO-DB的识别率分别为72.34%、87.23%。实验结果证明,使用PAD情感维度预测值可更好的表示情感之间的关联性。(2)深度情感关联模型超参数优化。为避免深度情感关联模型超参数设置的盲目性,提出使用遗传算法对模型的限制玻尔兹曼机隐含层节点数、动量因子、学习率、多层限制玻尔兹曼机的训练次数以及关联认知网络的训练次数等超参数寻优,并通过对比方案证明其有效性。实验结果表明,使用遗传算法优化模型超参数的方案在TYUT2.0和EMO-DB的识别率分别为78.72%、93.62%,根据经验调参的方案在TYUT2.0和EMODB的识别率分别为72.34%、87.23%。实验结果证明,使用遗传算法对深度关联模型超参数寻优可有效提升模型识别效果。(3)深度情感关联模型的改进。为进一步优化深度情感关联模型的结构,从语音信号时序信息入手,引入可捕获语音信号时序信息的门控循环单元,构建GRUs-ICN模型。实验结果表明,在同使用PAD预测值计算情感之间关联度和手动调参的条件下,GRUsICN模型的识别率为76.71%,深度情感关联模型的识别率为76.60%。实验结果证明,情感语音信号的时序信息有利于语音情感识别。
林萍萍[4](2021)在《基于情感分析的人机谈判研究》文中提出电子商务的发展使得在线交易日益频繁,在线交易规模也日益扩大。消费者与商家的交互越来越多,不可避免地要进行在线谈判。传统的在线谈判方式是低效的人工谈判,人工谈判已经不能满足广大消费者日益增长的潜在需求。随着人工智能技术的发展,智能主体技术已日益成熟,使得电子商务领域的自动谈判成为了可能。智能主体能够随时与人类进行高效的谈判,节约了大量人工成本。因此,人机谈判吸引越来越多的学者的兴趣。目前有很多关于自动谈判系统的研究,大多数是计算机与计算机的自动谈判系统,而关于人机谈判的研究相对较少。即使有少许关于人机谈判的研究,也往往忽略了人类谈判方的情感因素,不能根据人类谈判方的情感采用相应的谈判策略,从而导致谈判对话生硬,用户体验感较差。设计合理的自动谈判系统可以帮助买家和卖家在合理的时间范围内就价格、数量以及其他条款上达成协议。为此,本文以自动谈判理论、谈判心理学为基础,利用情感分析技术,设计新的谈判策略,并研发出了具备情感能力的人机谈判系统。本文主要有以下几个方面的贡献。第一、综述了情感分析、自动谈判、人机谈判以及对话系统。我们详细分析和比较了情感分析技术以及其广泛应用,对比了情感分析技术在不同领域的应用,并说明可以继续研究的方向。第二、创新性地将情感分析引入到人机谈判中,提出了相应情感分析方法。第三、设计基于情感的人机谈判策略。第四、利用自然语言处理技术、情感分析技术、对话系统技术开发出了人机谈判系统。第五、进行大量实验证实我们融入情感分析的人机谈判系统能够提高谈判双方的联合效用,并且提升人类谈判方的体验感。因此,我们的人机谈判系统是有效的,能很好地满足当下电子商务的需求。
李鹤[5](2021)在《融合非线性熵的语音情感识别》文中研究指明
江东霖[6](2021)在《一种多模态信息融合的语音情感识别研究》文中研究表明沟通是人类表达思想的关键方式。在所有的沟通方式中,语言是人类最喜欢也是最有效的交流方式。当今社会物联网(IOT)正在迅速发展,产生了各式各样更智能、更便捷的应用,范围从简单的可穿戴设备或小部件到复杂的自动化设备,给人们的日常生活带来了极大的便利。智能应用程序是交互式的,需要用户进行一定的具体操作指令来使用,其主要实现方式是通过语音输入令智能设备发挥作用。语言感知器可以检测出说话者包括性别、年龄、语言类型和情感等多方面信息,这就为计算机应用程序理解人类语言创造了必要条件。为了分析说话人的情感状态,许多应用中同时使用了现有的语音识别系统和情感检测系统。情感检测系统的性能指标可以体现出IOT应用程序的使用状态,并以此为基础提供更好的改进方法。改进多模态融合机制是提高情感识别系统性能的决定性因素。现有的大多数多模态情感识别系统只是把从不同模态中提取到的特征进行级联,在传统分类算法中使用这种方法所面临的主要问题是不同模态所携带的信息会产生信息冲突和冗余等问题。此外,将不同模态的特征向量串联起来形成高维特征向量的方法会忽略模态之间的隐含相关性。当前的首要任务是尽量减少音频和视觉模态中信息冲突和冗余对多模态情感识别系统的影响。针对上述问题,本研究提出了一种新的视听内容与用户评论文本融合的混合融合方法。该方法采用潜在空间平面特征级融合方法融合音频和视觉信号,并通过计算两种模态间的相关性去除冗余特征,然后再利用DS证据理论对视听模态和文本模态进行融合。该方法解决了音频和视频中信息冗余和冲突的问题。在本文所提出的方法中引入边际Fisher分析(MFA)并与跨模态因子分析(CFA)、典型相关分析(CCA)方法进行比较,实验结果表明,本文的方法具有更好的性能。虽然已经有一些类似的研究通过保持模态间的统计相关性来解决特征级融合中的冗余问题,但并没有运用于决策级融合。换句话说,现有的方法要么使用特征级潜在空间平面融合方法,要么使用证据理论方法融合视听和文本模态,并通过DEAP数据集进行实验,结果表明该方法优于普通决策级融合和非潜在空间平面融合。此外,与交叉模态因子分析(CFA)和典型相关分析(CCA)相比,采用边缘Fisher分析(MFA)进行特征级视听融合的效果更好。
李茜茜,沈晓燕,任福继,康鑫[7](2021)在《面向数据增强的多种语音情感分类算法研究》文中提出目前语音情感识别存在语音样本不足、提取的特征数据量大和无关特征多使得识别率不高的问题。针对语音样本不足的情况,在预处理阶段提出了时频域的数据增强方法,对原有的数据库进行扩充;根据传统算法中提取的特征数据量大且与情感无关的特征多的现状,提取了1 582维的情感特征和10组低级描述特征。分别在支持向量机、随机森林和K最邻近3种机器学习算法上做了对比实验。实验证明:支持向量机的平均识别率比较好。在所提取的10组特征组中,LogMelFreqBand特征在3种算法上的精确度分别为74.63%、64.93%和66.42%;而pcmfftMagmfcc特征的精确度分别为84.33%、73.13%和58.21%。
塔什甫拉提·尼扎木丁(NIZAMIDIN Tashpolat)[8](2021)在《维吾尔语语音情感特征分析与识别算法研究》文中进行了进一步梳理机器翻译,自动语音识别等领域已经被研究了半个多世纪。这些系统要实现功能是在人与机器,甚至在机器与机器之间能够像人与人一样自然地进行互动。传统的语音识别系统只对说话人的讲话内容进行语音到文字的转换,而不考虑说话人的状态、情绪等特征。语音情感识别正是研究说话人的情感状态。但是相比于语音识别等传统任务,语音情感识别任务缺少大规模的情感语音数据库,而且很多种语言没有情感语音数据库。因此,通过传统深度学习的方法进行语音情感识别效果不佳。针对上述问题,本文从数据库建立、特征空间变换及模型建立方面进行研究,主要做了以下工作:1.针对国内少数民族语言语音情感数据库空白的问题,本课题设计了相关实验场景并建立了维吾尔语语音情感数据库。母语为维吾尔语的20名表演者(10名女性和10名男性)模拟6种情绪,总共收集了1200个语音情感样本。表演人员在录制过程中被情感场景句子诱发对应的情感,从而逼近真实的情感语音。基于上述维吾尔语语音情感数据库分析了各情感语音的声学特征,以及观察声学特征对语音情感识别的区分能力。2.情感特征空间的学习是语音情感领域最重要的一个研究方向,为了在语音情感识别中获得高效、紧凑的低维特征,本文提出了一种新的基于不确定线性判别分析的特征约简方法。用与传统LDA相同的原则,在最大判别方向的估计中引入带噪声或失真输入数据的不确定性。在维吾尔语语音情感识别任务上验证了不确定性判别分析的有效性。获得了比其他常用降维技术更好的结果。实验结果表明,采用适当的不确定性估计算法时,在维吾尔语音情感识别任务上,不确定性线性判别分析(ULDA)算法优于传统LDA降维算法。另外,本文又提出了一种原子表示模型的分类方法实现维吾尔语语音情感识别。基于表示模型的分类算法,如稀疏表示方法,近年来在模式识别领域引起人们的极大兴趣,而且获得了较好的效果。有效的表示情感特征对语音情感识别效果影响较大。从维吾尔语语音中提取情感特征,用原子表示模型对这些提取的情感特征空间进行建模,在构建好的情感空间模型中选出最逼近的情感类别,从而达到情感识别的目的。本文所提出的方法实验结果表明,该方法优于传统方法,在维吾尔语情感语音库上的识别率达到64.17%。3.目前的深度学习方法在使用大量的训练数据时可以取得很好的效果,但是语音情感语料库训练实例的不足使得常用的深度学习方法很难达到令人满意的结果。因此,本文提出了一种孪生神经网络框架,该网络通过成对训练,可以在有限的数据下训练并取得较好的效果,缓解样本不足带来的影响,并提供足够的迭代次数。在孪生网络的框架中,我们设计了两个基于注意力机制的长短期记忆网络,对称的两个网络互相分享权重,并且我们给这些网络按循序地输入帧级特征,而不是整个语音静态的统计特征,以保留原始语音中的时序信息。结果表明,与传统的深度学习方法相比,该方法在语音情感识别结果上有了显着的提高。另外,为了有效解决退化问题,本文提出了一种基于注意力的密集LSTM语音情感识别方法。在LSTM网络中引入基于注意力的密集连接,构造了能够处理语音等时间序列的LSTM网络。即在每层的跳转连接中加入权重系数,以区分层间情感信息的差异,避免底层冗余信息对上层有效信息的干扰。实验结果表明,该方法在e NTERFACE和IEMOCAP语料库上的识别性能分别提高了12%和7%。4.针对现有情感计算算法中存在情感跟踪延迟及忽视情感状态连续性的问题,本文提出了一种结合数据场情感空间和混合蛙跳算法的连续语音情感变化趋势检测技术。首先构建数据场情感空间,利用情感特征量模拟数据场粒子,用势能函数描述粒子之间的相互作用,然后运用混合蛙跳算法技术,用青蛙个体来模拟情感状态变化过程中的情感特征量,得到情感变化的趋势。通过对变化趋势的分析,可以达到情感预测的目的。经实验证明,该算法性能比现有算法有较大的改进。
王嵩[9](2021)在《基于特征融合的多模态情感识别研究》文中提出作为人机交互的重要组成部分,人类的情感识别研究得到了越来越多的关注。情感识别与人类日常生活密切相关,如果机器能有效地效识别用户的情感状态,在提高人机交互效果的同时,还能够避免发生事故和面对危险。从人脸的面部表情序列中可以提取表情特征,从人的语音信号中可以提取声音特征,单一模式的情感识别是分别针对表情特征或者是语音特征来进行的,多模态的识别就是把这二者相结合来进行情感识别。对于人脸的面部表情特征,本文需要首先获取视频中的关键帧,对关键帧进行处理,采用Adaboost算法来把人脸检测出来,然后是预处理,提取Dense SIFT特征,最后使用多核支持向量机分类器进行情感识别。基于语音特征的情感识别,在进行时域和频域分析的基础上,本文分别提取MFCC特征、LPCC特征,并且将MFCC与LPCC进行特征融合,使用多核支持向量机来实现情感识别。在多模态融合方法上,首先研究了串行融合、PCA融合和CCA等比较经典的融合方式,在此基础上,采用基于深度学习的特征融合方法,对两种模态的特征进行融合。该方法模拟了人脑的认知过程,所以它的融合结果更加符合实际情况。分别将表情和语音这两种模态的特征训练得出两个受限玻尔兹曼机,然后将二者的输出进行融合,得到一个新的融合特征,送入多核支持向量机分类器进行情感识别。本文在SAVEE数据集上设计并实现单一模态和多模态情感识别系统,对视频里的表情进行实时识别,展示出一定的泛化性能,并且系统还以日志形式记录了训练过程,取得了较好的识别结果。
刘胜西[10](2020)在《基于视频学习环境下的眼动信号情感识别研究》文中研究指明在线学习环境中,由于教师和学生时空的隔离,普遍存在情感缺失问题。学习者的学习效果会受到学习者的情感状态影响,学习者处于积极的情感状态时,对学习者的学习有促进作用,处于负向情感状态时,会降低学习者的学习效率。在线学习环境下,精准识别学习者的情感状态,当学习者出现负向情感时,给予情感支持将有效地提升学习者的学习效果和学习体验,因此研究一种在线视频学习环境下,对学习者无干扰且能精准地识别学习者情感状态的方法就显得尤为必要。本文是基于视频学习环境下眼动信息情感识别进行了研究。围绕这一主题,我们做了以下工作:(1)设计情感及眼动数据采集方案并实施,采集所需要的实验数据。采用眼动仪获取眼动信息,通过划分不同时间窗口的数据集,探究了不同时间窗口大小对结果的影响。对数据进行预处理,去除异常值和缺省值,对数据进行归一化。(2)使用机器学习算法构建分类器对眼动数据进行分类。首先把数据按照5秒、10秒和15秒的时间窗口进行设置,然后对眼动信息与情感状态进行相关性分析,得到与情感状态最相关的眼动信息,如注视、眼跳、眨眼和瞳孔直径等信息。最终得到了27个眼动特征并将数据做好标签。把数据按一定比例分为训练集和测试集。使用支持向量机、随机森林和朴素贝叶斯算法对数据进行学习,经过实验发现在10秒的时间窗口下,支持向量机获得了72%的分类结果。(3)改进一个基于子网络块堆叠的网络FCCNs用于对眼动数据进行分类。子网络包含了四路并联结构,第一路为一个最大池化的池化层,加上一个卷积层,获取图像的低频特征;第二路为一个平均池化的池化层,加上一个卷积层,用来进行压缩,减少模型参数;第三路为一个卷积层;第四路为两个卷积层,目的同样可以减少模型参数。将第四路的输出和压缩子网输出通过concat运算进行融合,将浅层特征和深层特征融合输出,再通过一个concat运算将四路输出融合成为一个可以用来堆叠的子网络。将每一个子网络后加一个最大池化层生成一个层,最终形成一个具有5层结构的网络。(4)将眼动数值型数据跨模态转换为图片型,通过加噪和翻转进行数据增强,使用不同深度的神经网络如Alex Net、VGG-16、Goog Le Net和Res Net-34进行了实验,实验结果表明:在5秒的时间窗口下,本文设计的FCNNs网络上获得了91.62%的分类准确率。
二、基于支持向量机的语音情感识别(英文)(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于支持向量机的语音情感识别(英文)(论文提纲范文)
(1)基于机器学习的语音情感识别技术研究(论文提纲范文)
0 引言 |
1 语音情感识别 |
2 语音情感技术的发展 |
3 传统的机器学习算法 |
4 深度学习算法 |
5 总结与展望 |
(2)基于机器学习的心电信号情绪识别研究(论文提纲范文)
缩略语表 |
中文摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 情绪识别的研究现状 |
1.2.2 生理信号情绪识别研究现状 |
1.2.3 情绪识别的应用现状 |
1.3 目前存在的问题 |
1.4 主要研究内容与论文结构 |
1.4.1 主要研究内容 |
1.4.2 论文结构 |
第二章 情绪模型及心电信号概述 |
2.1 情绪的生理机制和情感模型分类 |
2.2 生理信号概述 |
2.2.1 心电信号 |
2.2.2 心率变异性 |
2.3 本章小结 |
第三章 数据来源与心电信号处理 |
3.1 MIT-BIH Arrhythmia数据集简介 |
3.2 Augsburg生理数据集 |
3.2.1 Augsburg数据集简介 |
3.2.2 ECG信号预处理 |
3.2.3 心电信号波形检测 |
3.2.4 HRV特征信号获取 |
3.2.5 数据集扩增 |
3.3 情绪诱发实验范式设计 |
3.3.1 情绪诱发方式与素材的选取 |
3.3.2 情绪诱发实验范式设计 |
3.4 心电数据采集实验设计 |
3.4.1 实验方法 |
3.4.2 心电数据采集 |
3.5 心电信号预处理 |
3.5.1 去除基线漂移与伪迹 |
3.5.2 去除工频干扰 |
3.6 本章小结 |
第四章 特征提取与分析 |
4.1 引言 |
4.2 心律不齐心电特征提取与分析 |
4.2.1 特征提取 |
4.2.2 特征分析 |
4.3 情感生理数据的特征提取与分析 |
4.3.1 ECG时域特征提取 |
4.3.2 HRV时域特征提取 |
4.3.3 HRV频域特征提取 |
4.3.4 HRV信号时频特征提取 |
4.3.5 HRV非线性特征提取 |
4.3.6 特征分析 |
4.4 自采情绪心电数据特征提取与分析 |
4.4.1 心电特征提取 |
4.4.2 特征分析 |
4.5 本章小结 |
第五章 基于机器学习的生理信号情绪识别 |
5.1 支持向量机 |
5.1.1 SVM基本理论 |
5.1.2 萤火虫算法改进的支持向量机 |
5.1.3 算法实现 |
5.1.4 模型测试与结果 |
5.1.5 结果分析 |
5.2 K近邻算法 |
5.2.1 KNN基本理论 |
5.2.2 子空间KNN |
5.2.3 算法实现 |
5.2.4 模型测试与结果 |
5.2.5 结果分析 |
5.3 随机森林算法 |
5.3.1 决策树 |
5.3.2 随机森林基本理论 |
5.3.3 算法实现 |
5.3.4 模型测试和结果 |
5.3.5 结果分析 |
5.4 机器学习算法对比分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
攻读学位期间取得的研究成果 |
致谢 |
个人简况及联系方式 |
(3)PAD维度下的深度情感关联模型研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 情感语音数据库国内外研究现状 |
1.2.2 语音情感特征国内外研究现状 |
1.2.3 情感识别模型国内外研究现状 |
1.3 语音情感识别研究面临的问题 |
1.4 研究内容及结构安排 |
第二章 语音情感识别相关理论 |
2.1 情感语音数据库及语音信号预处理 |
2.1.1 情感语音数据库 |
2.1.2 语音信号预处理 |
2.2 情感语音信号特征参数提取 |
2.2.1 韵律特征 |
2.2.2 梅尔倒谱系数 |
2.2.3 非线性特征 |
2.3 情感描述模型 |
2.3.1 离散情感描述模型 |
2.3.2 维度情感描述模型 |
2.4 语音情感识别常用模型 |
2.4.1 隐马尔可夫模型 |
2.4.2 支持向量机 |
2.4.3 深度置信网络 |
2.5 本章小结 |
第三章 基于PAD情感维度预测模型和深度情感关联模型的语音情感识别 |
3.1 PAD情感维度预测模型 |
3.1.1 PAD三维空间模型 |
3.1.2 PAD值预测模型 |
3.2 深度情感关联模型 |
3.2.1 限制玻尔兹曼机 |
3.2.2 关联认知网络 |
3.3 遗传算法优化超参数 |
3.4 PAD维度下的深度情感关联模型 |
3.5 基于PAD预测模型和深度情感关联模型的语音情感识别 |
3.5.1 实验环境及实验数据 |
3.5.2 PAD维度预测 |
3.5.3 实验方案 |
3.5.4 实验结果及分析 |
3.6 本章小结 |
第四章 改进深度情感关联模型的语音情感识别 |
4.1 循环神经网络 |
4.1.1 长短时记忆网络 |
4.1.2 门控循环单元 |
4.1.3 LSTM和GRU对比 |
4.2 GRUs-ICN模型 |
4.3 基于GRUs-ICN的语音情感识别实验 |
4.3.1 实验环境及实验数据 |
4.3.2 情感关联度计算 |
4.3.3 模型超参数设置 |
4.3.4 实验方案 |
4.3.5 实验结果及分析 |
4.4 本章小结 |
第五章 总结与展望 |
5.1 工作总结 |
5.2 工作展望 |
参考文献 |
攻读学位期间取得的研究成果 |
致谢 |
(4)基于情感分析的人机谈判研究(论文提纲范文)
摘要 |
Abstract |
第1章 引言 |
1.1 研究背景 |
1.2 动机 |
1.2.1 情感因素对于人类谈判的影响 |
1.2.2 情感因素对于人机谈判的影响 |
1.2.3 研发基于情感的人机谈判系统的意义 |
1.3 研究思路和技术路线 |
1.4 本文的主要贡献 |
1.5 本文的组织结构 |
第2章 文献综述 |
2.1 引言 |
2.2 基于机器学习的情感分析 |
2.2.1 基于线性分类器的方法 |
2.2.2 基于概率分类器的方法 |
2.2.3 其它基于机器学习的方法 |
2.2.4 讨论 |
2.2.5 小结 |
2.3 基于深度学习的情感分析 |
2.3.1 基于卷积神经网络的方法 |
2.3.2 基于循环神经网络的方法 |
2.3.3 混合的方法 |
2.3.4 其它基于深度学习的方法 |
2.3.5 多模态的情感分析 |
2.3.6 小结 |
2.4 情感分析技术的应用 |
2.4.1 商业应用 |
2.4.2 中国的智能客服系统 |
2.4.3 非商业应用 |
2.4.4 关系和事件预测 |
2.4.5 对话系统 |
2.4.6 讨论与挑战 |
2.4.7 小结 |
2.5 自动谈判 |
2.5.1 机器对机器的自动谈判 |
2.5.2 人机自动谈判 |
2.6 对话系统 |
2.6.1 对话理解 |
2.6.2 对话管理 |
2.6.3 对话生成 |
2.7 本章小结 |
第3章 系统结构及原理 |
3.1 引言 |
3.2 模型定义 |
3.3 系统框架 |
3.4 系统主函数 |
3.5 界面设计 |
3.6 情感分类 |
3.6.1 情感分类标准 |
3.6.2 情感强度分类标准 |
3.6.3 情感关键词库 |
3.7 意图特征和情感特征抽取 |
3.7.1 意图特征抽取 |
3.7.2 情感特征抽取 |
3.8 意图分类 |
3.9 情感分类 |
3.10 价格特征词及其值抽取 |
3.11 谈判决策 |
3.11.1 安抚策略 |
3.11.2 让步策略 |
3.11.3 谈判算法 |
3.12 生成回复 |
3.13 本章小结 |
第4章 系统的实现 |
4.1 概述 |
4.2 收集语料与预处理 |
4.3 交互界面 |
4.4 意图和情感特征抽取 |
4.5 意图识别与分类 |
4.6 情感识别与分类 |
4.7 价格特征及其值抽取 |
4.8 谈判策略 |
4.9 生成回复 |
4.10 本章小结 |
第5章 谈判实例与分析 |
5.1 谈判成功样例分析 |
5.2 谈判破裂样例分析 |
5.3 两样例总分析 |
5.4 本章小结 |
第6章 系统评估与分析 |
6.1 意图和情感分类模型的性能评估 |
6.2 谈判成功率 |
6.3 谈判结果的效用 |
6.4 人类谈判对手满意度 |
6.5 本章小结 |
第7章 结束语 |
7.1 总结 |
7.2 展望 |
参考文献 |
附录A 部分意图语料 |
A.1 问候意图类 |
A.2 讲价意图类 |
A.3 破裂意图类 |
A.4 成交意图类 |
附录B 部分情感语料 |
B.1 愤怒情感类 |
B.2 生气情感类 |
B.3 失望情感类 |
B.4 着急情感类 |
B.5 担心情感类 |
B.6 委屈情感类 |
B.7 高兴情感类 |
B.8 感激情感类 |
附录C 部分回复模板 |
C.1 愤怒回复模板库 |
C.2 生气回复模板库 |
C.3 失望回复模板库 |
C.4 着急回复模板库 |
C.5 担心回复模板库 |
C.6 委屈回复模板库 |
C.7 高兴回复模板库 |
C.8 感激回复模板库 |
C.9 问候类回复模板库 |
C.10 讲价类回复模板库 |
C.11 破裂类回复模板库 |
C.12 成交类回复模板库 |
读硕期间获得的成果与奖励 |
致谢 |
(6)一种多模态信息融合的语音情感识别研究(论文提纲范文)
摘要 |
Abstract |
第一章 引言 |
1.1 语音情感识别研究背景 |
1.2 语音情感识别研究意义 |
1.3 语音情感识别国内外研究现状 |
1.4 语音情感识别研究动机及主要研究内容 |
1.5 本文组织结构 |
第二章 语音情感识别基础知识 |
2.1 主要概念 |
2.2 语音数据预处理 |
2.2.1 特征提取与选择 |
2.2.2 特征分类 |
2.2.3 语音情感数据库 |
2.3 本章小结 |
第三章 面部表情识别与语音情感识别主要方法概述 |
3.1 面部表情识别过程 |
3.1.1 人脸检测 |
3.1.2 人脸追踪 |
3.1.3 面部特征提取 |
3.1.4 面部情感分类 |
3.2 基于深度学习的语音情感识别 |
3.2.1 基于深度神经网络的情感识别 |
3.2.2 基于循环神经网络的情感识别 |
3.3 本章小结 |
第四章 多模态信息融合的语音情感识别 |
4.1 研究思路介绍 |
4.2 本文提出的识别模型 |
4.2.1 多模态语音情感识别 |
4.2.2 潜在空间平面融合方法 |
4.2.3 基于多模态信息融合的方法 |
4.3 实验分析 |
4.3.1 数据集和评估指标 |
4.3.2 特征融合效果 |
4.3.3 决策融合的效果 |
4.4 本章小结 |
第五章 总结与展望 |
参考文献 |
致谢 |
个人简历 |
(8)维吾尔语语音情感特征分析与识别算法研究(论文提纲范文)
摘要 |
Abstract |
缩略语 |
第1章 绪论 |
1.1. 研究背景 |
1.2. 情感语音的常规处理 |
1.2.1. 预处理 |
1.2.2. 情感特征 |
1.2.3. 情感识别的常用算法 |
1.2.3.1. 隐马尔可夫模型 |
1.2.3.2. 高斯混合模型 |
1.2.3.3. 支持向量机模型 |
1.2.3.4. 决策树模型 |
1.2.3.5. 长短记忆神经网络 |
1.2.4. 评价指标 |
1.3. 情感数据库 |
1.4. 语音情感识别的挑战 |
1.5. 本文研究内容与结构安排 |
1.5.1. 本文研究内容 |
1.5.2. 章节安排 |
第2章 维吾尔语情感语音的数据采集与特征分析 |
2.1. 数据采集 |
2.2. 维吾尔语语音的情感特征分析 |
2.2.1. 短时能量 |
2.2.2. 短时过零率 |
2.2.3. 基音周期 |
2.2.4. 响度 |
2.3. 主流情感库的情感特征分析 |
2.4. 实验设置与分析 |
2.5. 本章小结 |
第3章 基于特征空间变换的语音情感识别 |
3.1. 基于不确定性判别分析的语音情感识别 |
3.1.1. 引言 |
3.1.2. 基本理论 |
3.1.3. 基于不确定性线性判别分析的语音情感识别 |
3.1.4. 实验设置 |
3.1.5. 本节结论 |
3.2. 基于原子表示法的维吾尔语语音情感识别算法 |
3.2.1. 引言 |
3.2.2. 基于原子表示法的维吾尔语语音情感识别算法 |
3.2.2.1. 原子表示法的分类算法 |
3.2.2.2. 优化算法 |
3.2.3. 情感识别结果及分析 |
3.2.3.1. 情感识别实验结果 |
3.2.4. 本节结论 |
第4章 基于注意力LSTM网络的语音情感识别算法 |
4.1. 基于孪生注意力LSTM网络的语音情感识别算法 |
4.1.1. 引言 |
4.1.2. 相关工作 |
4.1.2.1. 孪生网络 |
4.1.2.2. 传统长短时记忆网络 |
4.1.3. 孪生注意力LSTM |
4.1.3.1. 注意力LSTM |
4.1.3.2. 孪生损失函数 |
4.1.4. 实验 |
4.2. 基于跳跃结构LSTM的语音情感识别 |
4.2.1. 引言 |
4.2.2. 基于注意力的跳跃连接LSTM |
4.2.2.1. 时间维度的注意力权重 |
4.2.2.2. 特征维度的注意力权重 |
4.2.3. 实验结果与分析 |
4.2.3.1. 实验设置 |
4.2.3.2. 情感特征 |
4.2.3.3. 收敛性能比较 |
4.2.3.4. 方法性能比较 |
4.2.4. 本节小结 |
第5章 结合数据场情感空间和混合蛙跳算法的连续语音情感变化趋势检测 |
5.1. 引言 |
5.2. 情感空间模型的建立 |
5.2.1. 对情感的理解 |
5.2.2. 数据场的引入 |
5.2.3. 数据场模拟情感空间 |
5.3. 数据场情感空间与混合蛙跳算法的结合 |
5.3.1. 连续语音中情感变化的研究 |
5.3.2. 混合蛙跳算法 |
5.3.3. 数据场情感空间与混合蛙跳算法的结合 |
5.4. 实验结果与分析 |
5.4.1. 情感识别实验结果的比较和分析 |
5.4.2. 情感预测结果 |
5.5. 本章小结 |
第6章 总结与展望 |
6.1. 总结 |
6.2. 展望 |
致谢 |
参考文献 |
作者在攻读博士学位期间研究成果 |
(9)基于特征融合的多模态情感识别研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 论文研究的目的与意义 |
1.2 国内外研究现状分析 |
1.3 论文的研究内容和结构安排 |
第2章 情感识别的基础理论 |
2.1 情感数据集 |
2.2 情感识别算法 |
2.2.1 支持向量机 |
2.2.2 隐马尔可夫模型 |
2.2.3 人工神经网络 |
2.3 本章小结 |
第3章 基于面部表情特征的情感识别 |
3.1 人脸视频图像的预处理 |
3.1.1 关键帧提取 |
3.1.2 图像灰度化 |
3.1.3 图像二值化 |
3.1.4 光照补偿 |
3.2 人脸检测 |
3.3 几何归一化 |
3.4 Dense SIFT特征提取 |
3.5 K-means聚类 |
3.6 基于人脸面部表情特征的情感识别 |
3.7 本章小结 |
第4章 基于语音特征的情感识别 |
4.1 语音信号的预处理 |
4.1.1 预加重 |
4.1.2 加窗分帧 |
4.1.3 端点检测 |
4.2 基于LPCC特征的情感识别 |
4.2.1 LPCC特征提取 |
4.2.2 基于LPCC特征的情感识别实验 |
4.3 基于MFCC特征的情感识别 |
4.3.1 MFCC特征提取 |
4.3.2 基于MFCC特征的情感识别实验 |
4.4 两种特征融合的情感识别 |
4.5 本章小结 |
第5章 基于特征融合的多模态情感识别 |
5.1 多模态融合 |
5.1.1 串行融合 |
5.1.2 PCA融合 |
5.1.3 CCA融合 |
5.1.4 基于深度学习的融合 |
5.2 实验仿真与结果分析 |
5.3 本章小结 |
结论 |
参考文献 |
攻读硕士期间发表的论文和获得的研究成果 |
致谢 |
个人简历 |
(10)基于视频学习环境下的眼动信号情感识别研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 研究现状 |
1.2.1 基于生理信号的情感识别研究方法 |
1.2.2 基于非生理信号的情感识别研究方法 |
1.3 本文研究的主要内容 |
1.4 论文结构安排 |
第二章 基于生理信号的情感识别研究综述 |
2.1 情感的相关研究 |
2.1.1 情感 |
2.1.2 情感计算 |
2.2 常见的人类情感分类模型 |
2.3 常见的情感识别数据库 |
2.4 用于情感识别的生理信号 |
2.4.1 基于脑电的情感识别 |
2.4.2 基于眼动信号的情感识别研究 |
2.4.3 基于其他生理信号的情感识别研究 |
2.5 本章小结 |
第三章 眼动数据采集实验设计 |
3.1 刺激材料和标注模型的选取 |
3.1.1 刺激材料 |
3.1.2 情感模型选择 |
3.2 实验环境和实验被试信息 |
3.2.1 实验设备与环境 |
3.2.2 实验被试信息 |
3.3 实验过程 |
3.4 实验数据收集与处理 |
3.4.1 数据筛选 |
3.4.2 不同时间窗口数据集 |
3.5 本章小结 |
第四章 基于传统机器学习的眼动情感识别 |
4.1 眼动信号预处理和特征选择 |
4.1.1 眼动信号的预处理 |
4.1.2 眼动信号特征 |
4.1.3 眼动特征相关性分析 |
4.1.4 眼动特征选择 |
4.2 情感分类器介绍 |
4.2.1 支持向量机 |
4.2.2 随机森林 |
4.2.3 朴素贝叶斯 |
4.3 分类效果评价指标 |
4.4 情感分类模型的构建 |
4.5 不同时间窗下模型参数 |
4.6 情感分类模型的分类效果 |
4.6.1 模型评价 |
4.7 对模型分类结果的讨论 |
4.8 本章小结 |
第五章 基于深度学习的眼动情感识别 |
5.1 卷积神经网络的发展 |
5.2 数据模态转换 |
5.3 FCNNs网络 |
5.4 实验过程和结果 |
5.4.1 实验过程 |
5.4.2 实验结果 |
5.5 采用不同的研究方法进行眼动情感识别的分析 |
5.6 本章小结 |
第六章 总结展望 |
6.1 研究工作总结 |
6.2 未来工作展望 |
参考文献 |
个人简历、申请学位期间的研究成果及学术论文 |
致谢 |
四、基于支持向量机的语音情感识别(英文)(论文参考文献)
- [1]基于机器学习的语音情感识别技术研究[J]. 邬卓恒,时小芳. 信息技术与信息化, 2022(01)
- [2]基于机器学习的心电信号情绪识别研究[D]. 郭景诗. 山西大学, 2021
- [3]PAD维度下的深度情感关联模型研究[D]. 马浩杰. 太原理工大学, 2021(01)
- [4]基于情感分析的人机谈判研究[D]. 林萍萍. 广西师范大学, 2021(09)
- [5]融合非线性熵的语音情感识别[D]. 李鹤. 南京师范大学, 2021
- [6]一种多模态信息融合的语音情感识别研究[D]. 江东霖. 沈阳师范大学, 2021(09)
- [7]面向数据增强的多种语音情感分类算法研究[J]. 李茜茜,沈晓燕,任福继,康鑫. 智能系统学报, 2021(01)
- [8]维吾尔语语音情感特征分析与识别算法研究[D]. 塔什甫拉提·尼扎木丁(NIZAMIDIN Tashpolat). 东南大学, 2021(02)
- [9]基于特征融合的多模态情感识别研究[D]. 王嵩. 哈尔滨工程大学, 2021
- [10]基于视频学习环境下的眼动信号情感识别研究[D]. 刘胜西. 桂林理工大学, 2020(07)