基于情绪识别的智能会话方法、装置及计算机设备

文档序号:1710352 发布日期:2019-12-13 浏览:19次 >En<

阅读说明:本技术 基于情绪识别的智能会话方法、装置及计算机设备 (Intelligent conversation method and device based on emotion recognition and computer equipment ) 是由 丰惠 于 2019-09-11 设计创作,主要内容包括:本发明公开了基于情绪识别的智能会话方法、装置、计算机设备及存储介质。该方法先基于当前用户语音数据的语音进行情感识别得到第一情绪识别结果,然后基于当前用户语音数据对应的文本数据及与当前文本数据的时序顺序间隔在间隔值内的历史文本数据集合共同识别得到第二情绪识别结果,以第一情绪识别结果和第二情绪识别结果分别对应的识别值中的最小值作为对应的当前情绪识别结果,最后根据当前文本数据及当前情绪识别结果在答复数据库内获取与其相似度为最大值的当前答复文本,将其对应转化为当前答复语音数据后发送至用户端。该方法实现了基于当前用户语音数据和其对应的前文及本句文本数据来共同识别用户情绪,以推送最佳答复至用户端。(The invention discloses an intelligent conversation method and device based on emotion recognition, computer equipment and a storage medium. According to the method, emotion recognition is carried out on the basis of voice of current user voice data to obtain a first emotion recognition result, then, the first emotion recognition result is obtained through common recognition on the basis of text data corresponding to the current user voice data and a historical text data set, wherein the historical text data set is spaced in an interval value with the time sequence of the current text data, the second emotion recognition result is obtained, the minimum value of recognition values corresponding to the first emotion recognition result and the second emotion recognition result is used as the corresponding current emotion recognition result, finally, a current reply text with the similarity as the maximum value is obtained in a reply database according to the current text data and the current emotion recognition result, and the current reply text is correspondingly converted into current reply voice data and then sent to a user side. The method realizes the common recognition of the emotion of the user based on the voice data of the current user and the corresponding preamble and text data of the current user so as to push the best answer to the user side.)

基于情绪识别的智能会话方法、装置及计算机设备

技术领域

本发明涉及语音语义技术领域,尤其涉及一种基于情绪识别的智能会话方法、装置、计算机设备及存储介质。

背景技术

目前,智能客服机器人在各行业得到了广泛应用,智能语音导航、在线机器人和金牌话术等模拟的AI(AI即人工智能)场景包括服务场景,都是人工智能在客服领域的重要应用。目前的智能客服机器在与用户进行沟通时,一般仅仅是针对用户的当前提问在答复数据库中检索对应答复后进行回复,无法识别用户当前的情绪以推送更加符合当前对话的答复。

发明内容

本发明实施例提供了一种基于情绪识别的智能会话方法、装置、计算机设备及存储介质,旨在解决现有技术中智能客服机器在与用户进行沟通时,一般仅仅是针对用户的当前提问在答复数据库中检索对应答复后进行回复,无法识别用户当前的情绪以推送更加符合当前对话的答复的问题。

第一方面,本发明实施例提供了一种基于情绪识别的智能会话方法,其包括:

接收用户端发送的当前用户语音数据,对所述当前语音数据进行情感识别,得到第一情绪识别结果;

将所述当前语音数据进行语音识别,以得到对应的当前文本数据;

获取与所述当前文本数据的时序顺序间隔在预设间隔值内的历史文本数据集合,由所述当前文本数据及所述历史文本数据集合组成当前文本数据集合;

对所述当前文本数据集合进行情感识别,得到第二情绪识别结果;

根据预选设置的情绪识别结果标识策略,将所述第一情绪识别结果对应转化为第一识别值,并将所述第二情绪识别结果对应转化为第二识别值;其中,所述情绪识别结果标识策略包括多个情绪种类、及与各情绪种类一一对应的标识值;

获取所述第一识别值和所述第二识别值中的最小值,以作为所述当前用户语音数据对应的当前情绪识别结果;

根据所述当前文本数据及当前情绪识别结果,在预先构建的答复数据库内获取与所述当前文本数据及当前情绪识别结果的相似度为最大值的答复文本,以作为当前答复文本;以及

将所述当前答复文本对应转化为当前答复语音数据,将所述当前答复语音数据发送至用户端。

第二方面,本发明实施例提供了一种基于情绪识别的智能会话装置,其包括:

第一情绪识别单元,用于接收用户端发送的当前用户语音数据,对所述当前语音数据进行情感识别,得到第一情绪识别结果;

语音识别单元,用于将所述当前语音数据进行语音识别,以得到对应的当前文本数据;

文本数据集合获取单元,用于获取与所述当前文本数据的时序顺序间隔在预设间隔值内的历史文本数据集合,由所述当前文本数据及所述历史文本数据集合组成当前文本数据集合;

第二情绪识别单元,用于对所述当前文本数据集合进行情感识别,得到第二情绪识别结果;

识别值获取单元,用于根据预选设置的情绪识别结果标识策略,将所述第一情绪识别结果对应转化为第一识别值,并将所述第二情绪识别结果对应转化为第二识别值;其中,所述情绪识别结果标识策略包括多个情绪种类、及与各情绪种类一一对应的标识值;

识别结果获取单元,用于获取所述第一识别值和所述第二识别值中的最小值,以作为所述当前用户语音数据对应的当前情绪识别结果;

答复文本获取单元,用于根据所述当前文本数据及当前情绪识别结果,在预先构建的答复数据库内获取与所述当前文本数据及当前情绪识别结果的相似度为最大值的答复文本,以作为当前答复文本;以及

语音发送单元,用于将所述当前答复文本对应转化为当前答复语音数据,将所述当前答复语音数据发送至用户端。

第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于情绪识别的智能会话方法。

第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于情绪识别的智能会话方法。

本发明实施例提供了一种基于情绪识别的智能会话方法、装置、计算机设备及存储介质,先基于当前用户语音数据的语音进行情感识别得到第一情绪识别结果,然后基于当前用户语音数据对应的文本数据及与所述当前文本数据的时序顺序间隔在预设间隔值内的历史文本数据集合共同识别得到第二情绪识别结果,以第一情绪识别结果对应的识别值和第二情绪识别结果对应的识别值中的最小值作为对应的当前情绪识别结果,最后根据当前文本数据及当前情绪识别结果在预先构建的答复数据库内获取与其相似度为最大值的当前答复文本,将当前答复文本对应转化为当前答复语音数据后发送至用户端。该方法实现了基于当前用户语音数据和当前用户语音数据对应的前文及本句文本数据来共同识别用户情绪,以推送最佳答复至用户端。

附图说明

为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例提供的基于情绪识别的智能会话方法的应用场景示意图;

图2为本发明实施例提供的基于情绪识别的智能会话方法的流程示意图;

图3为本发明实施例提供的基于情绪识别的智能会话方法的子流程示意图;

图4为本发明实施例提供的基于情绪识别的智能会话方法的另一子流程示意图;

图5为本发明实施例提供的基于情绪识别的智能会话方法的另一子流程示意图;

图6为本发明实施例提供的基于情绪识别的智能会话方法的另一子流程示意图;

图7为本发明实施例提供的基于情绪识别的智能会话装置的示意性框图;

图8为本发明实施例提供的基于情绪识别的智能会话装置的子单元示意性框图;

图9为本发明实施例提供的基于情绪识别的智能会话装置的另一子单元示意性框图;

图10为本发明实施例提供的基于情绪识别的智能会话装置的另一子单元示意性框图;

图11为本发明实施例提供的基于情绪识别的智能会话装置的另一子单元示意性框图;

图12为本发明实施例提供的计算机设备的示意性框图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。

还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。

还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。

请参阅图1和图2,图1为本发明实施例提供的基于情绪识别的智能会话方法的应用场景示意图;图2为本发明实施例提供的基于情绪识别的智能会话方法的流程示意图,该基于情绪识别的智能会话方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。

如图2所示,该方法包括步骤S110~S180。

S110、接收用户端发送的当前用户语音数据,对所述当前语音数据进行情感识别,得到第一情绪识别结果。

在本实施例中,在服务器中部署了智能聊天机器人以提供客服服务或是聊天对话服务。当用户端向服务器上传了当前用户语音数据,此时服务器接收所述当前用户语音数据,并对其进行情感识别,得到第一情绪识别结果。此时,是基于用户语音数据进行初次的情感识别。

在一实施例中,如图3所示,步骤S110包括:

S111、对所述当前用户语音数据进行预处理,得到预处理数据;

S112、对所述预处理数据进行基音频率的提取,得到与所述预处理数据对应的语音特征向量;

S113、将所述语音特征向量输入至预先训练的隐马尔可夫模型进行运算,得到第一情绪识别结果。

在本实施例中,对所述当前用户语音数据进行预处理主要是进行端点检测、预加重、加窗分帧。

端点检测的目的是:检测有效声音段的起始点与结束点,以去除无效声音段,从而提高语音信号的处理效率。

预加重的目的是:增加语音信号中高频段的分辨率,以去除***辐射的影响。

加窗分帧的目的是:语音信号本身是非平稳的,但是又兼具短时平稳的特点,因此将语音信号分成一小段将此看作平稳信号来处理。这里的分段可以理解为是:分帧,为了全面完整的分析语音信号,要有帧移(这里的理解与图像处理的滑动窗很类似)。

完成了对所述当前用户语音数据进行预处理,得到预处理数据后,对所述预处理数据进行基音频率的提取。基音频率都是在整段语音信号的每一帧上进行的计算,故语音信号划分为多少帧,计算获得到少组数据,这些数据就是某一段语音信号的特征参数。

其中,一般的声音都是由发音体发出的一系列频率、振幅各不相同的振动复合而成的。这些振动中有一个频率最低的振动,由它发出的音就是基音(fundamental tone),其余为泛音。完成了对所述预处理数据进行基音频率的提取,即可得到与所述预处理数据对应的语音特征向量。

一个离散的隐马尔可夫模型(简记为HMM,全称为Hidden Markov Model)可由一个五元组进行描述:

λ=(N,M,π,A,B);

其中,N表示模型中的马尔可夫链状态数目;M为每个状态对应的可能观察值数目;π为初始状态概率;A为状态转移概率矩阵:B为观察值概率矩阵。

隐马尔可夫模型主要由马尔可夫链(由π、A描述)和随机过程(由B描述)组成,马尔可夫链产生的输出为状态序列,随机过程产生的输出为观察值序列。假如设定四个状态的HMM每个状态正好代表一种感情倾向,不能确定一种情感必须由另一种情感转移而来且不可以恢复之前的情感状态,而是在一些特殊情况下情感转移发送突变(即整个语句的前面部分表示高兴的情感状态,在语句末尾发生了明显的上扬趋势,导致整个语句对应的情感为惊奇),因此采用各态经历的HMM更佳。HMM的训练也即参数估计问题,给定一个观察值序列O=(o1,o2,…,oτ),调整HMM模型λ=(N,M,π,A,B)的参数,使得P(O|λ)最大,即完成了隐马尔可夫模型的训练。通过上述训练得到的隐马尔可夫模型,即可实现对当前用户语音数据的情感识别,得到第一情绪识别结果。

S120、将所述当前语音数据进行语音识别,以得到对应的当前文本数据。

在本实施例中,若仅根据语音数据来识别用户的情感,可能会有失准确性。此时为了更加综合的评判用户的情感,还可以结合所述当前语音数据及其上文内容来综合分析用户的情感。此时,先将所述当前语音数据进行语音识别,以得到对应的当前文本数据,之后再获取当前文本数据之前的5-10句历史文本数据组成当前文本数据集合,以综合分析文本情感。

在一实施例中,步骤S120中包括:

通过预先训练的N-gram模型对所述当前语音数据进行识别,得到对应的当前文本数据;其中,所述N-gram模型为N元模型。

在本实施例中,服务器可接收训练集语料库训练得到N-gram模型,通过N-gram模型对上传至服务器的待识别语音进行识别,得到对应的语音识别结果。N-gram模型是一种语言模型(Language Model,LM),语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列),输出是这句话的概率,即这些单词的联合概率(jointprobability)。

假设句子T是有词序列w1,w2,w3...wn组成,用公式表示N-Gram语言模型如下:

P(T)=P(w1)*p(w2)*p(w3)*…*p(wn)

=p(w1)*p(w2|w1)*p(w3|w1w2)*…*p(wn|w1w2w3...)

一般常用的N-Gram模型是Bi-Gram和Tri-Gram。分别用公式表示如下:

Bi-Gram:

P(T)=p(w1|begin)*p(w2|w1)*p(w3|w2)*…*p(wn|wn-1)

Tri-Gram:

P(T)=p(w1|begin1,begin2)*p(w2|w1,begin1)*p(w3|w2w1)*…*p(wn|wn-1,wn-2);

可见,对于句子T中每一个词出现的条件概率,可以通过在语料库中统计计数的方式得出。则n元模型如下:

p(wn|w1w2w3...)=C(wi-n-1,…,wi)/C(wi-n-1,…,wi-1);

式中C(wi-n-1,…,wi)表示字符串wi-n-1,…,wi在语料库中的次数。

通过训练得到的所述N-gram模型,即可实现对所述当前语音数据进行语音识别。

S130、获取与所述当前文本数据的时序顺序间隔在预设间隔值内的历史文本数据集合,由所述当前文本数据及所述历史文本数据集合组成当前文本数据集合。

在本实施例中,需先判断当前语音数据在本次对话中是用户所说的第几句话,然后获取此句话之前的5-10句聊天内容的文本数据以作为历史文本数据集合,最后将所述当前文本数据及所述历史文本数据集合组成当前文本数据集合,以当前文本数据集合作为文本情感识别的数据基础。

S140、对所述当前文本数据集合进行情感识别,得到第二情绪识别结果。

在本实施例中,通过预先训练的深度神经网络对所述当前文本数据集合进行情感识别,具体为基于深度神经网络对所述当前文本数据集合中的情感词进行扩展计算,综合为最终情绪识别结果。

在一实施例中,如图4所示,步骤S140包括:

S141、将所述当前文本数据集合中每一文本数据根据Word2Vec模型进行词向量转化,得到与每一文本数据对应的词向量;

S142、将每一文本数据对应的词向量输入至预先训练的LSTM模型,得到与每一文本数据对应的句向量;

S143、将每一文本数据对应的句向量输入至预先训练的深度神经网络,得到与所述当前文本数据集合对应的第二情绪识别结果。

在本实施例中,通过深度神经网络对所述当前文本数据集合进行情绪识别时,首先将所述当前文本数据集合中每一文本数据根据Word2Vec模型(Word2Vec是用于将文本转化为词向量的开源模型)转化为词向量后,之后通过LSTM模型(即长短期记忆模型)将每一文本数据的词向量对应转化为句向量(此举是为了降维度),最后将每一文本数据的词向量输入至预先训练的深度神经网络,即可得到第二情绪识别结果。

S150、根据预选设置的情绪识别结果标识策略,将所述第一情绪识别结果对应转化为第一识别值,并将所述第二情绪识别结果对应转化为第二识别值;其中,所述情绪识别结果标识策略包括多个情绪种类、及与各情绪种类一一对应的标识值。

在本实施例中,在情绪识别结果标识策略中,可以设置多个层级的情绪种类及与各情绪种类一一对应的标识值,如下表1:

表1

在表1中每一种情绪的标识值为其对应的能量等级值,200及以下为负面情绪,200及200以上为正面情绪。

根据上述表1所示的情绪识别结果标识策略即可将所述第一情绪识别结果对应转化为第一识别值,并将所述第二情绪识别结果对应转化为第二识别值。

S160、获取所述第一识别值和所述第二识别值中的最小值,以作为所述当前用户语音数据对应的当前情绪识别结果。

在本实施例中,为了综合考虑当前用户语音数据对应的当前情绪识别结果,一般以所述第一识别值和所述第二识别值中的最小值以作为所述当前用户语音数据对应的当前情绪识别结果,也即考虑到当前最坏的情绪作为当前用户语音数据对应的当前情绪识别结果。通过这种综合考虑的方式,能更准确的获取用户的当前情绪识别结果。

S170、根据所述当前文本数据及当前情绪识别结果,在预先构建的答复数据库内获取与所述当前文本数据及当前情绪识别结果的相似度为最大值的答复文本,以作为当前答复文本。

在本实施例中,在预先构建答复数据库时,答复数据库中每一答复文本均标注了情绪种类标签,而且每一答复文本均有对应的句向量。当获取了所述当前文本数据及当前情绪识别结果,即可在答复数据库内搜索并计算获取与所述当前文本数据及当前情绪识别结果的相似度为最大值的答复文本,以作为当前答复文本。

在一实施例中,如图5所示,步骤S170包括:

S171、在所述答复数据库内获取与所述当前文本数据的相似度值超过预先设置的相似度阈值的答复文本,以组成备选答复文本集合;

S172、获取备选答复文本集合中各答复文本的情绪种类标签中与所述当前文本数据的当前情绪识别结果之间的相似度,以组合成相似度集合;

S173、将相似度集合中最大值对应的答复文本作为当前答复文本。

在本实施例中,计算所述答复数据库内各答复文本与所述当前文本数据的相似度时,即是计算各答复文本对应的句向量与所述当前文本数据的句向量之间的欧氏距离。在计算备选答复文本集合中各答复文本的情绪种类标签与所述当前文本数据的当前情绪识别结果之间的相似度,也是计算各情绪种类标签对应的词向量与当前情绪识别结果对应的词向量之间的欧氏距离,最后将相似度集合中最大值对应的答复文本作为当前答复文本即可获知最佳答复。

S180、将所述当前答复文本对应转化为当前答复语音数据,将所述当前答复语音数据发送至用户端。

在本实施例中,当获取了所述当前答复文本后,将其转化为当前答复语音数据,以语音的方式针对用户的提问进行回答。

在一实施例中,如图6所示,步骤S180包括:

S181、将所述当前答复文本中的每个字符进行离散型特征处理,以生成每个字符对应的特征向量;

S182、将所述特征向量输入预先训练的频谱转换模型,获取所述频谱转换模型输出的所述当前答复文本中每个字符对应的梅尔频谱;

S183、将所述梅尔频谱转换为语音,以获得所述当前答复文本对应的当前答复语音数据。

在本实施例中,离散型特征处理主要用于将连续的数值属性转化为离散的数值属性。本申请采取独热(One-Hot)编码的方式进行当前答复文本的离散型特征处理。

上述频谱转换模型可以为序列转换模型(Sequence to Sequence;以下简称:seq2seq)。进一步来说,本申请通过seq2seq模型输出与目标文本中的每个字符对应的梅尔频谱,由于seq2seq模型是目前自然语言处理技术中非常重要而且非常流行的一个模型,因此有着良好的表现。其中,本申请采取梅尔频谱作为声音特征的表现形式,可以使得人耳可以更容易感知到声音频率的变化。

最后,声码器可通过傅里叶逆变换将上述梅尔频谱转换为时域的语音波形信号,由于时域是真实世界,是唯一实际存在的域,故本申请可更为形象与直观的获取所述当前答复文本对应的当前答复语音数据。

该方法实现了基于当前用户语音数据和当前用户语音数据对应的前文及本句文本数据来共同识别用户情绪,以推送最佳答复至用户端。

本发明实施例还提供一种基于情绪识别的智能会话装置,该基于情绪识别的智能会话装置用于执行前述基于情绪识别的智能会话方法的任一实施例。具体地,请参阅图7,图7是本发明实施例提供的基于情绪识别的智能会话装置的示意性框图。该基于情绪识别的智能会话装置100可以配置于服务器中。

如图7所示,基于情绪识别的智能会话装置100包括第一情绪识别单元110、语音识别单元120、文本数据集合获取单元130、第二情绪识别单元140、识别值获取单元150、识别结果获取单元160、答复文本获取单元170、语音发送单元180。

第一情绪识别单元110,用于接收用户端发送的当前用户语音数据,对所述当前语音数据进行情感识别,得到第一情绪识别结果。

在本实施例中,在服务器中部署了智能聊天机器人以提供客服服务或是聊天对话服务。当用户端向服务器上传了当前用户语音数据,此时服务器接收所述当前用户语音数据,并对其进行情感识别,得到第一情绪识别结果。此时,是基于用户语音数据进行初次的情感识别。

在一实施例中,如图8所示,第一情绪识别单元110包括:

语音预处理单元111,用于对所述当前用户语音数据进行预处理,得到预处理数据;

语音特征向量获取单元112,用于对所述预处理数据进行基音频率的提取,得到与所述预处理数据对应的语音特征向量;

模型识别单元113,用于将所述语音特征向量输入至预先训练的隐马尔可夫模型进行运算,得到第一情绪识别结果。

在本实施例中,对所述当前用户语音数据进行预处理主要是进行端点检测、预加重、加窗分帧。

完成了对所述当前用户语音数据进行预处理,得到预处理数据后,对所述预处理数据进行基音频率的提取。基音频率都是在整段语音信号的每一帧上进行的计算,故语音信号划分为多少帧,计算获得到少组数据,这些数据就是某一段语音信号的特征参数。

其中,一般的声音都是由发音体发出的一系列频率、振幅各不相同的振动复合而成的。这些振动中有一个频率最低的振动,由它发出的音就是基音(fundamental tone),其余为泛音。完成了对所述预处理数据进行基音频率的提取,即可得到与所述预处理数据对应的语音特征向量。

一个离散的隐马尔可夫模型(简记为HMM,全称为Hidden Markov Model)可由一个五元组进行描述:

λ=(N,M,π,A,B);

其中,N表示模型中的马尔可夫链状态数目;M为每个状态对应的可能观察值数目;π为初始状态概率;A为状态转移概率矩阵:B为观察值概率矩阵。

隐马尔可夫模型主要由马尔可夫链(由π、A描述)和随机过程(由B描述)组成,马尔可夫链产生的输出为状态序列,随机过程产生的输出为观察值序列。假如设定四个状态的HMM每个状态正好代表一种感情倾向,不能确定一种情感必须由另一种情感转移而来且不可以恢复之前的情感状态,而是在一些特殊情况下情感转移发送突变(即整个语句的前面部分表示高兴的情感状态,在语句末尾发生了明显的上扬趋势,导致整个语句对应的情感为惊奇),因此采用各态经历的HMM更佳。HMM的训练也即参数估计问题,给定一个观察值序列O=(o1,o2,…,oτ),调整HMM模型λ=(N,M,π,A,B)的参数,使得P(O|λ)最大,即完成了隐马尔可夫模型的训练。通过上述训练得到的隐马尔可夫模型,即可实现对当前用户语音数据的情感识别,得到第一情绪识别结果。

语音识别单元120,用于将所述当前语音数据进行语音识别,以得到对应的当前文本数据。

在本实施例中,若仅根据语音数据来识别用户的情感,可能会有失准确性。此时为了更加综合的评判用户的情感,还可以结合所述当前语音数据及其上文内容来综合分析用户的情感。此时,先将所述当前语音数据进行语音识别,以得到对应的当前文本数据,之后再获取当前文本数据之前的5-10句历史文本数据组成当前文本数据集合,以综合分析文本情感。

在一实施例中,语音识别单元120还用于:

通过预先训练的N-gram模型对所述当前语音数据进行识别,得到对应的当前文本数据;其中,所述N-gram模型为N元模型。

在本实施例中,服务器可接收训练集语料库训练得到N-gram模型,通过N-gram模型对上传至服务器的待识别语音进行识别,得到对应的语音识别结果。N-gram模型是一种语言模型(Language Model,LM),语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列),输出是这句话的概率,即这些单词的联合概率(jointprobability)。通过训练得到的所述N-gram模型,即可实现对所述当前语音数据进行语音识别。

文本数据集合获取单元130,用于获取与所述当前文本数据的时序顺序间隔在预设间隔值内的历史文本数据集合,由所述当前文本数据及所述历史文本数据集合组成当前文本数据集合。

在本实施例中,需先判断当前语音数据在本次对话中是用户所说的第几句话,然后获取此句话之前的5-10句聊天内容的文本数据以作为历史文本数据集合,最后将所述当前文本数据及所述历史文本数据集合组成当前文本数据集合,以当前文本数据集合作为文本情感识别的数据基础。

第二情绪识别单元140,用于对所述当前文本数据集合进行情感识别,得到第二情绪识别结果。

在本实施例中,通过预先训练的深度神经网络对所述当前文本数据集合进行情感识别,具体为基于深度神经网络对所述当前文本数据集合中的情感词进行扩展计算,综合为最终情绪识别结果。

在一实施例中,如图9所示,第二情绪识别单元140包括:

词向量获取单元141,用于将所述当前文本数据集合中每一文本数据根据Word2Vec模型进行词向量转化,得到与每一文本数据对应的词向量;

句向量获取单元142,用于将每一文本数据对应的词向量输入至预先训练的LSTM模型,得到与每一文本数据对应的句向量;

文本情绪识别单元143,用于将每一文本数据对应的句向量输入至预先训练的深度神经网络,得到与所述当前文本数据集合对应的第二情绪识别结果。

在本实施例中,通过深度神经网络对所述当前文本数据集合进行情绪识别时,首先将所述当前文本数据集合中每一文本数据根据Word2Vec模型(Word2Vec是用于将文本转化为词向量的开源模型)转化为词向量后,之后通过LSTM模型(即长短期记忆模型)将每一文本数据的词向量对应转化为句向量(此举是为了降维度),最后将每一文本数据的词向量输入至预先训练的深度神经网络,即可得到第二情绪识别结果。

识别值获取单元150,用于根据预选设置的情绪识别结果标识策略,将所述第一情绪识别结果对应转化为第一识别值,并将所述第二情绪识别结果对应转化为第二识别值;其中,所述情绪识别结果标识策略包括多个情绪种类、及与各情绪种类一一对应的标识值。

在本实施例中,在情绪识别结果标识策略中,可以设置多个层级的情绪种类及与各情绪种类一一对应的标识值,如上表1。

在表1中每一种情绪的标识值为其对应的能量等级值,200及以下为负面情绪,200及200以上为正面情绪。

根据上述表1所示的情绪识别结果标识策略即可将所述第一情绪识别结果对应转化为第一识别值,并将所述第二情绪识别结果对应转化为第二识别值。

识别结果获取单元160,用于获取所述第一识别值和所述第二识别值中的最小值,以作为所述当前用户语音数据对应的当前情绪识别结果。

在本实施例中,为了综合考虑当前用户语音数据对应的当前情绪识别结果,一般以所述第一识别值和所述第二识别值中的最小值以作为所述当前用户语音数据对应的当前情绪识别结果,也即考虑到当前最坏的情绪作为当前用户语音数据对应的当前情绪识别结果。通过这种综合考虑的方式,能更准确的获取用户的当前情绪识别结果。

答复文本获取单元170,用于根据所述当前文本数据及当前情绪识别结果,在预先构建的答复数据库内获取与所述当前文本数据及当前情绪识别结果的相似度为最大值的答复文本,以作为当前答复文本。

在本实施例中,在预先构建答复数据库时,答复数据库中每一答复文本均标注了情绪种类标签,而且每一答复文本均有对应的句向量。当获取了所述当前文本数据及当前情绪识别结果,即可在答复数据库内搜索并计算获取与所述当前文本数据及当前情绪识别结果的相似度为最大值的答复文本,以作为当前答复文本。

在一实施例中,如图10所示,答复文本获取单元170包括:

备选文本集获取单元171,用于在所述答复数据库内获取与所述当前文本数据的相似度值超过预先设置的相似度阈值的答复文本,以组成备选答复文本集合;

相似度集合获取单元172,用于获取备选答复文本集合中各答复文本的情绪种类标签中与所述当前文本数据的当前情绪识别结果之间的相似度,以组合成相似度集合;

目标文本获取单元173,用于将相似度集合中最大值对应的答复文本作为当前答复文本。

在本实施例中,计算所述答复数据库内各答复文本与所述当前文本数据的相似度时,即是计算各答复文本对应的句向量与所述当前文本数据的句向量之间的欧氏距离。在计算备选答复文本集合中各答复文本的情绪种类标签与所述当前文本数据的当前情绪识别结果之间的相似度,也是计算各情绪种类标签对应的词向量与当前情绪识别结果对应的词向量之间的欧氏距离,最后将相似度集合中最大值对应的答复文本作为当前答复文本即可获知最佳答复。

语音发送单元180,用于将所述当前答复文本对应转化为当前答复语音数据,将所述当前答复语音数据发送至用户端。

在本实施例中,当获取了所述当前答复文本后,将其转化为当前答复语音数据,以语音的方式针对用户的提问进行回答。

在一实施例中,如图11所示,语音发送单元180包括:

字符特征向量获取单元181,用于将所述当前答复文本中的每个字符进行离散型特征处理,以生成每个字符对应的特征向量;

频谱转换单元182,用于将所述特征向量输入预先训练的频谱转换模型,获取所述频谱转换模型输出的所述当前答复文本中每个字符对应的梅尔频谱;

语音转化单元183,用于将所述梅尔频谱转换为语音,以获得所述当前答复文本对应的当前答复语音数据。

在本实施例中,离散型特征处理主要用于将连续的数值属性转化为离散的数值属性。本申请采取独热(One-Hot)编码的方式进行当前答复文本的离散型特征处理。

上述频谱转换模型可以为序列转换模型(Sequence to Sequence;以下简称:seq2seq)。进一步来说,本申请通过seq2seq模型输出与目标文本中的每个字符对应的梅尔频谱,由于seq2seq模型是目前自然语言处理技术中非常重要而且非常流行的一个模型,因此有着良好的表现。其中,本申请采取梅尔频谱作为声音特征的表现形式,可以使得人耳可以更容易感知到声音频率的变化。

最后,声码器可通过傅里叶逆变换将上述梅尔频谱转换为时域的语音波形信号,由于时域是真实世界,是唯一实际存在的域,故本申请可更为形象与直观的获取所述当前答复文本对应的当前答复语音数据。

该装置实现了基于当前用户语音数据和当前用户语音数据对应的前文及本句文本数据来共同识别用户情绪,以推送最佳答复至用户端。

上述基于情绪识别的智能会话装置可以实现为计算机程序的形式,该计算机程序可以在如图12所示的计算机设备上运行。

请参阅图12,图12是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。

参阅图12,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。

该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于情绪识别的智能会话方法。

该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。

该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于情绪识别的智能会话方法。

该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图12中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。

其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现本发明实施例公开的基于情绪识别的智能会话方法。

本领域技术人员可以理解,图12中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图12所示实施例一致,在此不再赘述。

应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现本发明实施例公开的基于情绪识别的智能会话方法。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

23页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种鼾声信号识别方法

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!