基于2-DenseGRUNet模型的声音事件检测方法

文档序号:1923561 发布日期:2021-12-03 浏览:13次 >En<

阅读说明:本技术 基于2-DenseGRUNet模型的声音事件检测方法 (Sound event detection method based on 2-DenseGRUNet model ) 是由 曹毅 黄子龙 费鸿博 吴伟官 夏宇 周辉 于 2021-09-16 设计创作,主要内容包括:本发明提供的基于2-DenseGRUNet模型的声音事件检测方法,以2阶DenseNet网络模型为基础,加入了门控循环单元GRU网络,构建了声音事件检测模型;相对于传统卷积神经网络以及循环神经网络模型,本专利技术方案中的声音事件检测模型结合了2-DenseNet和GRU的优点,既能更高效利用特征信息将其融合,获取更多有效的特征信息,同时可有效进行时间序列建模。基于本专利技术方案中的声音事件检测模型在检测城市声音事件中,具有更低的平均片段错误率,和更高的F-Score分数,确保基于本发明方法进行的声音分类结果更加准确。(The sound event detection method based on the 2-DenseGRUNet model provided by the invention is based on a 2-order DenseNet network model, a gated cycle unit GRU network is added, and a sound event detection model is constructed; compared with the traditional convolutional neural network and the cyclic neural network model, the sound event detection model in the technical scheme of the patent combines the advantages of the 2-DenseNet and the GRU, can more efficiently use the characteristic information to fuse the characteristic information, obtains more effective characteristic information, and can effectively perform time sequence modeling. The sound event detection model based on the technical scheme of the patent has lower average fragment error rate and higher F-Score in urban sound event detection, and ensures that the sound classification result based on the method is more accurate.)

基于2-DenseGRUNet模型的声音事件检测方法

技术领域

本发明涉及声音检测技术领域,具体为基于2-DenseGRUNet模型的声音事件检测方法。

背景技术

声音携带了城市中大量关于生活场景和物理事件的信息,通过深度学习方法智能感知各个声源自动提取上述信息,在构建智慧城市中具有巨大的潜力和运用前景。在智慧城市中,声音事件检测是对环境声音场景进行识别和语义理解的重要基础。其中,城市声音事件检测研究主要应用于环境感知、工厂设备检测、城市安防、自动驾驶等方面。现有技术中城市声音事件检测技术主要基于MLP、CNN、LSTM网络模型实现。然而,通过综合考虑Precision和Recall的调和值的指标F-score对这3个网络模型进行评价的时候,因为平均片段错误率偏高,导致F-Score的分数偏低,在实际应用中应用范围有限。

发明内容

为了解决现有技术中心城市声音事件检测的平均片段错误率问题,本发明提供的基于2-DenseGRUNet模型的声音事件检测方法,其在处理音频数据时能提取更有效的声学信息,更良好的时序建模能力,使得模型在检测城市声音事件中具有更低的平均片段错误率,更具可用性。

本发明的技术方案是这样的:基于2-DenseGRUNet模型的声音事件检测方法,其包括以下步骤:

S1:采集待处理音频数据,对待处理音频数据的原始音频信号进行预处理,输出音频帧序列;

所述预处理操作包括:采样与量化、预加重处理、加窗;

S2:对所述音频帧序列进行时域和频域分析,提取梅尔频率倒谱系数,输出原始特征向量序列;

S3:重构所述原始特征向量序列的特征信息与标签,输出重构特征处理后的重构特征向量序列;

将所述原始特征向量序列中声音事件的起始时间、结束时间、事件所属类别,转换成所述重构特征向量序列对应的起始帧、结束帧、事件标签;

S4:构建声音事件检测模型,并对模型进行迭代训练,得到训练好的所述声音事件检测模型;

S5:将所述重构特征向量序列经过处理后,输入到训练好的所述声音事件检测模型中进行识别检测,得到所述待处理音频数据的声音事件检测结果;

其特征在于:

所述声音事件检测模型包括:输入层、2阶DenseNet模型、GRU单元;所有的所述GRU单元串联于所述2阶DenseNet模型之后;

所述输入层、所2阶DenseNet模型之间依次设置卷积层、池化层;

所述2阶DenseNet模型包括:连续的2-DenseBlock结构,每个所述2-DenseBlock结构后面设置一个Transition layer结构;

在每个所述2-DenseBlock结构中,特征图层与特征图层的连接基于2阶马尔可夫模型的相关性连接,当前特征图层输入与前2个特征图层输出相关;每个所述Transitionlayer结构中包含一个卷积层和一个池化层。

其进一步特征在于:

所述2阶DenseNet模型后依次串联连续的所述GRU单元,所述2阶DenseNet模型与第一个所述GRU单元之间通过reshape层连接;所述GRU单元后面依次设置TimeDistributed层、全连接层、输出层;

每个所述2-DenseBlock包括依次连接的特征图层;每个所述特征图层中包括连续的一个1*1卷积层和一个3*3的卷积层,在所述特征图层中,输入的数据在进入卷积层进行卷积处理之前,都先进行批量标准化处理和激活函数处理;每个所述特征图层中最后一个卷积层分别与下一个卷积层通过Concatenation进行合并级联;每个所述2-DenseBlock中的第一个特征图层与第二个特征图层之间加入一个dropout层;

步骤S2中的所述梅尔频率倒谱系数的特征提取,其具体维数提取的梅尔频率倒谱系数为40mfcc;步骤S2中获取的所述原始特征向量序列的结构为2维向量,第一维向量是对于对所述待处理音频数据的采样后的帧数,第二维向量是所述梅尔频率倒谱系数的维数;

步骤S3中,在重构所述原始特征向量序列的特征信息与标签时,所述原始特征向量序列中具体时长为1s的数据,对应的所述重构特征向量序列的mfcc的帧数为128帧,将原始声音事件标签中的:起始时间到结束时间,重构成:起始帧数到结束帧数;

步骤S5中,将所述重构特征向量序列输入到所述训练好的所述声音事件检测模型之前,需要把特征向量从2维向量转换为3维向量输入网络模型,第3维向量是所述声音事件检测模型中的通道数;

所述GRU单元的特征输入为二维特征向量;

所述Transition Layer层包括:一个卷积核为1*1卷积层、一个池化尺寸为[2,2]的最大池化层;

所述全连接层,全连接层数的神经元个数设置为256或者128;

所述输出层基于Sigmoid函数实现。

本发明提供的基于2-DenseGRUNet模型的声音事件检测方法,以2阶DenseNet网络模型为基础,加入了门控循环单元GRU网络,构建了声音事件检测模型;相对于传统卷积神经网络以及循环神经网络模型,本专利技术方案中的声音事件检测模型结合了2-DenseNet和GRU的优点,既能更高效利用特征信息将其融合,获取更多有效的特征信息,同时可有效进行时间序列建模。基于本专利技术方案中的声音事件检测模型在检测城市声音事件中,具有更低的平均片段错误率,和更高的F-Score分数,确保基于本发明方法进行的声音分类结果更加准确。

附图说明

图1为本发明中声音事件检测中特征重构流程图;

图2为本发明中2-DenseGRUNet模型的网络框图;

图3为本发明中2-DenseNet网络中2-DenseBlock示意图;

图4为本发明中门控循环单元GRU原理图。

具体实施方式

如图1~图4所示,本发明基于2-DenseGRUNet模型的声音事件检测方法,其具体包括以下步骤。

S1:采集待处理音频数据,对待处理音频数据的原始音频信号进行预处理,输出音频帧序列;

预处理操作包括:采样与量化、预加重处理、加窗。

S2:对音频帧序列进行时域和频域分析,提取梅尔频率倒谱系数,输出原始特征向量序列;

梅尔频率倒谱系数的特征提取,其具体维数提取的梅尔频率倒谱系数为40mfcc;步骤S2中获取的原始特征向量序列的结构为2维向量,第一维向量是对于对待处理音频数据的采样后的帧数,第二维向量是梅尔频率倒谱系数的维数,本实施例中,梅尔频率倒谱系数为40mfcc,第二维向量即为40。

S3:重构原始特征向量序列的特征信息与标签,输出重构特征处理后的重构特征向量序列;

将原始特征向量序列中声音事件的起始时间、结束时间、事件所属类别,转换成重构特征向量序列对应的起始帧、结束帧、事件标签;

在重构原始特征向量序列的特征信息与标签时,原始特征向量序列中具体时长为1s的数据,对应的重构特征向量序列的mfcc的帧数为128帧,将原始声音事件标签中的:起始时间到结束时间,重构成:起始帧数到结束帧数。

如图1所示,步骤S3中,重构原始特征向量序列的特征信息与标签的具体实施过程,详细如下所示:

设现有原始音频样本包括:文件名为a013、a010、a129、b099、b008、b100的文件,每个文件的时长分别为:3min44s、3min30s、4min0s、4min0s、3min30s、3min01s。将这些时长不同的音频样本文件,按照时间维度进行拼接,构建为一个总音频数据,总音频数据的总时长为T:

T=3min44s+3min30s+4min0s+4min0s+3min30s+3min01s

对总音频数据,提取音频的标签信息;对总音频数据中的每一段文件分别标注为:

[time-start,time-end,category],分别表示与原始音频样本对应的音频事件的[开始时间,结束时间,类别]。

对标注后的总音频数据进行特征提取,f=44.1kHz,nfft=2048,Win-len=2048,hop_len=1024,t=0.0232s,Segment len=128;

其中,f表示采样频率,nfft表示快速傅里叶变换的长度,wen_len表示每一帧的采样点数,hop_len表示两帧之间的采样点数,t表示每一帧的时长,Segment len=128表示将整个时长为T的音频进行特征提取后再分割成若干个帧数为128的特征;

特征重构后,长度为T的总音频数据,其包含的不同的样本,分别对应的音频片段的标注为:[frame_start,frame_end,one-hot];

表示分割后每个音频片段的:[开始帧数,结束帧数,类别的one-hot编码];

最后输出重构特征处理后的重构特征向量序列,即用[frame_start,frame_end,one-hot]来表示。

S4:构建声音事件检测模型,并对模型进行迭代训练,得到训练好的声音事件检测模型。

以2阶的DenseNet模型为基础,结合门控循环单元GRU模型的特点构建的网络模型,即为本发明中的声音事件检测模型,简称为:2-DenseGRUNet模型。声音事件检测模型以2阶DenseNet模型为网络前端的特征提取网络,然后端串联了具有良好时序建模能力的GRU单元,能够及其高效的将声音事件的特征信息融合,获取更多更有效的特征信息,同时有效的进行时间序列建模,降低声音片段的平均片段错误率。

声音事件检测模型包括:输入层、2阶DenseNet模型、GRU单元;所有的GRU单元串联于2阶DenseNet模型之后;

输入层、2阶DenseNet模型之间依次设置卷积层、池化层;

2阶DenseNet模型包括:m个连续的2-DenseBlock结构,其中m为大于等于1的自然数;

每个2-DenseBlock结构后面设置一个Transition layer结构;

2阶DenseNet模型后依次串联连续的GRU单元,2阶DenseNet模型与第一个GRU单元之间通过reshape层连接;GRU单元后面依次设置Time Distributed层、全连接层、输出层;其中,GRU单元的特征输入为二维特征向量;输出层基于Sigmoid函数实现;TransitionLayer层包括:一个卷积核为1*1卷积层、一个池化尺寸为[2,2]的最大池化层。全连接层数的神经元个数设置为256或者128,对网络进行参数调整和抑制过拟合,最后检测结果经过Sigmoid函数处理后输出。

2-DenseBlock中特征图层的结构如下表1所示:

表1:2-DenseBlock中特征图层的结构

Conv(1×1)
BN(·)
ReLU激活函数
Conv(3×3)
BN(·)
ReLU激活函数
Concatenate函数
dropout层

每个2-DenseBlock结构包括依次连接的l个特征图层;

如表1所示,每个特征图层中包括2个卷积层,在特征图层中,输入的数据在经过卷积层进行卷积处理之后,还要进行批量标准化处理(BN)和ReLU激活函数处理;

每个特征图层中最后一个卷积层分别与下一个卷积层通过Concatenate进行合并级联;每个2-DenseBlock中的第一个特征图层与第二个特征图层之间通过一个dropout层,进行小幅过拟合抑制,方便后期网络模型调参。

DenseBlock作为DenseNet模型的基础结构,2阶DenseNet中的DenseBlock也是两阶的;即,在每个2-DenseBlock结构中,特征图层与特征图层的连接基于2阶马尔可夫模型的相关性连接,当前特征图层输入与前2个特征图层输出相关;每个Transition layer结构中包含一个卷积层和一个池化层;特征图层在Transition layer结构中进行权重共享,最大限度进行时间序列区分,对声音事件的起始时间、结束时间进行检测;

每个2-DenseBlock包括依次连接的l个特征图层,其中,l为大于等于1的自然数;每个特征图层中包括连续的一个1*1卷积层和一个3*3的卷积层,在特征图层中,输入的数据在进入卷积层进行卷积处理之前,都先进行批量标准化处理和激活函数处理;每个特征图层中最后一个卷积层分别与下一个卷积层通过Concatenation进行合并级联;每个2-DenseBlock中的第一个特征图层与第二个特征图层之间加入一个dropout层。

在2-DenseBlock网络结构中,每个特征图层中的1×1和3×3的卷积层是一组非线性变化的特征层。如说明书附图的图3所示,2-DenseBlock包括4个特征图层,每个非线性变化的特征层的输入层被定义为:X1,X2,…,Xl,U1~U8为特征图层中的卷积层,W2~W9为各卷积层对应的权重系数矩阵;

在2-DenseBlock中,第3层起始网络卷积变换的特征输出Uc可定义为:

其中,[Xl,Xl-1,Xl-2]表示当前层通过2阶有关连接方式进行通道数合并级联操作,使用前两个层的特征映射作为当前层的输入,W3×3和W1×1表示卷积核大小分别为1×1和3×3核函数,BN(·)表示批量标准化,f(·)为ReLU激活函数,BN(·)为批量标准化(batch_normalization),B表示偏置系数;

每个Transition layer结构中包含一个卷积层和一个池化层;其中卷积层的卷积核为1*1,通过卷积层进行特征降维处理,后接池化层,通过池化层处理减小矩阵的大小,减少最后全连接层的参数,表达公式为:

其中:表示池化层的输出,在池化区域内取极大值,l为每个所述2-DenseBlock结构中包括的所述特征图层的个数,k为特征图的通道数,m、n为卷积核尺寸大小;x(i,j)对应特征图上的像素;p是预指定参数,当p趋于无穷大时,在池化区域内取极大值,为最大池化(max pooling)。

如图3所示实施例,当层数l=4时,第1层的输出为X1,不使用Concatenation层前向传播到第2层的输入为X2;第3层的输入的特征图只与第2层、第1层的输出的特征图有关,即X3=f([x3,x2,x1]);第4层的输入的特征图只与第3层、第2层的输出的特征图有关,即X4=f([x4,x3,x2])。

如图4所示,GRU单元为门控循环单元,是循环神经网络中的一种门控机制。在门控循环单元的机制中,设了更新门zt和重置门rt。更新门zt用于控制前一时刻的状态xt-1信息被带入到当前状态xt中的程度,重置门rt控制前一状态有多少信息被写入到当前的候选集上,GRU在时序建模上有着较好的性能。其表达公式为:

zt=σ(Wz·[ht-1,xt])

rt=σ(Wr·[ht-1,xt])

式中:σ表示全连接层和激活函数,表示隐藏状态,ht表示输出,*表示元素的*乘运算;

Wz表示更新门的权重系数,Wr表示重置门的权重系数,σ(g)表示表示全连接层和激活函数,tanh(g)表示tanh激活函数。

如图2所示,输入声音事件检测模型的特征向量序列先依次进行一层卷积操作和一次池化处理,然后分别依次输入连续的m个2-DenseBlock中,每个所述2-DenseBlock后面分别跟着一个Transition Layer层;经过包括连续的m个所述2-DenseBlock结构和Transition Layer的2-DeseNet(m)处理后,通过reshape层转换特征维数,将三维特征向量转换成二维特征向量,后接n个门控循环单元GRU进行时序建模处理,然后输入TimeDistributed层中进行时间序列的张量操作,再输入全连接层进行检测处理,最后检测结果经过Sigmoid函数处理后输出。其中2-DenseBlock的个数m和层数l根据实际的硬件情况和数据复杂度进行取值。如说明书附图的图2、3所示的实施例,n取值为2,m取值为2,l取值为4。

Sigmoid函数f(z)公式为:

S5:将重构特征向量序列经过处理后,输入到训练好的声音事件检测模型中进行识别检测,得到待处理音频数据的声音事件检测结果;同时,将重构特征向量序列输入到训练好的声音事件检测模型之前,需要把特征向量从2维向量转换为3维向量,第3维向量是声音事件检测模型中的通道数。

本专利技术方案中,基于2阶DenseNet能够更有效的提取特征图中的信息,门控循环单元GRU模型简单,因此更适用于构建较大的网络;本专利中通过将2阶DenseNet网络和2个门控循环单元GRU模型结合,从计算角度看,计算效率更高;基于本专利技术方案,既能够有效提取特征图的频域信息,也能有效捕捉到长时音频序列的时序特征,同时更高效地实现检测中的分类任务和回归任务。

如下面表2所示,为2-DenseGRUNet模型的网络结构的实施例。

表2:2-DenseGRUNet模型的实施例

Input:mfcc[128,80,1]
Conv(3×3):[128,80,32]
Pooling(2×2):[64,80,32]
2-Denseblock(1):[32,80,16]
Transition Layer(16,80,8)
2-Denseblock(2):[16,80,8]
Transition Layer(16,80,8)
Reshape:[64,160]
GRU(1):[64,64]
GRU(2):[64,32]
TimeDistributed:[64,6]
全连接层(64,6)
Output(Sigmoid):[64,6]

使用Dcase2017数据集,数据集的检测类别分别为6大类,时间标签是时间起始于结束点。使用表2中所示的2-DenseGRUNet模型,m设置为2,即输入检测模型的特征向量序列先依次进行一层卷积操作和一次池化处理,然后分别依次输入连续的2个2-DenseBlock中;每个2-DenseBlock结构中根据数据情况和设备的性能,l取值为4,即每个2-DenseBlock中包括4个特征图层。n=2,即门控循环单元GRU的层数为2。

对音频帧序列进行时域和频域分析,提取梅尔频率倒谱系数输出特征向量序列;Dcase2017数据集中对输入的音频数据的采样帧数为128,选择的梅尔频率倒谱系数特征维数为:40mfcc即在40个梅尔滤波组下,提取40维的mfcc特征,输出梅尔倒谱系数特征向量序列为(128,40)。

把这个2维向量通过reshape转为3维数据,因为此处2-DenseNet模型的网络结构中Input的通道数是1,则转为三维数据后,Dcase2017的特征向量分别为(128,40,1)再将三维特征向量转换成二维特征向量(256,40),输入门控循环单元GRU中进行时间序列建模。

把特征向量输入到2-DenseNet模型中,输入的特征图序列首先通过卷积层,然后采用的池化层进行池化处理,得到的三维数据依次输入到2个连续的2-DenseBlock中。

在每个2-DenseBlock中,存在4个特征图层,即4个2-DenseBlock函数,该函数输入为特征图序列。在2-DenseBlock函数的处理中,先进行批量标准化(BN)处理,激活函数为ReLU函数;再传递到卷积层;函数内该过程执行两次,第一个卷积核尺寸为1*1,第二个卷积核尺寸为3*3。因此该2-DenseBlock函数(公式中记作:2-DenseBlock)中的具体操作为:

经过两个连续的2-DenseBlock、Transition Layer处理之后的三维数据,先将三维特征向量转换成二维特征向量,输入门控循环单元GRU中进行时间序列建模,然后进入Time Distributed层中进行时间序列的张量操作,其可进行权重共享,最大限度进行时间序列建模,对声音事件的起始时间、结束时间进行检测,最后检测结果经过Sigmoid函数处理后输出。

在Window10系统、显卡GTX1060、CPU为i7-8750H、内存16G的实验环境下;keras+TensorFlow作为深度学习框架,采用数据集Dcase2017,首先在Dcase2017数据集分别进行不同特征,不同特征维数以及是否采用GRU单元的网络结构的对比实验,验证2-DenseGRUNet模型片段错误率以及F-score分数;再与已有研究模型的对比实验,验证2-DenseGRUNet模型的良好的性能。

通过在2-DenseNet和2-DenseGRUNet网络模型中,提取的40维和120维梅尔倒谱系数特征以及40维的伽马通倒谱系数特征,在Dcase2017数据集进行音频数据的检测实验,具体结果如下面表3所示。

表3:2-DenseGRUNet模型的效融实验结果

模型 特征 平均片段错误率 F-score分数
2-DenseNet 40mfcc 0.566 0.610
2-DenseNet 128mfcc 0.562 0.613
2-DenseNet 40gfcc 0.586 0.607
2-DenseGRUNet 40mfcc 0.543 0.651
2-DenseGRUNet 128mfcc 0.541 0.648
2-DenseGRUNet 40gfcc 0.563 0.631

根据实验结果可知,本发明采用的2-DenseGRUNet模型,相较于未使用门控循环单元GRU的2-DenseNet模型,在40mfcc、128mfcc以及40gfcc特征下,平均片段错误率分别降低了2.3%、2.1%和2.3%,F-score分数分别提升了4.1%、3.5%和2.4%;在2-DenseGRUNet模型,使用40mfcc相对40gfcc特征下,平均片段错误率分别降低了2.0%,F-score分数分别提升了2.0%;使用40mfcc相对128mfcc特征下,平均片段错误率和F-score分数变化幅度在0.1%左右,但使用40mfcc可有效减少模型训练时间、减低计算机的运算要求。综上可得,在40mfcc下2-DenseGRUNet模型能既能更高效利用特征信息融合,获取更多有效的特征信息,同时可有效进行时间序列建模。最优平均片段错误率为0.543%和F-score分数为65.12%。

在Dcase2017数据集中2-DenseGRUNet模型进一步进行试验,试验结果与已有的国内外研究者模型准确率进行对比,对比试验结果如表4。

表4 不同模型的检测结果

本发明的技术方案下,采用的D-2-DenseNet模型,与国内外研究者试验结果对比可知,本发明技术方案的分类准确率比baseline的MLP模型平均片段错误率分别降低了14.7%,F-score分数分别提升了8.4%;比LSTM模型平均片段错误率分别降低了1.9%,F-score分数分别提升了3.9%;本发明技术方案的平均片段错误率有了明显的下降,F-score分数有了明显的提升。

综上所述,本发明提供的技术方案在处理音频数据时能更高效利用特征信息融合,获取更多有效的特征信息,模型具有更低的平均片段错误率和更高F-score分数,即基于本发明方法实现的声音分类的准确性更高。

15页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:通知装置、穿戴装置与通知方法

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!