一种基于Rényi相位传递熵和轻量级卷积神经网络的异常脑电信号检测方法

文档序号:1896201 发布日期:2021-11-30 浏览:13次 >En<

阅读说明:本技术 一种基于Rényi相位传递熵和轻量级卷积神经网络的异常脑电信号检测方法 (Abnormal electroencephalogram signal detection method based on Rinyi phase transfer entropy and lightweight convolutional neural network ) 是由 张小凤 张光斌 方冲 牟燕平 于 2021-06-18 设计创作,主要内容包括:本发明提供了一种基于Rényi相位传递熵和轻量级卷积神经网络的异常脑电信号检测方法,包括步骤1、获取EEG数据;步骤2、对获取的EEG数据进行Rényi相位传递熵处理,得到脑功能网络的相关矩阵C;步骤3、选择阈值,二值化相关矩阵C,得到脑功能网络的邻接矩阵A;步骤4、将邻接矩阵A输入到轻量级卷积神经网络模型,该基于Rényi相位传递熵和轻量级卷积神经网络的异常脑电信号检测方法,对脑功能网络作特征提取和癫痫识别任务中分类在准确率,灵敏度,特异性三个方面具有更好的效果,在大幅度降低模型的参数量和计算量情况下,可以保证模型对于脑病识别准确性。(The invention provides an abnormal electroencephalogram signal detection method based on a Reen yi phase transfer entropy and a lightweight convolutional neural network, which comprises the following steps of 1, acquiring EEG data; step 2, carrying out Rnyi phase transfer entropy processing on the acquired EEG data to obtain a correlation matrix C of the brain function network; step 3, selecting a threshold value, and binarizing the correlation matrix C to obtain an adjacent matrix A of the brain function network; and 4, inputting the adjacency matrix A into a lightweight convolutional neural network model, and classifying the abnormal electroencephalogram signal based on the Rinyi phase transfer entropy and the lightweight convolutional neural network in the tasks of extracting the characteristics of the brain function network and identifying the epilepsy according to the abnormal electroencephalogram signal detection method, wherein the method has better effects in three aspects of accuracy, sensitivity and specificity, and can ensure the accuracy of the model in identifying the encephalopathy under the condition of greatly reducing the parameters and the calculated amount of the model.)

一种基于Rényi相位传递熵和轻量级卷积神经网络的异常脑 电信号检测方法

技术领域

本发明属于脑电信号检测的技术领域,具体涉及一种基于Rényi 相位传递熵和轻量级卷积神经网络的异常脑电信号检测方法。

背景技术

癫痫发作是一种短暂的大脑电活动异常。患有癫痫的人即患有中枢神经系统疾病,会在不可预测的时间和通常没有任何警告的情况下反复发作。癫痫发作可导致注意力不集中或全身抽搐。频繁的癫痫发作会增加个体遭受身体伤害的风险,甚至可能导致死亡。

由于癫痫发作与脑电活动有关,EEG信号在癫痫的诊断和术前致痫区评估中起着重要作用。脑电图描记器通过均匀排列在头皮上的电极来测量大脑的电活动。脑电图通道是通过两个电极测量的电位差形成的,并捕捉数百万个神经元的总电位。为了研究两个脑区之间的耦合关系,通常方法是分析位于该脑区的电极所采集的EEG信号特征。

研究表明,大脑是由不同脑区构成的复杂网络,其功能的发挥需要多个脑区相互作用、相互协调,同样癫痫可以网络的方式在不同脑区之间传播。因此,基于EEG信号从脑功能网络的角度来研究癫痫发作是极为必要的。

为了分析FBN在癫痫发作中的有效性,提出了一种通过Rényi 相位传递熵构建功能性大脑网络的方法,研究来自不同大脑区域的 EEG信号的相关性。

CNN最早由Yann LeCun研究团队发明并做出了改进,主要被设计用与解决图像分类问题。CNN的各层结果能够表示图像中的高阶特征,其中起到重要作用的就是CNN中的卷积层。卷积层由多个一维或多维滤波器构成,这些算子的参数一般研究者们依据经验的设置。与之不同的是,卷积层的滤波器可以根据样本的标签实现参数的自我学习。随着CNN的发展,除了传统的卷积核,转置卷积、空洞卷积、分组卷积等各类型卷积核被相继提出。卷积过程的理论不断丰富,也将CNN的应用范围不断扩大。

发明内容

针对现有技术存在的问题,本发明提供了一种基于Rényi相位传递熵和轻量级卷积神经网络的异常脑电信号检测方法,包括如下步骤:

步骤1、获取EEG数据;

步骤2、对获取的EEG数据进行Rényi相位传递熵处理,得到脑功能网络的相关矩阵C;

步骤3、选择阈值,二值化相关矩阵C,得到脑功能网络的邻接矩阵A;

步骤4、将邻接矩阵A输入到轻量级卷积神经网络模型,对脑功能网络作特征提取和癫痫识别任务中分类。

进一步的,所述步骤2中的Rényi相位传递熵的定义为:

RPTEX→Y= Hqy(t)y(t'))+Hqy(t')x(t'))- Hqy(t'))-Hqy(t)y(t')x(t')) (4)

其中,q表示Rényi熵参数,θ(t)为解析信号S(t)的相位序列。

进一步的,所述阈值的选择应满足以下条件:

(1)保证脑功能网络中各节点都是有联系的,不存在独立的节点;

(2)保证脑网络的平均度的值满足大于2lnN,N为网络中节点的个数;

(3)保证邻接矩阵A所表示功能脑网络具备小世界属性。

进一步的,所轻量级卷积神经网络模型包括第一分类层、第二分类层、第三分类层、第四分类层。

进一步的,所述第一分类层包括两层卷积层、一层池化层。

进一步的,所述卷积运算的公式如下:

其中Fi (l)表示CNN第l层的第i个特征图,第(l+1)的特征图Fi (l+1)可以通过卷积运算,通过第l层的第i个特征图Fi (l)进行卷积求和与偏置相加后所得到的,bj是偏置项,kij表示第i个通道第j个卷积核,公式中的“*”表示卷积运算,f是CNN的激活函数。

进一步的,所述第二分类层、第三分类层均包括深度可分离卷积层、池化层。

进一步的,所述深度可分离卷积层的深度可分离卷积先进行通道卷积,如式(13)(其中表示对应元素相乘),再进行逐点卷积,如式(14),最后将式(13)带入式(14)得到深度可分离卷积如式 (15);

SepConv(Wp,Wd,y)(i,j)=PointwiseConv(i,j)(Wp,DepthwiseConv(i,j)(Wd,y)) (15)

其中W为卷积核,y为输入特征图,i,j为输入特征图分辨率, k,l为输出特征图分辨率,m为通道个数。

进一步的,所述第四分类层包括三层全连接层。

进一步的,所述全连接层的定义式如下:

ai=Wi1*x1+Wi2*x2+…+Win*xn+bi (22)

其中,xi为全连接层的输入,ai为输出,Wij为权值参数,bi是偏置参数。

本发明的优点是:本发明提供一种基于Rényi相位传递熵和轻量级卷积神经网络的异常脑电信号检测方法,在准确率,灵敏度,特异性三个方面具有更好的效果,在大幅度降低模型的参数量和计算量情况下,可以保证模型对于脑病识别准确性。

下面结合附图和实施例对本发明做详细说明。

附图说明

图1是数据集划分示意图。

图2是LightlyNet结构示意图。

图3是根据10-20规则电极布置图。

图4是各个CNN的参数性能示意图。

具体实施方式

为进一步阐述本发明达成预定目的所采取的技术手段及功效,以下结合附图及实施例对本发明的具体实施方式、结构特征及其功效,详细说明如下。

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。

在本发明的描述中,需要理解的是,术语“中心”、“上”、“下”、“前”、“后”、“左”、“右”、“垂直”、“水平”、“对齐”、“重叠”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。

术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征;在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。

实施例1

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。

针对现有技术存在的问题,本发明提供了一种基于Rényi相位传递熵和轻量级卷积神经网络的异常脑电信号检测方法,包括如下步骤:

步骤1、获取EEG数据;

步骤2、对获取的EEG数据进行Rényi相位传递熵处理,得到脑功能网络的相关矩阵C;

步骤3、选择阈值,二值化相关矩阵C,得到脑功能网络的邻接矩阵A;

步骤4、将邻接矩阵A输入到轻量级卷积神经网络模型,对脑功能网络作特征提取和癫痫识别任务中分类。

进一步的,所获取的EEG数据来源于波士顿儿童医院的公开脑电生理数据库,可以从PhysioNet网站下载:

http://physionet。org/physiobank/database/chbmit。该资料库收集了患有顽固性癫痫的儿童的脑电记录。脑电图采用Neurocom脑电图 19通道系统(乌克兰,XAI-MEDICA)单极记录。将Ag/AgCl电极按国际10-20系统放置于头皮,位置为Fp1-F7(1)、Fp2-F8(2)、F3-C3(3)、 F4-C4(4)、F7-T7(5)、F8-T8(6)、C3-P3(7)、C4-P4(8)、T7-P7(9)、 T8-P8(10)、P3-O1(11)、P4-O2(12)、P7-O1(13)、P8-O2(14)、Fz-Cz(15)、 Cz-Pz(16)、FT9-FT10(17)、FT10-T8(18)、Pz-Oz(19)。电极放置示意图如图3所示。

数据集是获取5秒的19通道的癫痫发作数据样本和发作间期数据样本各1440个。正负样本按1:1均衡配置,合计2800个样本,训练集的样本占总样本集的63%,验证集和测试集则分别占总样本数的7%和30%。即实验所用的训练集,验证集和测试集样本数分别为1816,200,864个。将获取的数据依照上文所述,构建出脑功能网络。然后将脑功能网络的关联矩阵作为EEGNet的输入。

进一步的,对于信息流强度与方向的变化,可以使用相位传递熵来实现信息变化的检测。但是在信息流强度的定量分析中,由于强度的变化较小,从而导致香农熵无法正确的对信号的特征进行分析。而 Rényi熵可以通过调整熵参数q改善其对信号的分析能力。将Rényi 熵公式引入相位传递熵,可以得出Rényi相位传递熵。

对于给定的时间序列X(t),通过希尔伯特变换可以得到其解析序列S(t)即:

S(t)=X(t)+jH[X(t)]

=A(t)ejθ(t) (1)

式中H[X(t)]为X(t)的希尔伯特变换,A(t)为解析信号S(t)的幅值序列。θ(t)为解析信号S(t)的相位序列,

所述步骤2中的Rényi相位传递熵的定义为:

其中,q表示Rényi熵参数,θ(t)为解析信号S(t)的相位序列;

上式中,q表示Rényi熵参数。q的取值不同,对结果的影响不同,通过调整q的取值,可以在一定程度上避免异常值或极值对结果的影响。Rényi熵中,在相同数据模型中,给q取不同值,可以计算出不同的Rényi熵值。其中,q→0时,对应的RPTE最大。当q→1,根据洛必达法则,Rényi熵将退化为香农熵公式。q→∞,对应最小的RPTE熵值。即,给定了熵值的一个变化区间。随着q的增加,R ényi熵呈现单调递减。p()表示概率。

在得到关联矩阵后,为了对关联矩阵表示的脑功能网络做特征提取,需要确定合适阈值将关联矩阵转换为邻接矩阵。如果两个节点之间的关联关系强度大于阈值,设为“1”,认为对应节点之间存在关联,反之则两节点之间没有连接,设为“0”。

从网络角度来看,为了建立合理的脑网络,应该保证大脑网络具有以下几个特征,首先应该保证脑网络的完整性。其次,保证大脑网络的小世界属性。最后,保证一定程度的网络密度。

进一步的,所述阈值的选择应满足以下条件:

(1)保证脑功能网络中各节点都是有联系的,不存在独立的节点;

(2)保证脑网络的平均度的值满足大于2lnN,N为网络中节点的个数;

(3)保证邻接矩阵A所表示功能脑网络具备小世界属性。

复杂网络属性之一的平均度K作为指标,作为阈值T={t1,t2,...,tn} 来将脑功能网络的关联矩阵进行二值化。具体操作为,选择一个阈值范围,即T∈[t1,tn];研究分析了不同阈值的癫痫发作和发作间期脑功能网络的平均度K值的变化;当K满足上述条件下,同时该寻找在哪个T下,癫痫发作和发作间期的K差异较大,则该T为被选择二值化关联矩阵的阈值。

在选择了合适的阈值之后,对相关矩阵二值化,即:相关矩阵中的每个元素,大于阈值时,把元素值设为1,小于阈值时,把元素值设为0。这样就得到了只包含0和1的邻接矩阵。

在复杂网络理论中,使用邻接矩阵(Adjacency Matrix,A)表示脑功能网络,首先可以直观对显示出脑功能网络的稀疏程度,其次通过邻接矩阵,可以求取脑功能网络基于复杂网络理论的特征。网络的邻接矩阵包括下列性质:

①在无向图中,邻接矩阵的元素值关于主对角线呈对称状,而且主对角线元素值均为零。

②在有向图中节点i的度,即节点度为出度和入度的和。出度为第i行所有非零元素的个数,而入度为第i列所有非零元素的个数。

③用邻接矩阵表示网络结构时,共需要节点数(N)平方的欧氏空间,即N2。当表示为无向图时,由于其对称性,该矩阵可以压缩为大小为N的欧氏空间。即对该矩阵进行存储时,仅需要保持该矩阵的上三角形或下三角形的数据即可。在数据压缩方面,由原本的N2缩减至N(N-1)/2。

进一步的,所轻量级卷积神经网络模型包括第一分类层、第二分类层、第三分类层、第四分类层。

进一步的,所述第一分类层包括两层卷积层、一层池化层。

为了对脑电信号进行识别,设计出一种以深度可分离卷积为核心的轻量级CNN模型,即LightlyNet。在特征提取阶段,为了扩大感受野,使用3*3的卷积层堆叠;为了降低模型参数量,将深度可分离卷积引入模型的设计中。在分类阶段,设计出三个全连接层,进行特征组合与分类;同时为了避免模型的过拟合现象,在全连接层中,基于随机神经元失活的原理,使用dropout技术。LightlyNet模型的结构如图2所示,该网络模型主要包括四个模块,具体如下:

卷积层:在CNN中,卷积核实质是一个可更新的权值矩阵。卷积运算主要是带有可学习参数的卷积核与上一层的特征图进行卷积运算,从而得到输出的特征图。卷积层主要用来提取输入信号的特征,不同的卷积核提取的特征不同。

进一步的,所述卷积运算的公式如下:

其中Fi (l)表示CNN第l层的第i个特征图,第(l+1)的特征图Fi (l+1)可以通过卷积运算,通过第l层的第i个特征图Fi (l)进行卷积求和与偏置相加后所得到的,bj是偏置项,kij表示第i个通道第j个卷积核,公式中的“*”表示卷积运算,f是CNN的激活函数。

进一步的,所述第二分类层、第三分类层均包括深度可分离卷积层、池化层。

批量标准化层与池化层:在网络训练过程中,模型的隐层参数分布经常变化,这会产生不同网络层的参数分布出现较大的差异,即协变量漂移。为了解决这个问题,批量标准化(Batch Normalization, BN)技术逐渐应用在深度神经网格结构设计与优化中。首先在训练深度神经网络过程中,它能解决协变量漂移,从而使深度神经网络的训练更加稳定;其次,BN方法可以加速网络的收敛速度;最后,BN 还能起到正则化的作用。其具体BN操作就是对于隐层内每个神经元的激活值进行如下变换:

x(k)是隐层的k维输入信号。

池化层也称为下采样层,一般接在卷积层之后,是不含有参数的层。池化层主要用来降低卷积层所得到特征图的分辨率获得空间不变的特征,从而减少数据的处理量,加快神经网络的训练速度。池化层在LightlyNet的网络设计中,针对不同的网络结构层,采用了最大池化和随机池化两种方法。

深度可分离卷积:深度可分离卷积(Depth-wise Separable Convolution,DSC)[85]是将标准卷积的特征提取和特征聚合分为两步进行拆分。在DSC结构中,输入数据的各通道进行深度卷积操作,再使用点卷积线性连接深度卷积的输出。其计算公式为:

普通卷积的计算公式为:

进一步的,所述深度可分离卷积层的深度可分离卷积先进行通道卷积,如式(13)(其中表示对应元素相乘),再进行逐点卷积,如式(14),最后将式(13)带入式(14)得到深度可分离卷积如式 (15);

SepConv(Wp,Wd,y)(i,j)=PointwiseConv(i,j)(Wp,DepthwiseConv(i,j)(Wd,y)) (15)

其中W为卷积核,y为输入特征图,i,j为输入特征图分辨率, k,l为输出特征图分辨率,m为通道个数。

进一步的,所述第四分类层包括三层全连接层。

该网络结构能够极大降低模型参数量以及计算量,从而在检测精度没有明显变化的情况下,提高检测速率。设输入数据为M×M× N,卷积核为K×K×P,并且步长为1时,标准卷积参数量为:

WSC=K×K×N×P (16)

且对应的计算量为:

OSC=M×M×K×K×K×P (17)

DSC的参数量为:

WDSC=K×K×N+N×P (18)

且对应的计算量为:

ODSC=M×M×K×K×N+M×N×P (19)

因此,两种结构对于参数量和计算量的比分别为:

在LightlyNet网络中,设计使用5*5大小的卷积核,即K=5时,相比于传统卷积过程,DSC的参数量可减少至原来的约

分类层:LightlyNet网络模型使用三个全连接层作为分类层。全连接层相当于多层感知器模型的隐含层部分,其下一层神经元都与上一层的每一个神经元相连接;同一层的神经元之间相互独立,没有连接关系。在LightlyNet模型分类层中,其输入是前面CNN所学习到的特征展开成的一维特征向量,其输出是这些特征向量进行加权求和。

进一步的,所述全连接层的定义式如下:

ai=Wi1*x1+Wi2*x2+…+Win*xn+bi (22)

其中,xi为全连接层的输入,ai为输出,Wij为权值参数,bi是偏置参数。

综上所述,该基于Rényi相位传递熵和轻量级卷积神经网络的异常脑电信号检测方法,在准确率,灵敏度,特异性三个方面具有更好的效果,在大幅度降低模型的参数量和计算量情况下,可以保证模型对于脑病识别准确性。

实施例2

模型尺度分析

对整个模型的评估,将LightlyNet模型涉及的卷积层、偏置和全连接层等逐层计算,然后求和。

采用了三种经典的CNN与LightlyNet进行对比,统一采用输入3 通道32*32张量,并导入summary的资源包进行分析,模型尺度的结果如图4所示。

如图4,对四种卷积神经网络模型进行参数量和计算量进行分析。由图4(a)中展示的结果可以得到,本章设计的LightlyNet模型在参数量为408842,而经典的LeNet模型参数量为121182,同时轻量级模型MobleNetV2和ShuffleNetV2参数量分别为3504872和1255654。LightlyNet相比于MobleNetV2模型,参数量降低了88.35%,相比于比较流行的轻量级深度神经网络模型ShuffleNetV2,参数量降低了67.44%。从模型内存占用的角度,LightlyNet比流行的两款经典轻量级模型的RAM开销大幅度降低。

在图4(b)中,3通道32*32张量作为输入时,LightlyNet的计算量为1.22M,而LeNet,MobleNetV2和ShuffleNetV2的计算量分为 0.36M,7.79M和3.06M。相比与MobleNetV2和ShuffleNetV2模型, LightlyNet的计算量分别减少了84.34%和60.13%。可见,LightlyNet 模型在计算量上,比流行的轻量级模型仍有大幅度降低。

实施例3

RPTE脑功能网络识别结果

针对经典LeNet模型,ShuffleNetV2模型,MobileNetV2模型和本章提出的LightlyNet模型,对不同熵参数q下构建的脑功能网络进行癫痫识别任务测试。

表一是当Rényi参数q=0.1时的RPTE构建出的脑功能网络作为 CNN模型输入。在同一的测试集上,本节采用LeNet,LightlyNet, ShuffleNetV2和MobileNetV2四种经典卷积神经网络作特征提取与分类,分类结果如表一所示.从表一中的分类结果可以看出,LightlyNet, ShuffleNetV2,MobileNetV2的准确率均为98.96%,而LeNet准确率相比略低,为97.92%。在敏感性方面,LightlyNet的性能最优,为 99.77%。在特异性上,LightlyNet仅仅比ShuffleNetV2低了0.46%。且结合上节中的关于四种CNN模型参数量和计算量的结果, LightlyNet与主流轻量级模型准确率相同的情况下,特异性略低,这说明其模型设计的更为有效。

表一q=0.1的RPTE构建脑功能网络的识别效果

表二是当Rényi参数q=0.5时的RPTE构建出的脑功能网络作为卷积神经网络模型输入。采用同一个测试集样本,LightlyNet在准确率和特异性上都为最优,分别是99.65%和99.77%。在敏感性上, LightlyNet比MobileNetV2低了0.23%。结合上节MobileNetV2比LightlyNet参数量和计算量分别高出8.57倍和6.38倍的结论。可以看出LightlyNet尽管模型尺寸较小,仍具有较强的分类性能。

表二q=0.5的RPTE构建脑功能网络的识别效果

当Rényi参数q→1时,如表三所示。RPTE退化为PTE,即PTE 作为RPTE的一种特殊情况。本节应用此情况下的RPTE进行脑功能网络的构建,然后将该脑功能网络作为CNN的输入。可以看出, ShuffleNetV2和MobileNetV2在准确率,敏感性和特异性指标上均强于LightlyNet,但LeNet的识别性能弱于LightlyNet。

表三q→1的PTE构建脑功能网络的识别效果

当Rényi参数q取1.5时,如表四所示。LightlyNet敏感性相比是最高,为96.53%,即在癫痫检测漏诊方面上,更不容易漏诊。而准确率上,比ShuffleNetV2和MobileNetV2低了0.58%和0.81%。

表四q=1.5的RPTE构建脑功能网络的识别效果

当Rényi参数q取2.5时,如表五所示。LightlyNet准确率和敏感性均是最高,分别为94.79%和95.83%,而在特异性上,比ShuffleNetV2 和MobileNetV2低了1.16%和1.39%。

表五q=2.5的RPTE构建脑功能网络的识别效果

综上所述,本节使用四种卷积神经网络模型分别研究了在不同R ényi参数的RPTE作为输入,对于癫痫识别的性能影响。结果表明,本章所设计的LightlyNet模型,在大幅度降低模型的参数量和计算量情况下,可以保证模型的癫痫识别准确性。

实施例4

不同脑功能网络构建方法的识别结果比较

1)针对癫痫信号,使用LightlyNet的方法,对不同Rényi参数构建的脑功能网络和锁相值构建的脑功能网络都做了实验探究,结果如表六所示。

首先,不同“边”的分析方法所构建出的脑功能网络作为输入,然后,将LightlyNet训练迭代200次后进行导出,最后,将训练完毕的LightlyNet模型应用至测试集中进行效果测试。测试集上的分类结果如表六所示。癫痫发作与发作间期进行准确识别,即准确率这一指标上。使用RPTE构建的脑功能网络作为输入,当q=0.5时,LightlyNet 识别准确率最高为99.65%;当q=2.5时,LightlyNet识别准确率最低为94.79%。而PLV构建出的脑功能网络作为输入时,LightlyNet模型呈现出92.96%的准确率。同时,锁相值的方法低于94.79%,这说明,RPTE性能最差的情况也高于锁相值的方法。表明了RPTE构建脑功能网络的有效性。

表六测试集分类性能

灵敏度为分类器判断该样本为癫痫发作占癫痫发作样本数的比率,即将癫痫发作是否漏诊检测这一性能上,当q=0.5时RPTE的方法显示出为最高99.77%的效果。RPTE方法最差是当q=2.5时,敏感性为95.83%。而锁相值的96.30%的敏感性仅仅比q=2.5时大。

特异性在本文的医学统计学意义是分类器判断发作间期占发作间期样本数的比率。即从误诊角度,表明该模型对发作间期的准确检测。LightlyNet应用于RPTE的脑功能网络中,q=0.5时,最高显示出有99.54%的性能;当q=1.5和2.5,也有93.75%的特异性,显然强于锁相值的90.05%。综上所述,RPTE是Rényi熵基础上更为广义化的相位传递熵,在准确率,特异性,敏感性都高于PTE构建脑功能网络的方法。同时以锁相值的方法作为对比,RPTE构建出的脑功能网络也比PLV的方法,在癫痫识别方面更为有效。

实验结果

本研究提出一种基于深度可分离卷积的LightlyNet方法。首先,从模型尺寸的角度,将LightlyNet与经典的CNN进行参数量与计算量比较分析。相比MobleNetV2和ShuffleNetV2,LightlyNet的计算量分别减少了84.34%和60.13%。参数量相比,分别降低了67.44%和 88.35%。

使用LightlyNet进行了癫痫EEG信号的识别。研究表明,使用 q=0.5的Rényi相位传递熵构建的脑功能网络效果最好。在准确率,灵敏度,特异性三个方面分别呈现出99.65%,99.77%和99.54%的性能。而锁相值所构建的脑功能网络方法在准确率,灵敏度,特异性三个性能指标中,分别呈现有,82.96%,96.30%,90.05%的性能,表明本文设计的LightlyNet模型,具有一定的实际应用价值。

需要说明的是,本实施例的附图均采用非常简化的形式且均使用非精准的比率,仅用于方便、明晰地辅助说明本发明的实施例。

应当理解,上述实施例仅为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。

以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

16页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:脑电信号分类方法、装置、设备及存储介质

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!