基于区块链互证和生物多特征识别及多源数据融合的身份识别方法

文档序号:69007 发布日期:2021-10-01 浏览:21次 >En<

阅读说明:本技术 基于区块链互证和生物多特征识别及多源数据融合的身份识别方法 (Identity recognition method based on block chain mutual authentication, biological multi-feature recognition and multi-source data fusion ) 是由 朱全银 马天龙 高尚兵 徐莹莹 马思伟 朱燕妮 王媛媛 周泓 冯远航 章磊 魏丹 于 2021-06-24 设计创作,主要内容包括:本发明公开了一种基于区块链互证和生物多特征识别及多源数据融合的身份识别方法,适用于普遍的身份识别方法和基于区块链互证的签到问题。这种基于ANP的数据融合方法是基于卷积神经网络来进行特征抽取并利用传统机器学习算法进行分类,最后使用区块链互证方式进行验证并将数据融合,首先接收用户发来的需要进行识别的照片和语音信息,而后调用目标检测算法对图片中的人脸信息进行识别,随后调用声纹识别算法进行识别,最后利用网络图片互证方式进行识别结果的二次验证,最后将识别的结果进行融合存储于签到系统中。本发明可以有效识别生物特征,并通过互证的方式可以准确地进行二次验证,并将验证数据进行融合,可以准确的进行签到的记录。(The invention discloses an identity recognition method based on block chain mutual authentication, biological multi-feature recognition and multi-source data fusion, which is suitable for a common identity recognition method and a check-in problem based on block chain mutual authentication. The data fusion method based on the ANP is characterized by extracting features based on a convolutional neural network, classifying the features by using a traditional machine learning algorithm, verifying the features by using a block chain mutual authentication mode and fusing the data, receiving photos and voice information which are sent by a user and need to be recognized, calling a target detection algorithm to recognize face information in the photos, calling a voiceprint recognition algorithm to recognize the face information, verifying a recognition result secondarily by using a network picture mutual authentication mode, and fusing and storing the recognition result in a check-in system. The invention can effectively identify biological characteristics, accurately carry out secondary verification by mutual authentication, fuse verification data and accurately record check-in.)

基于区块链互证和生物多特征识别及多源数据融合的身份识 别方法

技术领域

本发明涉及数据融合和特征识别方法,具体涉及一种基于区块链和生物多特征识别及多源数据融合的身份识别方法。

背景技术

近些年生物特征识别技术发展迅猛,使人们逐渐开始关注使用通过图像处理和识别等方法来鉴别个人身份技术。基于生物识别技术的身份认证的需求不断增加,传统的生物识别技术已经可以被仿造,例如通过伪造指纹或人脸来进行身份验证,所以单模态生物识别系统在匹配进度、难度、普遍性都有了限制。所以将生物的多特征进行融合来提高生物识别的稳定性、准确性在实中去检测及跟踪处理多个目标的面部特征信息,这在学校以及企业等地方具有重要实际意义,不光可以为学校提供课堂有效的签到结果集,还能为企业减少由于技术员工代出勤的安全隐患。

在生物特征认证方面,目前多数研究主要人脸、指纹、虹膜、声音等问题的单方面处理,缺乏对生物多特征融合研究,信息融合较为单一。

发明内容

发明目的:针对现有技术中存在的问题,本发明一种基于区块链和生物多特征识别及多源数据融合的身份识别方法,目的在于解决多生物特征下签到问题。

技术方案:为解决上述技术问题,本发明提供一种基于区块链和生物多特征识别及多源数据融合的身份识别方法,其特征在于,包括如下步骤:

(1)设获取到的无线网络列表初始图像数据集为W,由网络图片转换为的文本数据集为WT,利用CURE算法对文本数据集中WT中生成的网络样本点进行聚类和标记,并根据离群点和聚合点计算投票数标记为SC1

(2)设获取到的人脸初始图像数据集为Fa,将提交图片与人脸初始图像数据集Fa进行特征值识别,获取相似度分值,记为SC2

(3)输入语音信号数据集S3,对语音信号数据集S3的语音信号进行预加重、分帧处理,获得MFCC特征参数,通过GMM高斯混合模型得到声纹相似度分值,记为SC3

(4)将获取的计算投票数SC1、相似度分值SC2、声纹相似度分值SC3作为输入,并对特征分值建立两两比较的对比矩阵,利用AHP方法对计算投票数SC1、相似度分值SC2、声纹相似度分值SC3进行融合计算得出AHP权重,记为N;

(5)将签到数据根据权重进行融合,并建立数据表,将融合结果进行加密,并将融合结果作为最终签到结果进行存储,通过网页端输出,并按照融合签到结果与特征签到结果生成不同签到表,供用户下载。

进一步的,步骤(1)具体包括如下内容:

(1.1)输入无线网络列表初始图像数据集W,定义集合X为待识别对象上传图片数,定义函数len(X)表示集合X的长度,令W={W1,W2,…,WM},其中,WM表示W中第M张图像,M∈[1,len(W)];

(1.2)定义循环变量i1,用于遍历W,i1∈[1,len(W)],i1赋初值为1;

(1.3)如果i1≤len(W)则进入步骤(1.4),否则进入步骤(1.10);

(1.4)对Wi1进行去噪处理,得到Deno_Si1

(1.5)将去噪图像Deno_Wi1做图像增强处理,得到增强图像Enhance_Wi1

(1.6)对增强图像Enhance_Wi1进行缩放处理,得到缩放图像zom_Wi1

(1.7)对缩放图像zom_Wi1进行特征提取,得到特征图像sha_Wi1

(1.8)利用字符分类器对特征图像sha_Wi1进行字符识别并提取出字符信息,得到的字符信息放到WT中;

(1.9)i1=i1+1,进入步骤(1.3);

(1.10)WIFI信息字符提取结束;

(1.11)定义循环变量Bt,并赋初值Bt=0,定义最大循环次数Bn为当前发送图片的用户人数;

(1.12)定义一张哈希表FS记录投票及待识别对象信息,键为SF表示待识别对象提交的图片信息,定义另一张表Cm表示待识别对象获得的投票数,FS表的值为哈希表Cm,Cm的键为当前发送图片对应的待识别对象名,值为该待识别对象获得的票数;

(1.13)Bt所对应的SF在FS中存在;

(1.14)将FS作为父表,新建一张哈希表Cmi添加入父表FS;

(1.15)Bt对应的投票在Cm中存在;

(1.16)新建键为Bt对应的投票对象,值为1并存储进Cm中;

(1.17)将获取的WT转换为不同的热点S,利用CURE算法取出随机的热点作为随机样本点Si

(1.18)将随机样本点Si分割为组记为Pi;利用CURE算法对Pi聚类,聚类出的聚类点标记为Gi,离群点标记为Oi

(1.19)根据离群点与聚类点将Cm中对应投票的值+1或-1记为H,并定义总投票数为H1;

(1.20)得票数H与总得票数H1的比值记为SC1

(1.21)如果SC1<ω,则判定位置验证失败,即当前待识别对象提交网络图片信息与其他待识别对象提交的网络图片信息不匹配,其中ω为根据验证总数与投票数设定的网络图片信息相似度阈值。

进一步的,步骤(2)具体包括如下内容:

(2.1)定义人脸检测目标object,并建立用于存储待识别对象信息和人脸信息的表,记为Fa;定义函数len(Fa)为集合Fa长度,令Fa={Fa1,Fa2,…,Fas},其中,Fas表示Fa中第S张图像,S∈[1,len(Fa)];

(2.2)定义循环变量j1,用于遍历Fa,j1∈[1,len(Fa)],j1赋初值为1;

(2.3)遍历Fa,如果j1≤len(Fa),则跳转到步骤(2.4),否则结束遍历Fa,跳转到步骤(2.21);

(2.4)对Fa采用Haar特征处理;

(2.5)加载Adaboost分类器并对Fa进行检测和分割,循环检测object的人脸;

(2.6)定义当前关键帧人脸取得标志状态d_flag,其中,d_flag为1时表示object检测到人脸,d_flag为0时表示object未检测到人脸;

(2.7)若d_flag=1,则跳转到步骤(2.8),否则跳转到步骤(2.17);

(2.8)对人脸区域Faf进行归一化处理,获得人脸归一化区域F;

(2.9)对人脸归一化区域F利用LBP特征算子进行人脸LBP特征的提取,获得人脸特征直方图Ff

(2.10)如果系统已有检测目标object,则跳转到步骤(2.11),否则跳转到(2.16);

(2.11)输入检测图像G,利用卡方距离分别计算所述检测图像G的人脸特征直方图Gf

(2.12)利用卡方距离计算所述人脸特征直方图集合Ff={F1 f,F2 f,…,Fn f,…FN f}中每个人脸特征直方图的距离,并进行归一化处理获得人脸特征距离集合DISf={dis1 f,dis2 f,…,disn f,…disN f};disn f表示所述检测图像G的人脸特征直方图Gf与Fa人脸特征直方图Faf的人脸特征距离;

(2.13)对人脸特征距离集合DISf={dis1 f,dis2 f,…,disn f,…disN f}进行自适应加权融合处理,将融合后的特征距离按升序排列,获得最优特征距离集合DISopt

(2.14)若最优特征距离集合DISopt中的任一元素都大于所设定的距离阈值,则跳转到步骤(2.16),否则跳转到(2.15);

(2.15)识别成功,返回所述最优特征距离集合DISopt中最小距离所对应人的身份信息;对所述初始特征距离集合{dis1 Wf,Wp,dis2 Wf,Wp,…,disn Wf,Wp,…disN Wf,Wp}进行升序排序,并计算前Y个特征距离的平均值Mean(Y)以及第Y+1个特征距离到第N个特征距离的平均值Mean(N-Y);1<=Y<=N;

利用式(1)进行自适应可靠判断,获得相似分值δ=Mean(N)-Mean(N-Y);

(2.16)创建新的检测目标,创建每个检测目标的特征列表,存于Fa中;

(2.17)如果系统已有跟踪目标object,则跳转到步骤(2.19),否则跳转到步骤(2.20);

(2.18)将提取到的特征添加到每个检测目标的特征列表;

(2.19)使用卡尔曼观测器预测object中每个检测目标下一帧所在位置,清除长时间未匹配到目标的检测器;

(2.20)i1=i1+1,进入步骤(2.3);

(2.21)得到视频帧人脸位置集合Fa={Fa1,Fa2,…,Fas}的特征相似度分值SC2,其中,Fas表示Fa中第S张图像。

进一步的,步骤(3)具体包括如下内容:

(3.1)输入语音信号数据集记为S3

(3.2)对语音信号进行预加重、分帧处理;对分帧处理后的每帧语音信号进行加窗、傅里叶变换、Mel频率滤波器组滤波和离散余弦变换,获得MFCC特征参数,得到MFCC序列;

(3.3)利用MFCC序列训练GMM高斯混合模型,得到GMM高斯混合模型的特征参数序列X3

(3.4)对语音信号进行分帧处理,分为T段,对每段语音信号计算MFCC序列,记为Yt

(3.5)对声纹特征向量序列Yt={Y1,Y2,Y3,…,YN}处理,求出GMM高斯混合模型的特征参数λ,使得特征向量序列Yt的似然概率最大;

(3.6)将所有T段MFCC序列Yt前后串接得到用户声纹特征序列Ya,将序列Ya输入GMM高斯混合模型计算后验概率,得到声纹相似度分值SC3

进一步的,步骤(4)具体包括如下内容:

(4.1)将人脸、声纹识别数据和热点数据作为准则层C1、C2、C3;

(4.2)定义签到结果分别为K1、K2、K3作为方案层;

(4.3)定义最终签到率最高为O作为目标层;

(4.4)定义判断矩阵标度方法记为,该标度方法用于对两个因素进行比较,并确定两个因素的重要程度;

(4.5)针对准则层、方案层和目标层,利用层次分析法建立判断矩阵,计算最大特征根λmax,对λmax做归一化处理后记为Nor,并计算一致性比率CR1;

(4.6)如果CR1<0.1则进入步骤(4.5),否则进入步骤(4.7);

(4.7)对准测层与目标层进行层次总排序计算出一致性比率CR2;

(4.8)对准测层与方案层进行层次总排序计算出一致性比率CR3;

(4.9)如果CR1<0.1则进入步骤(4.8),否则进入步骤(4.7)。

(4.10)根据CR2和CR3决策得出权重值N。

进一步的,步骤(5)具体包括如下内容:

(5.1)根据步骤(4)获得的权重值N,对人脸、声纹、热点签到信息进行加权融合,获得最终融合结果,记为A;

(5.2)定义考勤系统数据库表名Sid,Sname,Swifi,Sage,Sface,Svoice,SFU分别为单个待识别对象的ID、姓名、无线网络列表图片、年龄、人脸图片、语音中特征标签、考勤数据融合表,满足St={Sid,Sname,Swifi,Sage,Sface,Svoice,SFU};

(5.3)定义循环变量St,并赋初值St=0,定义最大循环次数Sn为当前发送图片的待识别对象人数;

(5.4)如果St<Sn则进入步骤(5.5)否则进入步骤(5.11);

(5.5)新建一张考勤数据融合表SFU;

(5.6)将权重值N与对应特征值进行融合写入考勤数据融合表SFU;

(5.7)将步骤(1)、(2)、(3)获取的计算投票数SC1、相似度分值SC2、声纹相似度分值SC3写入表Swifi,Sface,Svoice中;

(5.8)设定计算投票数SC1、相似度分值SC2、声纹相似度分值SC3的融合阈值δ,如果A>δ;跳转步骤(5.9),否则跳转至步骤(5.10);

(5.9)待识别对象本次签到结果标记为“成功”写入数据库表SFU中;

(5.10)待识别对象本次签到结果标记为“错误”写入数据库表SFU中;

(5.11)将数据库表St中信息通过网页端输出,并按照融合签到结果与特征签到结果生成不同签到表,供用户下载。

有益效果:

和现有技术相比,本发明具有如下显著优点:1、基于区块链和生物多特征的数据融合识别,利用生物多特征识别数据,基于ANP神经网络对生物特征相似值进行数据融合,并利用区块链中的去中心化避免了签到者未到场而签到的情况,从而实现多源数据的融合识别。2、改变了单生物特征识别的局限性,结合改进的WIFI签到识别技术,可有效获取一种准确度较高的用户签到信息结果标签,使在对具有多生物特征识别的情况下用户签到识别结果更加准确,增加了目标场景下人脸、声纹识别的使用价值。

附图说明

图1为本发明实施例的基于区块链和生物多特征识别及多源数据融合的身份识别方法的流程图;

图2为本发明实施例的WIFI信号图片文本提取及其相似分值流程图;

图3为本发明实施例的人脸识别子系统流程图;

图4为本发明实施例的人脸图片的归一化、特征提取和人脸相似分值流程图;

图5为本发明实施例的语音信号的预处理、特征提取和声纹相似分值流程图;

图6为本发明实施例的图2、3中的声纹、人脸相似分值融合流程图;

图7为本发明实施例的特征数据融合并通过网页端展示系统流程图。

具体实施方式

本发明提出的基于区块链、生物多特征识别和多源数据融合的身份识别方法,将区块链技术、GMM高斯混合模型、ANP算法、CURE聚类算法等技术手段相结合,通过用户多生物特征的识别相似值进行数据融合以及为防止用户并未真正参与进来使用基于区块链的去中心化的识别方式,真正的使得待识别对象参与签到,增加了目标场景下生物多特征的数据使用价值,提高了签到的可信度。

区块链技术:区块链是一个信息技术领域的术语。从本质上讲,它是一个共享数据库,存储于其中的数据或信息,具有去中心化、开放性、独立性、安全性和匿名性等特征。区块链技术是利用块链式数据结构来验证与存储数据、利用分布式节点共识算法来生成和更新数据、利用密码学的方式保证数据传输和访问的安全、利用由自动化脚本代码组成的智能合约来编程和操作数据的一种全新的分布式基础架构与计算范式。通过区块链可以适当的解决业务开展进行跨主体协作和建立低成本信任等问题。基于这些特征,本发明通过对手机无线网络列表图片的文本特征提取进行比对,每个用户网络列表作为数据源。区块链核心技术有分布式账本、非对称加密、共识机制和智能合约。

GMM高斯混合模型:高斯模型就是用高斯概率密度函数(正态分布曲线)精确地量化事物,将一个事物分解为若干的基于高斯概率密度函数(正态分布曲线)形成的模型。本发明通过现有通用技术对音频进行预处理,通过GMM高斯混合模型得到声纹的特征参数,从而生成融合判决模板,再通过训练计算等对待识别对象信息进行融合判决。GMMs已经在数值逼近、语音识别、图像分类、图像去噪、图像重构、故障诊断、视频分析、邮件过滤、密度估计、目标识别与跟踪等领域取得了良好的效果。

ANP算法:ANP首先将系统元素划分为两大部分:第一部分称为控制因素层,包括问题目标及决策准则。所有的决策准则均被认为是彼此独立的,且只受目标元素支配。控制因素中可以没有决策准则,但至少有一个目标。控制层中每个准则的权重均可用AHP方法获得。第二部分为网络层,它是由所有受控制层支配的元素组组成的C其内部是互相影响的网络结构,它是由所有受控制层支配的元素组成的,元素之间互相依存、互相支配,元素和层次间内部不独立,递阶层次结构中的每个准则支配的不是一个简单的内部独立的元素,而是一个互相依存,反馈的网络结构。

CURE聚类算法:CURE采用了一种新型的层次聚类算法,这种算法介于“单链”和“组平均”之间,克服了这两种层次聚类算法的不足之处,可以处理大型数据、离群点和具有非球形大小和非均匀大小的簇的数据。

该算法先把每个数据点看成一类,然后合并距离最近的类直至类个数为所要求的个数为止。但是和AGNES算法的区别是:取消了使用所有点或用中心点+距离来表示一个类,而是从每个类中抽取固定数量、分布较好的点作为此类的代表点,并将这些代表点(一般10个)乘以一个适当的收缩因子(一般设置0.2~0.7之间),使它们更加靠近类中心点。

下面结合校园课堂听课场景下学生人脸的多目标追踪签到考勤及学生面部特征信息跟踪识别处理生产项目的具体实施例,进一步详细阐明本发明的技术方案。

如图1-图7所示,一种基于区块链和生物多特征识别及多源数据融合的身份识别方法,包括如下步骤:

1、设获取到的无线网络列表初始图像数据集为W,由网络图片转换为的文本数据集为WT,利用CURE算法对文本数据集中WT中生成的网络样本点进行聚类和标记,并根据离群点和聚合点计算投票数标记为SC1。

2、设获取到的人脸初始图像数据集为Fa,通过将提交图片与数据集Fa的特征值识别,获取的相似度分值为SC2。

3、输入声纹特征信息音频S,对语音信号进行预加重、分帧处理,获得MFCC特征参数,通过GMM高斯混合模型得到声纹得到声纹相似度分值,记为SC3。

4、将获取的特征分值数据与无线网络热点数据作为输入,并对特征分值建立两两比较的对比矩阵,利用AHP方法对特征值进行融合计算得出AHP权重,记为N。

5、将签到数据根据权重进行融合,并建立数据表,将融合结果进行加密,并将融合结果作为最终签到结果进行存储,通过网页端输出,并按照融合签到结果与特征签到结果生成不同签到表,供用户下载。

以下是步骤1-5的详细流程:

步骤1具体包括:

步骤1.1:输入图像数据集W,定义集合X为学生上传图片数,定义函数len(W)集合W长度,令W={W1,W2,…,WM},其中,WM表示W中第M张图像,M∈[1,len(W)];

步骤1.2:定义循环变量i1,用于遍历W,i1∈[1,len(W)],i1赋初值为1;

步骤1.3:如果i1≤len(W)则进入步骤1.4否则进入步骤1.10;

步骤1.4:对Si1进行去噪处理,得到Deno_Si1

步骤1.5:将去噪图像Deno_Wi1做图像增强处理,得到增强图像Enhance_Wi1;

步骤1.6:对增强图像Enhance_Wi1进行缩放处理,得到缩放图像zom_Wi1

步骤1.7:对缩放图像zom_Wi1进行特征提取,得到特征图像sha_Wi1

步骤1.8:利用字符分类器对特征图像sha_Wi1进行字符识别并提取出字符信息,得到字符信息放到WT中;

步骤1.9:i1=i1+1,进入步骤1.3;

步骤1.10:WIFI信息字符提取结束。

步骤1.11:定义循环变量Bt,并赋初值Bt=0,定义最大循环次数Bn为当前发送图片的用户人数;

步骤1.12:定义一张哈希表FS记录投票及学生信息,键为SF表示学生提交的图片信息,定义另一张表Cm表示学生获得的投票数,FS表的值为哈希表Cm,Cm的键为当前发送图片对应的学生名,值为该学生获得的票数;

步骤1.13:Bt所对应的SF在FS中存在;

步骤1.14:新建一张哈希表Cmi添加父表FS;

步骤1.15:Bt对应的投票在Cm中存在;

步骤1.16:新建键为Bt对应的投票对象,值为1并存储进Cm中;

步骤1.17:将获取的WT转换为不同的热点S,利用CURE算法取出随机的热点作为随机样本点Si;

步骤1.18:将随机样本点Si分割为一组记为Pi;利用CURE聚类算法对Pi进行聚类,聚类出的点标记为Gi,离群点标记为Oi

步骤1.19:根据离群点与聚类点将Cm中对应投票的值+1或-1记为H,并定义总投票数为H1;

步骤1.20:得票数H与总得票数H1的比值记为SC1;

步骤1.21:如果SC1<ω,则判定位置验证失败,即当前学生提交网络图片信息与其他学生提交的网络图片信息不匹配,其中ω为根据验证总数与投票数设定的网络图片信息相似度阈值。

步骤2具体包括:

步骤2.1:定义人脸检测目标object,并建立用于存储学生信息和人脸信息的表,记为Fa;定义函数len(Fa)集合Fa长度,令Fa={Fa1,Fa2,…,Fas},其中,Fas表示Fa中第S张图像,S∈[1,len(Fa)];

步骤2.2:定义循环变量j1,用于遍历Fa,j1∈[1,len(Fa)],j1赋初值为1;

步骤2.3:遍历Fa,如果j1≤len(Fa),则跳转到步骤(2.4),否则结束遍历Fa,跳转到步骤(2.21);

步骤2.4:对Fa采用Haar特征处理;

步骤2.5:加载Adaboost分类器并对Fa进行检测和分割,循环检测object的人脸;

步骤2.6:定义当前关键帧人脸取得标志状态d_flag,其中,d_flag为1时表示object检测到人脸,d_flag为0时表示object未检测到人脸;

步骤2.7:若d_flag=1,则跳转到步骤2.8,否则跳转到步骤2.17;

步骤2.8:对人脸区域Faf进行归一化处理,获得第人脸归一化区域F;

步骤2.9:对人脸归一化区域F利用LBP特征算子进行人脸LBP特征的提取,获得人脸特征直方图Ff

步骤2.10:如果系统已有检测目标object,则跳转到步骤2.11,否则跳转到2.16;

步骤2.11:输入检测图像G利用卡方距离分别计算所述检测图像G的人脸特征直方图Gf

步骤2.12:利用卡方距离计算所述人脸特征直方图集合:Ff={F1 f,F2 f,…,Fn f,…FN f}中每个人脸特征直方图的距离,并进行归一化处理获得人脸特征距离集合DISf={dis1 f,dis2 f,…,disn f,…disN f};disn f表示所述检测图像G的人脸特征直方图Gf与Fa人脸特征直方图Faf的人脸特征距离;

步骤2.13:对人脸特征距离集合DISf={dis1 f,dis2 f,…,disn f,…disN f}进行自适应加权融合处理,将融合后的特征距离按升序排列,获得最优特征距离集合DISopt

步骤2.14:若最优特征距离集合DISopt中的任一元素都大于所设定的距离阈值,则跳转到步骤2.16,否则跳转到2.15;

步骤2.15:识别成功,返回所述最优特征距离集合DISopt中最小距离所对应人的身份信息;对所述初始特征距离集

{dis1 Wf,Wp,dis2 Wf,Wp,…,disn Wf,Wp,…disN Wf,Wp}进行升序排序,并计算前Y个特征距离的平均值Mean(Y)以及第Y+1个特征距离到第N个特征距离的平均值Mean(N-Y);1<=Y<=N;

利用式(1)进行自适应可靠判断,获得相似分值δ:

δ=Mean(N)-Mean(N-Y) (1)

步骤2.16:创建新的检测目标,创建每个检测目标的特征列表,存于Fa中;

步骤2.17:如果系统已有跟踪目标object,则跳转到步骤2.19,否则跳转到步骤2.20;

步骤2.18:将提取到的特征添加到每个检测目标的特征列表;

步骤2.19:使用卡尔曼观测器预测object中每个检测目标下一帧所在位置,清除长时间未匹配到目标的检测器;

步骤2.20:变量i1自增1,即i1=i1+1,进入到步骤2.3;

步骤2.21:得到视频帧人脸位置集合Fa={Fa1,Fa2,…,FaM}的特征相似度,其中,Fas表示Fa中第S张图像。

步骤3具体包括:

步骤3.1:输入语音信号数据集记为S3;

步骤3.2:对语音信号进行预加重、分帧处理;对分帧处理后的每帧语音信号进行加窗、傅里叶变换、Mel频率滤波器组滤波和离散余弦变换,获得MFCC特征参数等,得到MFCC序列;

步骤3.3:利用MFCC序列训练GMM高斯混合模型,得到GMM高斯混合模型的特征参数序列X3;

步骤3.4:对语音信号进行分帧处理,分为T段,对每段语音信号计算MFCC序列,记为Yt;

步骤3.5:对声纹特征向量序列Yt={Y1,Y2,Y3,…,YN}处理,求出GMM高斯混合模型的特征参数λ,使得特征向量序列Yt的似然概率最大;

步骤3.6:将所有T段MFCC序列Yt前后串接得到用户声纹特征序列Ya,将序列Ya输入GMM高斯混合模型计算后验概率,得到声纹相似度分值SC3

步骤4具体包括:

步骤4.1:将人脸、声纹识别数据和热点数据作为准则层C1、C2、C3;

步骤4.2:定义签到结果分别为K1、K2、K3作为方案层;

步骤4.3:定义最终签到率最高为O作为目标层;

步骤4.4:定义判断矩阵标度方法记为i1-i9;具体含义见表1;

步骤4.5:利用层次分析法将不同层建立判断矩阵计算最大特征根,并对做归一化处理后记为Nor,并计算一致性比率CR1;

步骤4.6:如果CR1<0.1则进入步骤4.5,否则进去步骤4.7;

步骤4.7:对准测层与目标层进行层次总排序计算出一致性比率CR2;

步骤4.8:对方案层与方案层进行层次总排序计算出一致性比率CR3;

步骤4.9:定义判断矩阵标度方法记为ij其中j∈[1-9];

步骤4.10:如果CR<0.1则进入步骤4.8,否则进入步骤4.2重新构造判断矩阵;

步骤4.11:根据层次总排序一致性比率进行决策得出权重值N;

步骤5具体包括:

步骤5.1:将步骤4所获得的权重值N,对人脸、声纹、热点签到信息进行加权融合,获得最终融合结果记为A;

步骤5.2:定义考勤系统数据库表名Sid,Sname,Swifi,Sage,Sface,Svoic,SFU分别为单个学生的学号、姓名、无线网络图、年龄、人脸图片、语音、考勤数据融合表,满足St={Sid,Sname,Swifi,Sage,Sface,Svoice,SFU};

步骤5.3:定义循环变量St,并赋初值St=0,定义最大循环次数Sn为当前发送图片的学生人数;

步骤5.4:如果St<Sn则进入步骤5.5否则进入步骤5.11;

步骤5.5:新建一张考勤数据融合表SFU;

步骤5.6:将步骤4获得的权重与对应特征值进行融合写入考勤数据融合表SFU;

步骤5.7:将步骤1、2、3获取的计算投票数SC1、相似度分值SC2、声纹相似度分值SC3写入表Swifi,Sface,Svoice中;

步骤5.8:设定计算投票数SC1、相似度分值SC2、声纹相似度分值SC3的融合阈值δ,如果A>δ;跳转步骤(5.9),否则跳转至步骤(5.10);

步骤5.9:学生本次签到结果标记为“成功”写入数据库表SFU中;

步骤5.10:学生本次签到结果标记为“错误”写入数据库表SFU中;

步骤5.11:将数据库表St中信息通过网页端输出,并按照融合签到结果与特征签到结果生成不同签到表,供用户下载。

表1:步骤1-5涉及的变量

为了更好的说明本方法的有效性,通过对4956张学生面部信息关键帧序列进行数据处理,利用LBP进行特征提取获得人脸特征直方图,并通过卡方距离计算相似度分值。对224组672张WIFI图片进行字符提取,通过投票得出对应的WIFI相似分值。对64组语音信号进行特征提取,利用GMM高斯混合模型计算相似分值,通过对各相似分值的数据融合,提高了生物特征签到的准确性并在签到结果上取得了98%的准确率。

本发明可与计算机系统结合,从而完成生物多特征识别的多源数据融合。

本发明创造性的提出了基于区块链和生物多特征识别及多源数据融合的身份识别方法,经过多次实验,得到WIFI环境下生物多特征签到的识别结果。

本发明提出的提出了基于区块链和生物多特征识别及多源数据融合的识别方法,可以用WIFI环境下生物声纹、人脸的特征识别与识别结果的数据融合。

以上所述仅为本发明的实施例而己,并不用于限制本发明。凡在本发明的原则之内,所作的等同替换,均应包含在本发明的保护范围之内。本发明未作详细阐述的内容属于本专业领域技术人员公知的已有技术。

24页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种遥感图像的匹配方法

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!