基于维度学习策略和莱维飞行的灰狼优化方法

文档序号:1890416 发布日期:2021-11-26 浏览:15次 >En<

阅读说明:本技术 基于维度学习策略和莱维飞行的灰狼优化方法 (Gray wolf optimization method based on dimension learning strategy and Levy flight ) 是由 周淼磊 刘鑫洋 王一帆 于 2021-09-08 设计创作,主要内容包括:一种基于维度学习策略和莱维飞行的灰狼优化方法,属于系统辨识技术领域。本发明的目的是在三匹首领狼中使用维度学习的策略构建模范狼,结合莱维飞行解决狼群都向模范狼学习导致的全局探索能力减弱和可能产生早熟收敛问题的基于维度学习策略和莱维飞行的灰狼优化方法。本发明的步骤是:在灰狼优化方法的领导层中使用维度学习策略构建模范狼;将步骤1中的模范狼应用到狼群的更新中,并结合莱维飞行设计基于维度学习策略的灰狼优化方法。本发明极大提升了标准灰狼优化算法的性能,提高了灰狼优化算法的收敛速度和收敛精度。(A gray wolf optimization method based on a dimension learning strategy and Levy flight belongs to the technical field of system identification. The invention aims to construct a model wolf by using a dimension learning strategy in three leading wolfs and solve the problems of weakened global exploration capability and possibly generated premature convergence caused by learning from a wolf group to the model wolf by combining Levie flight. The method comprises the following steps: constructing a model wolf by using a dimension learning strategy in a leading layer of the wolf optimization method; and (3) applying the model wolf in the step (1) to updating of a wolf group, and designing a gray wolf optimization method based on a dimension learning strategy by combining Levy flight. The invention greatly improves the performance of the standard gray wolf optimization algorithm and improves the convergence speed and the convergence precision of the gray wolf optimization algorithm.)

基于维度学习策略和莱维飞行的灰狼优化方法

技术领域

本发明属于系统辨识技术领域。

背景技术

在现实世界中,有许多优化问题需要解决,优化技术也因此而迅速发展起来。这些技术在大多数情况下需要求出所涉及问题的目标函数的导数。但由于某些原因,函数的导数有时非常难求,有时甚至根本无法求出。作为一种重要的无导数算法,群智能优化算法因具有搜索能力强、实现简单、参数少、能力强等特点而得到了越来越多的关注。

灰狼优化算法是一种性能良好的群智能优化算法,它的搜索机制是通过模仿灰狼群体中严格的领导等级和狩猎时的群体行为来建立的。这种机制保证了算法具有可靠的搜索能力。由于其实现简单、计算复杂度低、搜索效率高等优点,在过去的几年里,该算法得到了广泛的应用。然而这种搜索机制也存在一定的问题,比如其狼群更新的过程依赖于三匹首领狼Alpha、Beta和Delta,因此当首领狼的信息相互冲突时,狼群可能无法获得更有价值的信息。考虑到这一情况,在三匹首领狼所在的领导层中使用维度学习的策略,以保护关于猎物位置潜在的有用知识,从而更有效地引导个体。在维度学习策略中,Delta逐一学习Alpha和Beta每个维度的信息来构建一只模范狼,通过这种方式,三只狼的有价值信息可以传递给模范狼从而传递给狼群中的其他狼。考虑到领导层在灰狼优化算法中的重要作用以及灰狼优化算法在实际优化问题中的广泛前景,如何解决这一问题至关重要。

发明内容

本发明的目的是在三匹首领狼中使用维度学习的策略构建模范狼,结合莱维飞行解决狼群都向模范狼学习导致的全局探索能力减弱和可能产生早熟收敛问题的基于维度学习策略和莱维飞行的灰狼优化方法。

本发明的步骤是:

S1、在灰狼优化方法的领导层中使用维度学习策略构建模范狼;

将狼群中的最优解设为Alpha(α),第二最优解和第三最优解分别称为Beta(β)和Delta(δ),狼群中的其他解设定为Omega(ω);

灰狼优化方法的模型如下:

X(t+1)=Xprey(t)-A·D (1)

D=|C·Xprey(t)-X(t)| (2)

A=2a·r1-a (3)

C=2·r2 (4)

式中,X和Xprey分别是狼和猎物的位置向量.A和C是系数向量,r1和r2是[0,1]区间的随机向量,t和T分别是当前迭代次数和最大迭代次数,系数a的值从2线性递减到0;

Omega狼根据Alpha、Beta和Delta的位置更新过程的模型如下:

X1=|Xα-A1·Dα|,X2=|Xβ-A2·Dβ|,X3=|Xδ-A3·Dδ| (6)

式中,Xα,Xβ和Xδ是三匹首领狼的位置向量,A1,A2和A3由公式(3)确定,Dα,Dβ和Dδ通过如下公式得到:

Dα=|C1·Xα-X|,Dβ=|C2·Xβ-X|,Dδ=|C3·Xδ-X| (8)

式中,C1,C2和C3是随机向量;

以四维平方和函数作为最小值优化问题的目标函数来说明构建模范狼的过程,该函数具有全局最小值(0,0,0,0)T;设Xδ=(3,0,3,4)T,Xα=(1,2,2,2)T和Xβ=(2,4,1,3)T分别是Delta(δ),Beta(β)和Alpha(α)的位置;初始化模范狼的位置向量可以计算出f(XL)=f(Xδ)=34,然后在维度学习过程中为XL在每个维度上产生两个临时向量Xtemp1和Xtemp2

通过维度学习策略,模范狼的位置向量XL=(1,0,1,2)T,它分别学习三匹首领狼的有用信息,在第一和第四维度上的信息通过向Alpha狼学习获得,第三维度的信息通过向Beta狼学习获得,第二维度的信息通过向Delta狼学习获得;

对于一个D维的目标函数f(x),构建模范狼的流程如下:首先将模范狼的位置向量XL初始化为Delta狼的位置向量Xδ,然后从第一个维度开始,逐一维度执行下述操作:设两个临时变量Xtemp1和Xtemp2在该维度的值分别等于Alpha狼和Beta狼的位置向量Xα和Xβ在该维度的值,之后计算模范狼的位置变量XL以及两个临时变量Xtemp1和Xtemp2的适应度函数值,记录最小值及对应的位置向量,最后用该位置向量替换模范狼的位置变量XL,在对所有维度都执行上述操作后,确定模范狼最终的位置变量XL

利用模范狼代替三匹首领狼引导狼群的位置更新,公式表达如下:

BL=|CL·XL-X|,X(t+1)=|XL-AL·BL| (9)

式中,AL和CL可以分别通过公式(3)和公式(4)得到;

S2、将步骤1中的模范狼应用到狼群的更新中,并结合莱维飞行设计基于维度学习策略的灰狼优化方法;

当一匹狼通过公式(9)更新它的位置后,再通过莱维飞行得到一个尝试解向量,公式如下:

Xtrial(t+1)=X(t+1)+G×Levy(Dim) (10)

式中,Dim是目标函数的维度,G是大小为1×Dim的随机生成向量,Levy为莱维飞行函数,公式如下:

式中,u和v是区间[0,1]内的随机值,z是常数,取值为1.5,φ的表达如下:

将尝试解向量Xtrial(t+1)的适应度值f(Xtrial(t+1))与更新后的X(t+1)的适应度值f(X(t+1))进行比较,保留适应度值较小的解,公式如下:

本发明极大提升了标准灰狼优化算法的性能,提高了灰狼优化算法的收敛速度和收敛精度。

附图说明

图1为本发明的算法流程图;

图2为本发明的灰狼优化算法维度学习示意图;

图3为本发明的测试函数f2算法收敛曲线;

图4为本发明的测试函数f6算法收敛曲线;

图5为本发明的测试函数f8算法收敛曲线。

具体实施方式

本发明是针对标准灰狼算法中三匹首领狼Alpha、Beta和Delta信息可能发生冲突或相互矛盾的问题,在三匹首领狼中使用维度学习的策略构建模范狼,来保护关于猎物位置潜在有用信息,从而更有效地引导狼群的位置更新,然后结合莱维飞行解决狼群都向模范狼学习导致的的全局探索能力减弱和可能产生的早熟收敛问题,最终设计出了一种基于维度学习策略和莱维飞行的灰狼优化算法。

以下结合附图对本发明做进一步详细描述:

步骤1:在灰狼优化算法的领导层中使用维度学习策略构建模范狼:

为了用数学方法表示狼群的社会等级,我们将狼群中的最优解设为Alpha(α)。第二最优解和第三最优解分别称为Beta(β)和Delta(δ)。狼群中的其他解设定为Omega(ω)。

标准灰狼优化算法的数学模型如下:

X(t+1)=Xprey(t)-A·D (1)

D=|C·Xprey(t)-X(t)| (2)

A=2a·r1-a (3)

C=2·r2 (4)

式中,X和Xprey分别是狼和猎物的位置向量.A和C是系数向量,r1和r2是[0,1]区间的随机向量,t和T分别是当前迭代次数和最大迭代次数,系数a的值从2线性递减到0。

在迭代过程中,在灰狼优化算法的迭代过程中,Omega狼会根据Alpha、Beta和Delta的位置更新自己的位置。位置更新过程的数学模型如下:

X1=|Xα-A1·Dα|,X2=|Xβ-A2·Dβ|,X3=|Xδ-A3·Dδ| (6)

式中,Xα,Xβ和Xδ是三匹首领狼的位置向量。

A1,A2和A3由公式(3)确定。Dα,Dβ和Dδ通过如下公式计算得到:

Dα=|C1·Xα-X|,Dβ=|C2·Xβ-X|,Dδ=|C3·Xδ-X| (8)

式中,C1,C2和C3是随机向量。

在上述过程中,三匹首领狼Alpha、Beta和Delta提供了关于猎物潜在位置的信息,它们的位置更接近全局最优或局部最优。然而,当Alpha、Beta和Delta的信息发生冲突时,个体可能无法获得更有价值的信息。因此,在领导层中使用维度学习的策略来保护关于猎物位置的潜在有用知识,从而更有效地引导狼群的位置更新。在维度学习策略中,Delta逐一学习Alpha和Beta每个维度的信息来构建一只模范狼,通过这种方式,三只狼的有价值信息可以传递给模范狼从而传递给狼群中的其他狼。

以四维平方和函数作为最小值优化问题的目标函数来说明构建模范狼的过程,如图2所示,该函数具有全局最小值(0,0,0,0)T。设Xδ=(3,0,3,4)T,Xα=(1,2,2,2)T和Xβ=(2,4,1,3)T分别是Delta(δ),Beta(β)和Alpha(α)的位置。初始化模范狼的位置向量XL=Xδ=(3,0,3,4)T,可以计算出f(XL)=f(Xδ)=34,然后在维度学习过程中为XL在每个维度上产生两个临时向量Xtemp1和Xtemp2,该过程表示如下:

对于第一维:令Xtemp1=(1,0,3,4)T,Xtemp2=(2,0,3,4)T

f(Xtemp1)=26<f(Xtemp2)=29<f(XL)=34,因此XL=(1,0,3,4)T,f(XL)=26。

对于第二维:令Xtemp1=(1,2,3,4)T,Xtemp2=(1,4,3,4)T

f(XL)=26<f(Xtemp1)=30<f(Xtemp2)=42,因此XL,2保持不变,XL=(1,0,3,4)T,f(XL)=26。

对于第三维:令Xtemp1=(1,0,2,4)T,Xtemp2=(1,0,1,4)T.

f(Xtemp2)=18<f(Xtemp1)=21<f(XL)=26,因此XL=(1,0,1,4)T,f(XL)=18。

对于第四维:令Xtemp1=(1,0,1,2)T,Xtemp2=(1,0,1,3)T.

f(Xtemp1)=6<f(Xtemp2)=11<f(XL)=18,因此XL=(1,0,1,2)T,f(XL)=6。

通过维度学习,模范狼的位置向量XL=(1,0,1,2)T,它分别学习三匹首领狼的有用信息,在第一和第四维度上的信息通过向Alpha狼学习获得,第三维度的信息通过向Beta狼学习获得,第二维度的信息通过向Delta狼学习获得。

上述例子说明了在灰狼优化算法中如何利用维度学习策略针对一个四维目标函数构建模范狼。对于一个D维的目标函数f(x),构建模范狼的流程如下:首先将模范狼的位置向量XL初始化为Delta狼的位置向量Xδ。然后从第一个维度开始,逐一维度执行下述操作:设两个临时变量Xtemp1和Xtemp2在该维度的值分别等于Alpha狼和Beta狼的位置向量Xα和Xβ在该维度的值。之后计算模范狼的位置变量XL以及两个临时变量Xtemp1和Xtemp2的适应度函数值,记录最小值及对应的位置向量,最后用该位置向量替换模范狼的位置变量XL。在对所有维度都执行上述操作后,确定模范狼最终的位置变量XL。该过程的算法伪代码如表0所示。

表0维度学习构建模范狼算法的伪代码

利用模范狼代替三匹首领狼引导狼群的位置更新,公式表达如下:

BL=|CL·XL-X|,X(t+1)=|XL-AL·BL| (9)

式中,AL和CL可以分别通过公式(3)和公式(4)计算得到。

步骤二:在步骤一的基础上设计基于维度学习策略和莱维飞行的灰狼优化算法。

在群智能优化算法的迭代过程中,种群的行为模式大体分为两种:全局探索和局部开发。全局探索是发现搜索空间中新区域的过程,而局部开发是对搜索空间中的已知区域进行进一步挖掘,从而找到潜在更优解的过程。上述两种模式相互冲突,因此对群智能优化算法而言,保持全局探索和局部开发的良好平衡是至关重要的。

通过维度学习策略,狼群都向模范狼学习,这会导致狼群向模范狼收敛,算法的局部开发能力得到增强,但也会产生早熟收敛的问题。为了更好平衡算法的全局探索能力和局部开发能力,将莱维飞行引入算法中。莱维飞行指的是步长的概率分布为重尾分布的一种随机游走,也就是说在随机游走的过程中有相对较高的概率出现大跨步,因此引入莱维飞行能有效提升种群的全局探索能力,从而更好地平衡算法的全局探索能力和局部开发能力。

当一匹狼通过公式(9)更新它的位置后,再通过莱维飞行得到一个尝试解向量,公式如下:

Xtrial(t+1)=X(t+1)+G×Levy(Dim) (10)

式中,Dim是目标函数的维度,G是大小为1×Dim的随机生成向量。

Levy为莱维飞行函数,公式如下:

式中,u和v是区间[0,1]内的随机值,z是常数,取值为1.5。

φ的数学表达如下:

将尝试解向量Xtrial(t+1)的适应度值f(Xtrial(t+1))与更新后的X(t+1)的适应度值f(X(t+1))进行比较,保留适应度值较小的解,公式如下:

通过与其他群智能优化算法的性能对比以及在实际工程问题中的应用,验证基于维度学习策略和莱维飞行的灰狼优化算法的有效性,得到最终实验结果。

为验证改进后算法的性能,采用12个经典测试函数,其中f1-f6为单极值函数,f7-f12为多极值函数,如表1所示。

表1标准测试函数

对照组中的群智能优化算法包括:标准灰狼算法GWO、粒子群算法PSO、引力搜索算法GSA、乌鸦搜索算法CSA、樽海鞘算法SSA、正弦余弦算法SCA、平衡优化算法EO、海洋捕食算法MPA、鲸鱼优化算法WOA和教与学算法TLBO。

在实验验证过程中,狼群的个体数量设为40,最大迭代次数设为500,所有算法在每个测试函数上独立运行30次,记录每一次的结果,实验结束后计算平均值(Mean)和方差(standard deviation,SD)。验证实验通过MATLAB R2016a实现,软件运行于CPU Corei5-4210U,4GB RAM,Windows10操作系统的计算机。

实验结果记录在表2和表3中,对于单极值函数f1-f6,改进后的DLGWO算法表现出优秀的寻优性能,在f1、f2和f6三个函数的寻优结果上明显优于其他算法。通过将维度学习策略和来为飞行结合起来,DLGWO算法在全局探索和局部开发之间保持了良好的平衡,因而有更多的机会找到最优解。对于多极值函数f7-f12,DLGWO算法同样拥有出色的寻优结果,在f8和f10两个函数的寻优过程中DLGWO成功寻找到了全局最优解0,在对f9寻优时DLGWO的结果排在第二位,仅次于WOA。图3、图4和图5分别为DLGWO和其他优化算法在f2、f6和f8三个函数上的收敛曲线,在对f2寻优时,DLGWO算法的收敛速度与EO算法和TLBO算法相似,但收敛精度更高;在对f6寻优时,DLGWO表现出最佳的收敛性能;DLGWO、EO和MPA在f8上均能得到全局最优值(0),而其他优化算法都陷入了局部最优。

表2测试函数f1-f6结果比较

表3测试函数f7-f12结果比较

为验证改进算法在实际工程问题上的有效性,采用压缩/拉伸弹簧设计问题进行测试,该问题的寻优目标是在剪切应力、喘振频率和最小挠度这三个约束下找到弹簧的最小重量。该问题涉及三个决策变量:导线直径(x1)、平均线圈直径(x2)和有效线圈数(x3)。变量范围为0.05≤x1≤2,0.25≤x2≤1.3,2≤x3≤15,目标函数为约束条件为

DLGWO算法和其他上述优化算法在此问题上独立执行30次,狼群大小设为80,迭代次数设为1×104。优化结果如表5所示,与其他优化算法相比,DLGWO算法得到了压缩/拉伸弹簧的最小重量。

表5压缩/拉伸弹簧设计问题优化结果

符号对照表

21页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种基于混沌理论的自适应粒子群优化算法

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!