文章快速检索  
  高级检索
成长性的粒子群算法及其在函数优化中的应用
李荣雨, 周志勇     
南京工业大学计算机科学与技术学院, 江苏 南京 211816
摘要: 针对传统粒子群优化(PSO)算法在处理复杂函数优化问题时容易陷入局部最优、迭代后期收敛速度慢的问题,提出一种具有成长特性的粒子群优化算法(GPPSO).该算法根据人类成长的特性被分为3个阶段:前期阶段,为速度更新公式增加叛逆项,以降低进入早熟收敛的概率;中期阶段,为平衡全局与局部的搜索,通过对粒子群信息的整合,为速度更新公式添加平衡项;后期阶段,在速度更新公式中去除速度项,充分利用前期粒子进化得到的经验进行局部寻优.同时给出成长阶段划分的两个依据.运用典型函数进行测试,实验表明该算法对于提高收敛性能具有明显优势.
关键词: 粒子群     函数优化     人类成长     叛逆项     平衡项     去除速度项    
Particle Swarm Optimization Algorithm with Growth Property and Its Application in Function Optimization
LI Rongyu, ZHOU Zhiyong     
College of Computer Science and Technology, Nanjing University of Technology, Nanjing 211816, China
Abstract: The traditional particle swarm optimization algorithm (PSO) trends to fall into local extremes and has slow convergence rate in the later stages of iteration when dealing with high-dimensional complex functions. To solve this problem, we propose a particle swarm optimization algorithm with growth property (GPPSO). According to the characteristics of human growth, the algorithm is divided into three stages. In the early stage, the speed update formula adds a rebellious item, so that the algorithm can reduce the probability of premature convergence. In the middle stage, in order to make a compromise between the global and local searches, a balance item is added to the speed update formula. In the later stage, the algorithm removes the velocity item in the speed update formula, which is conducive to rapid convergence. Simultaneously, the two bases for the growth stage division are given. GPPSO is applied to some well-known benchmark functions, and experimental results show that it has advantages for improving convergence performance.
Key words: particle swarm optimization     function optimization     human growth     rebellious item     balance item     removing velocity item    

1 引言

粒子群优化 (particle swarm optimization,PSO) 算法是当今群体智能优化算法中重要的算法之一[1].因其原理简单、容易实现、参数设置少等特点,已被成功应用到许多领域,如任务分配[2]、轨迹规划[3-4]、射频识别网络规划[5]等.然而,同其它智能优化技术一样,该算法依然存在收敛速度和全局搜索能力两大问题需要进一步优化[6].

为了在函数优化问题中既能达到更好的收敛精度,又能提高算法的收敛速度,相关领域的学者对其进行了不同方面的改进:

(1) 参数调整.Hu等在PSO-MAM算法改进的基础上,为参数提供了一种自适应控制机制,保证了良好的优化质量,同时优化结果具有更强的鲁棒性[7].

(2) 更新公式的改进.Chen改变了原速度更新公式中全局极值的影响方式,采用一种领导者和挑战者的衰老换代的方式,有利的领导粒子会增长担任年限,竞争者会取代领导不利的全局最优粒子,该方法有效地避免了前期全局极值对粒子群不利的影响[8].

(3) 种群更新机制.Li等提出了一种SLPSO (self-learning particle swarm optimizer) 算法,为粒子更新提供了具有4个状态的自适应学习框架,对全局优化性能效果良好[9].

(4) 拓扑结构改进.Liang等通过使粒子深度学习其它所有粒子的历史最优位置,在对多峰函数的优化中取得良好的性能,但是在单峰函数优化中,收敛速度不令人满意[10].

(5) 混合其它智能算法.El-Abd将人工分群算法以前人不同的方式引入到粒子群算法进化中,首次对粒子的个体极值也进行进化,在粒子群更新之后通过对个体极值利用ABC (artificial bee colony) 机制再一次进行更新[11].到目前为止,大多数对粒子群研究基本都是通过围绕以上5个方面进行不同的改进,很少有人通过新思路新方法对粒子群算法进行研究.研究思路的改进已经成为粒子群研究的一大难题.

本文将运用一种全新的思路研究粒子群算法,以全新的角度分析PSO算法的进化过程,将社会系统中人类成长的变化阶段对应于粒子群更新过程,提出了具有成长特性的粒子群优化算法.通过一些典型测试函数对算法进行评价和比较,实验表明,GPPSO算法既保证了优化结果的良好质量,又极大提高了寻优的收敛速度.

2 粒子群算法 2.1 基本粒子群算法

在粒子群算法中,每个粒子都包含两种状态:速度Vi=(vi1vi2,…,vid) 和位置Xi=(xi1xi2,…,xid),其中d表示维度.这些粒子通过学习两个极值指导自己的速度和位置.这两个极值为个体极值Pi和全局极值Pg.在下一次迭代中,粒子i的速度和位置更新公式如式 (1)、式 (2) 所示:

(1)
(2)

其中,c1c2是加速因子,r1r2是两个在 (0,1) 之间的随机数.算法迭代终止条件为预先确定的最大迭代次数或者是对优化结果的精度要求.算法结束时的全局极值 (Pg) 即为最后的最优解.

2.2 相关参数研究

通常将具有式 (1) 形式的速度更新公式的粒子群算法称为基本粒子群优化算法 (SPSO).由于基本粒子群算法在求解函数优化问题时效果并不是很理想,所以初始算法在提出不久,Shi和Eberhart将更新公式中的速度乘上了一个惯性权重w,并研究了取值对优化性能的影响[12].较大的惯性权重具有较强的全局搜索能力,而较小的惯性权重则更有利于局部寻忧.这种改进后的粒子群更新公式如下所示:

(3)
(4)

通常将引入惯性权重后的粒子群算法称之为标准粒子群优化算法 (BPSO).目前,对于粒子群算法的改进基本都是基于BPSO的研究,或者提出一种新的惯性权重修改策略,如Shi和Eberhart之后通过实现一种模糊系统去动态的调整惯性权重的值,改进后的算法对动态环境中的优化问题非常有效[13].

很多粒子群算法的改进中都是将c1c2固定设置为2,但是c1c2参数设置的影响也不容忽视.速度更新公式中的第2个和第3个部分分别被称为“自我认知”和“社会认知”.“自我认知”使得粒子群不会单独受制于“社会认知”的影响,而出现盲目的从众,有利于提高种群多样性,避免发生早熟收敛;“社会认知”使得粒子群不会由于“自我认知”经验的不足,造成效率低下,有利于加速算法的收敛.所以,动态的调整两个学习因子的大小来控制两个部分的影响是有必要的.具体的,在算法迭代前期c1应该具有较大的值,并且c1>c2.随着迭代的进行,c1应不断地被减小,同时不断增加c2的值,到算法后期时使得c1c2,加强全局极值的影响进行收敛.利用该种方法,Ratnaweera等通过随时间的变化改变两个学习因子的大小,并且确定了变化区间,令c1在区间[2.5,0.5]不断减小,c2在区间[0.5,2.5]不断增大[14].文[15]中,学习因子则采用了非线性周期振荡策略,模拟了鸟类觅食过程中交替出现的分散和重组现象.这些学习因子改变的策略使得粒子群算法在优化性能上得到不同程度的提升.

由上所述可知,参数策略的选取很大程度上决定了算法性能的好坏.然而,本文将丢弃从参数优化及一些常用方面的改进策略,以一个全新的思路对粒子群算法进行研究,下面将详细介绍这种改进方法.

3 GPPSO算法 3.1 成长特性的引入

社会系统中人类的成长基本上需要经历3个成长过程,且必须从一个阶段发展到下一个阶段,不会实现跳跃式发展.每个阶段在人类成长中都扮演着重要的作用[16].其中3个阶段及其在粒子群中的启发如下所述:

(1) 青年期:具有叛逆的性质.这个阶段该群体具有更强的创造性思维,并且好动的性质带来了眼界的开阔和经验的累积.该时期的叛逆性质使得群体比较好动,将该性质运用于粒子群更新,有利于群体遍历搜索空间.

(2) 中年期:具有沉稳的性格.不会像青春期那样的叛逆.此时更趋向于整合各方面利益及以往的经验,均衡地做出一个处理问题方法.在PSO中,利用整合信息的思想,使群体的更新对全局和局部寻优能够做出很好的折中.

(3) 晚年期:此时精力有限,该群体在晚年运用着前期得到的经验和成果处理问题.该性质应用于粒子群的更新,有利于加速算法的收敛速度,从而快速找出当前局部最优位置.

上述3个阶段对粒子群的更新方式具有启发式作用.基于这3阶段模型,设计GPPSO算法的基本框架如图 1所示.

图 1 GPPSO算法框架 Figure 1 Framework of the GPPSO algorithm

人类成长的3阶段模型中的青年期对应GPPSO算法中的迭代前期.这个时期粒子的更新被加入一种具有叛逆性质的因子和去除惯性权重的影响,从而增加全局搜索性能以避免算法过早收敛.中年期对应GPPSO算法的迭代中期,此时粒子的更新需要全面考虑收敛速度和整体的搜索能力,根据现有经验在外界激励的作用下为速度更新公式增加平衡项.晚年期对应GPPSO算法的迭代后期,这个时期的粒子群更新去除了本身速度的影响,充分利用前2个时期的经验成果进行局部寻优从而找出全局最优.

3.2 带有叛逆因子的速度更新公式

根据上节中提出的模型,为使粒子群在前期的迭代中具有叛逆的性质,GPPSO算法在该阶段,为速度更新公式中增加了一个叛逆项[17].叛逆因子中包含当前个体最优位置和全局最优位置.此时,粒子的速度更新公式为

(5)

其中,r3r1r2类似,为[0, 1]区间的随机数;w为叛逆因子的惯性系数.

添加了叛逆项的速度更新公式改变了前期粒子的飞行方向.通过个体最优和全局最优位置的叛逆影响,使得算法在早期迭代阶段对当前最优位置产生一定程度上的排斥,以降低粒子在早期运动过程中进入局部最优而发生早熟收敛的概率.同时该公式去除了速度项的惯性权重,使得粒子群能够充分的对搜索空间进行遍历寻优.相反,惯性权重被加入到了叛逆项上,随着粒子群的更新叛逆的影响渐渐减弱,这正符合了粒子趋于沉稳的性格.

3.3 增加平衡项的速度更新公式

在3.1节提出的全新PSO模型中,通过中年期的特性,算法在迭代中期为粒子群赋予一种沉稳的性格.粒子群更新不再以盲目的叛逆而进化,而是对现存信息和经验进行整合和协调,全面考虑收敛速度和整体搜索能力.其中粒子可以得到的现存信息包括:粒子i记忆的本身历史信息 (本文选取最近100次的平均结果),个体认知能力获得的信息,群体间获得的共享信息.结合这些信息,给出带有外部激励的平衡项,定义为

(6)

其中,α为外部激励因子,取区间[0, 1]之间的随机数.

于是,GPPSO算法在迭代中期的速度更新公式为

(7)

其中,c3=(w+c2+c2)/3,表示各种能力的均衡影响,取r3=rand (0,1).

式 (7) 有如下特点:

(1) 平衡了算法的全局搜索和局部搜索能力,提升了算法的整体搜索能力.

(2) 当粒子的位置远离局部或全局最优位置时,加入平衡项的速度更新公式会使粒子的搜索步长增大,使粒子更快地聚集于最优位置的附近区域.

(3) 在迭代后期,由于平衡项的加入使得粒子的速度等于0的机会减少,使得种群聚集于最优解位置的密度不会太大,有效避免了粒子停滞在局部最优位置的情形.

(4) 正因为上述特点,粒子在这一时期很少几率会靠近最优位置,最优位置的收敛留到迭代后期进行.

3.4 丢弃速度项的速度更新公式

从3.1节中提出的全新GPPSO算法框架可知,后期阶段的粒子需要充分利用前期的经验而且具有惰性.通过前两个阶段的粒子更新方式的进化,群体已经大致找到在算法能力内的全局最优位置.此时,GPPSO算法使粒子完全信任前期算法迭代得到的经验,同时丢弃本身具有缺陷的惯性速度项.这些经验包括个体极值和全局极值.于是,GPPSO算法在迭代后期的速度更新公式为

(8)

从式 (8) 可以看出,粒子位置的更新将仅仅根据个体最优位置和全局最优位置进行进化.通过去除速度项的更新公式,GPPSO算法使得种群将会进行快速收敛.其原因如下:根据3.3节中第4个特点所述,群体基本已经围绕在最优位置的附近,需要一种快速的方式对最优位置进行收敛.在迭代后期,由于粒子群前期不断的更新,此时种群中的大多数粒子将趋近于个体极值或者全局极值位置,即粒子的位置Xi将靠近PiPg,这使得速度更新公式中的Pidk-Xidk或者Pgdk-Xidk会变小,那么PiPg就相比于原速度对粒子运动的影响会很小.又因为当前粒子的速度很少和最优值位置所在的方向一致,同时受到2个极值的影响又很小,粒子很难快速地向最优位置靠近.所以通过丢弃具有缺陷的速度项,仅通过2个极值对群体进行更新,粒子运动的速度方向将更有利于粒子的收敛.通过图 2可以更清楚地进行理解,V1是当前粒子运动的方向.V3是仅受两个极值影响粒子将会出现的速度方向,由于受到了速度项的影响,速度的方向被改变为V2.而V3速度方向更趋向于最优解,在原速度项的影响下,将会偏离这种趋势方向.所以本文在算法迭代后期,也就是在GPPSO算法的第3阶段,为了加强向最优位置靠近的趋势,提高收敛速度,速度更新公式中的速度项将被去除.

图 2 丢弃速度的影响 Figure 2 The effect of the removing velocity item
3.5 3个阶段的划分

3个阶段的速度更新公式已经在上述分别列出,虽然对于阶段的划分还没有一种科学可靠的方法,但是可以大体确定对于特定优化问题哪个阶段对于寻优作用更大,作用更大的阶段应该被延长.本文现给出两个指导性的方法确定各阶段大体比重.

从优化问题的复杂性而言,若被优化的函数具有大量的局部最优值,算法很容易被局部最优值所欺骗.对于3阶段的粒子群优化算法,可以提高第1阶段的生命周期,充分利用叛逆项开拓搜索空间,以免错过全局最优位置.相反,若只有少数极值点,那么优化算法被诱惑的概率很小,为了算法的效率可以适当减少第1阶段的生命周期.

从初始群体的分布而言,若已知初始群体靠近最优位置附近,那么算法第1阶段的作用基本无效,此时可以取消第1阶段的更新或者大尺度的减小该阶段迭代次数,同时第2阶段的生命周期短于第3阶段.相反,若初始群体不在最优值附近,根据具体函数的复杂性,适当分配这3个阶段的迭代次数,按3阶段粒子群算法进行寻优.

3.6 算法描述

受人类成长心理过程的启发对不同迭代时期的速度更新公式进行了改进,给出GPPSO算法步骤.

Step 1 初始化GPPSO算法的各项参数.成长阶段划分参数a(前期与中期阶段的分界点) 和b(中期与晚期阶段的分界点) 等.

Step 2 计算各个粒子的适应度值.

Step 3 通过适应值找到粒子的个体极值和全局极值.

Step 4 更新粒子的速度和位置.

Step 4.1  更新粒子的速度,如果迭代次数kakmax,则按式 (5) 更新粒子的速度;如果akmaxkbkmax,则按式 (7) 对粒子速度进行更新;否则,按照式 (8) 进行更新.(其中kmax为总的最大迭代次数或函数评价总次数,ab为3阶段的划分点设置).

Step 4.2  对速度进行限制.若更新后的速度Vidk+1>Vmax,令Vidk+1=Vmax;若Vidk+1Vmin,令Vidk+1=Vmin,其余位置不变.取Vmax=Xmax.

Step 4.3 按照式 (2) 对粒子位置进行更新,同时对位置进行限制,修正原理和Step 4.2一致.

Step 5 计算更新后的各个粒子的适应度,并且更新每个粒子的个体极值和全局极值.

Step 6 判断算法是否终止,若终止转向Step 7;否则,转向Step 4.

Step 7 输出全局最优值和位置,算法结束.

4 仿真分析 4.1 实验准备

为了验证GPPSO算法的性能,本文从文献中选取了常用的8个测试函数进行仿真实验,这些函数列于表 1所示.

表 1 测试函数表 Table 1 The table of the test functions
函数名搜索区间最优位置最优值
Sphere[-100,100](0,0,…,0)0
Rosenbrock[-10,10](1,1,…,1)0
Griewank[-600,600](0,0,…,0)0
Rastrigin[-5.12,5.12](0,0,…,0)0
Ackley[-32,32](0,0,…,0)0
Salomon[-100,100](420.968 7,…,
420.968 7)
0
Schwefel P2.22[-10,10](0,0,…,0)0
Sum of different
power
[-1,1](0,0,…,0)0

本文选取了3个改进的算法与本文提出的GPPSO算法进行比较,其中各算法的参数取值及其它细节均与原文献中一致,具体的内容可参考相应的文献.算法及主要的参数列于表 2所示.

表 2 算法及参数设置 Table 2 The algorithms and their parameter set
算法主要参数设置
wFIPS[18]χ=0.729,∑ci=4.1
CLPSO[10]w:0.9→0.4,c1=c2=1.494 5
APSO[19]根据原文自适应参数选择
GPPSOw:0.9→0.4,c1=c2=2.0,ab按经验取,本文a=0.4,b=0.7

这些算法测试时,设置种群规模N=30,维度D=100,迭代终止条件为最大函数评价次数,设置为20 000次,每种算法对每个函数优化时重复执行30次.

为了评价算法的优化效果,给出如下几个判定标准[20]

(1) 平均最优值 (MeanBst),运行算法30次后得到的最优值的期望,用来衡量粒子寻优的平均质量.

(2) 标准差 (Std),算法运行30次得到的最优值与平均最优值之间的标准差,评价算法寻优的稳定性.

(3) 双侧T检验值,利用1、2评价标准得到的平均值与标准差,将本文算法和对比的算法一一进行双侧T检验得到的t值,评价算法优化效果的显著性水平.

(4) 效果排名 (Rank),对4种算法优化结果的平均最优值进行排序,直观地对比出算法优化的效果.

4.2 测试和结果分析

4种算法的测试指标对比如表 3所示.从表 3中可以看出:除了Sum of different power和Salomon两个函数外,GPPSO算法在其它6个测试函数上得到的平均最优值均有不同数量级的提高.尤其在Sphere、Ackley、Schwefel P2.22函数上数量级分别提升了7、4和5.同时,在Sum of different power和Salomon两个函数中的优化效果均排名靠前,平均最优值均达到了其它3个改进算法中结果的数量级.总体上,本文算法对于这8个典型函数的测试,优化精度均得到了提升.

表 3 测试指标对比 Table 3 Comparison of the test index
函数名算法MeanBstStdRankT检验
SpherewFIPS5.45e+024.68e+0236.378
CLPSO1.55e+032.01e+02442.237
APSO3.15e+016.40e+00226.958
GPPSO7.39e-068.01e-061-
RosenbrockwFIPS1.21e+069.95e+0546.660
CLPSO1.01e+054.01e+04313.775
APSO1.21e+042.77e+03223.617
GPPSO1.52e+027.21e+011-
GriewankwFIPS5.35e+006.01e+0034.868
CLPSO2.06e+012.37e+00452.260
APSO1.42e+006.46e-032130.396
GPPSO5.72e-022.02e-021-
RastriginwFIPS8.31e+024.38e+01492.638
CLPSO5.39e+022.05e+013100.453
APSO3.31e+023.97e+01238.499
GPPSO2.01e+011.95e+011-
AckleywFIPS1.95e+003.81e-01228.026
CLPSO5.91e+004.01e-01380.717
APSO8.11e+003.01e+00414.757
GPPSO5.21e-044.01e-041-
SalomonwFIPS3.03e+003.15e-0111.089
CLPSO7.22e+005.01e-01426.579
APSO4.56e+002.11e+0034.615
GPPSO3.36e+007.95e-012-
SchwefelwFIPS1.43e+001.81e-01343.272
CLPSO2.13e+011.20e+00497.221
APSO8.59e-012.16e+0022.178
GPPSO3.16e-051.97e-051-
Sum of different
power
wFIPS2.21e-172.14e-1735.548
CLPSO7.61e-217.24e-191-1.842
APSO7.95e-068.36e-0645.209
GPPSO4.00e-199.91e-192-

为了验证算法的收敛速度,图 3显示了8个算法的收敛曲线图.使用函数评价次数作为横坐标,是由于迭代次数并不能反映算法的时效性,因为很多算法在一次迭代内计算了多次适应度值,而适应度的计算是整个算法时间复杂度的来源,所以通过函数评价次数评价算法的收敛速度更为合理.从图中可以看出;GPPSO算法在大多数函数优化中均取得了更快的收敛速度,除了在Sum of different power函数中的优化效果没有明显优势.该算法若应用于实时系统中,通过以精度要求为终止条件,将会得出更好的性能.这说明了GPPSO算法通过叛逆项和平衡项的作用,粒子的速度和位置得到了及时的修正;后期丢弃速度项的影响,使其在高维问题求解时能够更快地进行收敛.

图 3 各算法收敛曲线 Figure 3 Convergence curves of the algorithms

另一方面,GPPSO算法在优化效果的稳定性方面也表现良好.通过对标准差 (Std) 列数据的分析,在Rosenbrock函数中标准差虽然比较大,但是同其它算法得出的值相比在数量级上更占优势.在Rastrigin函数中,4个算法的标准差基本相等.对于其它6个函数,GPPSO算法平均优化结果的标准差都以不同数量级接近于0,显示了结果的稳定性,而其它算法的标准差却是较大的数或者数量级上较大.所以,本文所提出的算法对于问题优化的稳定性效果明显.

为了验证GPPSO算法相较于其它算法优化结果的可信度,运用双侧T检验法将GPPSO算法与其它3个算法进行显著性分析.其t值计算公式为式 (9) 所示,其中n1n2为样本数,在本文中表示算法独立运行的次数.

(9)

本文取显著性水平α=0.01,通过查表可知t0.005=2.660.当|t|>2.660时,认为算法GPPSO与比较的算法有显著性差异.通过式 (9) 的计算,在8个测试函数上,所有算法与GPPSO算法之间得到的t检验值列于表 3中的最后一列.从表 3中可以看出,GPPSO在前6个函数中相比于其它算法,其得到的t值均大于2.660.仅仅在Schwefel P2.22函数中与算法APSO和在Sum of different power函数中与算法CLPSO相比得出的|t|值小于2.660.因此表明,GPPSO算法在函数优化中改进显著.

5 结论

本文从人类成长的过程和角度出发,以一个全新的思路分析了粒子群算法的基本原理,将人类成长模型的3个阶段引入PSO算法中,提出了具有成长特性的粒子群优化算法 (GPPSO).该算法通过粒子群在前期迭代中为速度更新公式添加叛逆项,中期添加平衡项,后期速度项被去除实现3阶段模型的GPPSO算法.仿真结果也表明,GPPSO算法在寻优能力、收敛速度和鲁棒性方面都得到了满意的效果.下一步工作将对文中的创新公式进行调整和实验,并将其应用到求解实际系统的约束优化问题上.

参考文献
[1] 白国振, 荆鹏翔. 基于改进粒子群算法的并联机械手运动学参数辨识[J]. 信息与控制, 2015, 44(5): 545–551. Bai G Z, Jing P X. Kinematic parameter identification of parallel manipulator based on improved particle swarm algorithm[J]. Information and Control, 2015, 44(5): 545–551.
[2] Ho S Y, Lin H S, Liauh W H, et al. OPSO:Orthogonal particle swarm optimization and its application to task assignment problems[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part A:Systems and Humans, 2008, 38(2): 288–298. DOI:10.1109/TSMCA.2007.914796
[3] Fu Y G, Ding M Y, Zhou C P. Phase angle-encoded and quantum-behaved particle swarm optimization applied to three-dimensional route planning for UAV[J]. IEEE Transactions on Systems, Man and Cybernetics, Part A:Systems and Humans, 2012, 42(2): 511–526. DOI:10.1109/TSMCA.2011.2159586
[4] 付荣, 居鹤华. 基于粒子群优化的时间最优机械臂轨迹规划算法[J]. 信息与控制, 2011, 40(6): 802–808. Fu R, Ju H H. Time-optimal trajectory planning algorithm for manipulator based on PSO[J]. Information and Control, 2011, 40(6): 802–808.
[5] Gong Y J, Shen M, Zhang J. Optimizing RFID network planning by using a particle swarm optimization algorithm with redundant reader elimination[J]. IEEE Transactions on Industrial Informatics, 2012, 8(4): 900–912. DOI:10.1109/TII.2012.2205390
[6] Khare A, Rangnekar S. A review of particle swarm optimization and its applications in Solar Photovoltaic system[J]. Applied Soft Computing, 2013, 12(5): 2997–3006.
[7] Hu M, Wu T, Weir J D. An adaptive particle swarm optimization with multiple adaptive methods[J]. IEEE Transactions on Evolutionary Computation, 2013, 17(5): 705–720. DOI:10.1109/TEVC.2012.2232931
[8] Chen W N, Zhang J, Lin Y, et al. Particle swarm optimization with an aging leader and challengers[J]. IEEE Transactions on Evolutionary Computation, 2013, 17(2): 241–258. DOI:10.1109/TEVC.2011.2173577
[9] Li C, Yang S, Nguyen T T. A self-learning particle swarm optimizer for global optimization problems[J]. IEEE Transactions on Systems Man and Cybernetics, Part B:Cybernetics, 2012, 42(3): 627–646. DOI:10.1109/TSMCB.2011.2171946
[10] Liang J J, Qin A K, Suganthan P N, et al. Comprehensive learning particle swarm optimizer for global optimization of multimodal functions[J]. IEEE Transactions on Evolutionary Computation, 2006, 10(3): 281–295. DOI:10.1109/TEVC.2005.857610
[11] El-Abd M. A hybrid ABC-SPSO algorithm for continuous function optimization[C]//IEEE Symposium on Swarm Intelligence (SIS). Piscataway, NJ:IEEE, 2011:1-6.
[12] Shi Y, Eberhart R C. A modified particle swarm optimizer[C]//Proceedings of the IEEE Conference on Evolutionary Computation. Piscataway, NJ:IEEE Press, 1998:69-73.
[13] Shi Y, Eberhart R C. Fuzzy adaptive particle swarm optimization[C]//Proceedings of the IEEE Conference on Evolutionary Computation. Piscataway, NJ:IEEE, 2001:101-106.
[14] Ratnaweera A, Halgamuge S K, Watson H C. Self-organizing hierarchical particle swarm optimizer with time-varying acceleration coefficients[J]. IEEE Transactions on Evolutionary Computation, 2004, 8(3): 240–255. DOI:10.1109/TEVC.2004.826071
[15] 朱喜华, 李颖晖, 李宁, 等. 基于群体早熟程度和非线性周期振荡策略的改进粒子群算法[J]. 通信学报, 2014(2): 182–189. Zhu X H, Li Y H, Li N, et al. Improved PSO algorithm based on swarm prematurely degree and nonlinear periodic oscillating strategy[J]. Journal on Communications, 2014(2): 182–189.
[16] 中西信男, 水野正宪, 刘方平. 青年期的意义 (二)[J]. 当代青年研究, 1987(2): 28–31. Chongxi X N, Shuiye Z X, Liu F P. The meaning of youth (Ⅱ)[J]. Contemporary Youth Research, 1987(2): 28–31.
[17] 范成礼, 邢清华, 李响, 等. 带反向预测及斥力因子的改进粒子群优化算法[J]. 控制与决策, 2015, 30(2): 311–315. Fan C L, Xing Q H, Li X, et al. Improved particle swarm optimization algorithm with reverse forecast and repulsion[J]. Control and Decision, 2015, 30(2): 311–315.
[18] Mendes R, Kennedy J, Neves J. The fully informed particle swarm:Simpler, maybe better[J]. IEEE Transactions on Evolutionary Computation, 2004, 8(3): 204–210. DOI:10.1109/TEVC.2004.826074
[19] Zhan Z, Zhang J, Li Y. Adaptive particle swarm optimization[J]. IEEE Transactions on Systems, Man & Cybernetics, Part B:Cybernetics, 2009, 39(6): 1362–1381.
[20] 戴婉仪, 张梅, 吴凯华, 等. 基于诺兰模型思想的改进混沌粒子群优化算法及评价[J]. 控制与决策, 2015, 30(12): 2121–2128. Dai W Y, Zhang M, Wu K H, et al. Improved chaotic particle swarm optimization algorithm and valuation based on Nolan model thinking[J]. Control and Decision, 2015, 30(12): 2121–2128.
http://dx.doi.org/10.13976/j.cnki.xk.2017.0224
中国科学院主管,中国科学院沈阳自动化研究所、中国自动化学会共同主办。
0

文章信息

李荣雨, 周志勇
LI Rongyu, ZHOU Zhiyong
成长性的粒子群算法及其在函数优化中的应用
Particle Swarm Optimization Algorithm with Growth Property and Its Application in Function Optimization
信息与控制, 2017, 46(2): 224-230.
Information and Contro, 2017, 46(2): 224-230.
http://dx.doi.org/10.13976/j.cnki.xk.2017.0224

文章历史

收稿/录用/修回: 2016-02-04/2016-04-14/2016-05-17

工作空间