700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 改进粒子速度和位置更新公式的粒子群优化算法

改进粒子速度和位置更新公式的粒子群优化算法

时间:2021-05-03 03:19:30

相关推荐

改进粒子速度和位置更新公式的粒子群优化算法

文章目录

一、理论基础1、相关工作1.1 标准粒子群优化算法1.2 粒子速度更新公式的改进1.3 粒子位置更新公式的改进2、改进算法2.1 粒子速度和位置自适应更新策略2.2 惯性权重的选取2.3 算法实现二、仿真实验及结果分析三、参考文献

一、理论基础

1、相关工作

1.1 标准粒子群优化算法

标准PSO算法中,粒子通过学习自身历史经验(pbest\text{pbest}pbest)与群体经验(gbest\text{gbest}gbest)寻找最优粒子。对于求解变量为X={x1,x2,⋯,xD}X=\{x_1,x_2,\cdots,x_D\}X={x1​,x2​,⋯,xD​}、目标函数为min⁡{f(x)}\min\{f(x)\}min{f(x)}的优化问题,标准PSO算法粒子更新公式为式(1)和式(2)。vid(t+1)=wvid(t)+c1r1(pbestid−xid(t))+c2r2(gbestd−xid(t))(1)v_{id}(t+1)=wv_{id}(t)+c_1r_1(\text{pbest}_{id}-x_{id}(t))+c_2r_2(\text{gbest}_d-x_{id}(t))\tag{1}vid​(t+1)=wvid​(t)+c1​r1​(pbestid​−xid​(t))+c2​r2​(gbestd​−xid​(t))(1)xid(t+1)=xid(t)+vid(t+1)(2)x_{id}(t+1)=x_{id}(t)+v_{id}(t+1)\tag{2}xid​(t+1)=xid​(t)+vid​(t+1)(2)其中,vid(t+1)v_{id}(t+1)vid​(t+1)和xid(t+1)x_{id}(t+1)xid​(t+1)分别为粒子iii在t+1t+1t+1代的速度和位置;www是惯性权重,标准PSO算法中www随迭代次数线性递减;c1c_1c1​和c2c_2c2​为学习因子,通常取值为2;r1r_1r1​和r2r_2r2​是[0,1][0,1][0,1]均匀分布的随机数。

1.2 粒子速度更新公式的改进

文献[1]提出一种均值粒子群优化(MeanPSO)算法,即利用个体最优和群体最优的线性组合pbestid+gbestd2\displaystyle\frac{\text{pbest}_{id}+\text{gbest}_{d}}{2}2pbestid​+gbestd​​和pbestid−gbestd2\displaystyle\frac{\text{pbest}_{id}-\text{gbest}_{d}}{2}2pbestid​−gbestd​​分别替换公式(1)中pbestid\text{pbest}_{id}pbestid​和gbestd\text{gbest}_dgbestd​,得到新的粒子速度更新公式,为式(3)。vid(t+1)=wvid(t)+c1r1(pbestid+gbestd2−xid(t))+c2r2(pbestid−gbestd2−xid(t))(3)v_{id}(t+1)=wv_{id}(t)+c_1r_1\left(\frac{\text{pbest}_{id}+\text{gbest}_{d}}{2}-x_{id}(t)\right)+c_2r_2\left(\frac{\text{pbest}_{id}-\text{gbest}_{d}}{2}-x_{id}(t)\right)\tag{3}vid​(t+1)=wvid​(t)+c1​r1​(2pbestid​+gbestd​​−xid​(t))+c2​r2​(2pbestid​−gbestd​​−xid​(t))(3)MeanPSO算法中粒子搜索区间更广,使得算法在进化前期有更大可能搜索到全局最优解。

1.3 粒子位置更新公式的改进

文献[2]提出一种带有平均维度信息的分层简化粒子群优化(PHSPSO)算法,PHSPSO算法舍弃PSO算法中粒子速度更新项,并引入平均维度信息概念,即每个粒子所有维信息的平均值,计算公式为式(4)。同时PHSPSO算法将粒子位置更新公式分解为3种模式,分别为式(5)、(6)和(7)。pad(t)=1D∑i=1Dxid(t)(4)p_{ad}(t)=\frac1D\sum_{i=1}^Dx_{id}(t)\tag{4}pad​(t)=D1​i=1∑D​xid​(t)(4)xid(t+1)=wxid(t)+c1r1(pbestid−xid(t))(5)x_{id}(t+1)=wx_{id}(t)+c_1r_1(\text{pbest}_{id}-x_{id}(t))\tag{5}xid​(t+1)=wxid​(t)+c1​r1​(pbestid​−xid​(t))(5)xid(t+1)=wxid(t)+c2r2(gbestd−xid(t))(6)x_{id}(t+1)=wx_{id}(t)+c_2r_2(\text{gbest}_d-x_{id}(t))\tag{6}xid​(t+1)=wxid​(t)+c2​r2​(gbestd​−xid​(t))(6)xid(t+1)=wxid(t)+c3r3(pad−xid(t))(7)x_{id}(t+1)=wx_{id}(t)+c_3r_3(p_{ad}-x_{id}(t))\tag{7}xid​(t+1)=wxid​(t)+c3​r3​(pad​−xid​(t))(7)其中,式(5)有助于算法的全局开发能力;式(6)有助于算法的局部开发能力,帮助算法跳出局部最优;式(7)有助于提升算法的收敛速度。在迭代过程中,算法基于概率选择不同的模式来更新粒子位置。

文献[3]指出采用“X=X+VX=X+VX=X+V”来更新粒子位置有助于提高算法的局部开发能力,而“X=wX+(1−w)VX=wX+(1-w)VX=wX+(1−w)V”有助于提高算法的全局探索能力,基于此本文提出一种自适应粒子位置更新机制,如式(8)和(9)所示。pi=exp⁡(fit(xi(t)))exp⁡(1N∑i=1Nfit(xi(t)))(8)p_i=\frac{\exp(\text{fit}(x_i(t)))}{\exp\left(\displaystyle\frac1N\sum_{i=1}^N\text{fit}(x_i(t))\right)}\tag{8}pi​=exp(N1​i=1∑N​fit(xi​(t)))exp(fit(xi​(t)))​(8)xid(t+1)={wxid(t)+(1−w)vid(t+1),pi>randxid(t)+vid(t+1),else(9)x_{id}(t+1)=\begin{dcases}wx_{id}(t)+(1-w)v_{id}(t+1),\quad p_i>\text{rand}\\[2ex]x_{id}(t)+v_{id}(t+1),\quad\quad\quad\quad\quad\text{else}\end{dcases}\tag{9}xid​(t+1)=⎩⎨⎧​wxid​(t)+(1−w)vid​(t+1),pi​>randxid​(t)+vid​(t+1),else​(9)其中,fit(⋅)\text{fit}(\cdot)fit(⋅)为粒子的适应度值,NNN为种群中粒子个数。式(8)中pip_ipi​表示当前粒子适应度值与种群中所有粒子平均适应度值的比值,当pip_ipi​较大时,当前粒子的适应度值远大于种群中所有粒子平均适应度值,此时应采用“X=wX+(1−w)VX=wX+(1-w)VX=wX+(1−w)V”更新粒子位置以增强算法的全局探索能力,否则采用“X=X+VX=X+VX=X+V”来更新粒子位置,来保证算法的局部开发能力。

2、改进算法

2.1 粒子速度和位置自适应更新策略

文献[4]结合以上分析提出一种新的自适应粒子速度和位置更新策略,如式(10)和(11)所示。{vid(t+1)=wvid(t)+c1r1(pbestid+gbestd2−xid(t))+c2r2(pbestid−gbestd2−xid(t))xid(t+1)=wxid(t)+(1−w)vid(t+1)(10)\begin{dcases}v_{id}(t+1)=wv_{id}(t)+c_1r_1\left(\frac{\text{pbest}_{id}+\text{gbest}_{d}}{2}-x_{id}(t)\right)+c_2r_2\left(\frac{\text{pbest}_{id}-\text{gbest}_{d}}{2}-x_{id}(t)\right)\\[2ex]x_{id}(t+1)=wx_{id}(t)+(1-w)v_{id}(t+1)\end{dcases}\tag{10}⎩⎪⎨⎪⎧​vid​(t+1)=wvid​(t)+c1​r1​(2pbestid​+gbestd​​−xid​(t))+c2​r2​(2pbestid​−gbestd​​−xid​(t))xid​(t+1)=wxid​(t)+(1−w)vid​(t+1)​(10){vid(t+1)=wvid(t)+c1r1(pad−xid(t))+c2r2(gbestd−xid(t))xid(t+1)=xid(t)+vid(t+1)(11)\begin{dcases}v_{id}(t+1)=wv_{id}(t)+c_1r_1\left(p_{ad}-x_{id}(t)\right)+c_2r_2\left(\text{gbest}_d-x_{id}(t)\right)\\[2ex]x_{id}(t+1)=x_{id}(t)+v_{id}(t+1)\end{dcases}\tag{11}⎩⎨⎧​vid​(t+1)=wvid​(t)+c1​r1​(pad​−xid​(t))+c2​r2​(gbestd​−xid​(t))xid​(t+1)=xid​(t)+vid​(t+1)​(11)上述自适应策略借鉴文献[3]中pip_ipi​作为自适应判定条件。当pi>δp_i>\deltapi​>δ时,当前粒子的适应度值远大于种群中所有粒子平均适应度值,表明算法处于搜索初期或者当前粒子分布较为分散,此时应采用式(10)更新粒子速度和位置。式(10)在速度更新项中引入个体最优和群体最优的线性组合,能够使粒子的搜索空间更广,从而提高算法搜索到全局最优解的可能性,而位置更新则采用“X=wX+(1−w)VX=wX+(1-w)VX=wX+(1−w)V”来提高算法的全局搜索能力;当pi<δp_i<\deltapi​<δ时,当前粒子的适应度值与种群中所有粒子平均适应度值相差不大,表明算法处于搜索中后期或者当前粒子分布较为集中,此时应采用式(11)更新粒子速度和位置。在式(11)中,位置更新采用“X=X+VX=X+VX=X+V”来保证算法局部开发能力,防止算法在求解复杂多峰函数时陷入局部最优,而将粒子平均维度信息padp_{ad}pad​引入到粒子速度更新公式中,提高算法的收敛速度。

2.2 惯性权重的选取

惯性权重www是PSO算法的重要参数之一,它可以平衡算法全局探索能力和局部开发能力,标准PSO算法采用线性递减www,这种线性调整的方式可以在一定程度上平衡算法探索能力与开发能力,而在面对复杂非线性多维函数优化问题时,算法容易陷入局部最优解。因此,为更好改善算法性能,一些学者提出惯性权重非线性调整策略。文献[4]采用文献[3]提出的基于Logistic混沌映射非线性变化惯性权重www。

混沌映射作为一种非线性映射,因其所产生的混沌序列具有良好随机性和空间遍历性,在进化计算中得到广泛应用,其中Logistic映射应用较为广泛,它可以产生[0,1][0,1][0,1]之间的随机数。式(12)给出了Logistic映射的定义,www的定义如式(13)。r(t+1)=4r(t)(1−r(t)),r(0)=rand,r(0)≠{0,0.25,0.75,1}(12)r(t+1)=4r(t)(1-r(t)),\,\,r(0)=\text{rand},\,\,r(0)\neq\{0,0.25,0.75,1\}\tag{12}r(t+1)=4r(t)(1−r(t)),r(0)=rand,r(0)​={0,0.25,0.75,1}(12)w(t)=r(t)wmin⁡+(wmax⁡−wmin⁡)tTmax⁡(13)w(t)=r(t)w_{\min}+\frac{(w_{\max}-w_{\min})t}{T_{\max}}\tag{13}w(t)=r(t)wmin​+Tmax​(wmax​−wmin​)t​(13)其中,wmax⁡=0.9,wmin⁡=0.4w_{\max}=0.9,w_{\min}=0.4wmax​=0.9,wmin​=0.4;r(t)r(t)r(t)是由式(12)迭代产生的随机数。惯性权重随迭代次数的变化如图1所示。

图1 惯性权重随迭代次数变化图

2.3 算法实现

算法实现步骤如下:

步骤1\quad参数初始化,包括种群规模NNN,最大迭代次数Tmax⁡=1000T_{\max}=1000Tmax​=1000,学习因子c1c_1c1​和c2c_2c2​,惯性权重www;并在搜索空间内随机初始化粒子位置、速度;

步骤2\quad根据给定目标函数计算所有粒子适应度值;

步骤3\quad比较种群中所有粒子的适应度值与其经历过的最优位置适应度值的优劣,若前者更优,则用粒子的当前位置替代粒子的个体历史最优位置;

步骤4\quad比较种群中所有个体最优位置的适应度值与整个群体经历过的最优位置的适应度值的优劣,若前者更优,则更新全局最优位置;

步骤5\quad根据式(8)计算pip_ipi​,若pi>δp_i>\deltapi​>δ,则利用式(10)更新粒子的速度和位置;否则,利用式(11)更新粒子的速度和位置;

步骤6\quad判断是否满足终止条件,若满足,则算法终止并输出最优值;否则,转至步骤2。

二、仿真实验及结果分析

为验证文献[4]所提算法(IPSO-VP)有效性,将文献[4]算法与线性递减惯性权重粒子群优化(LDWPSO)算法[5]、均值粒子群优化(MeanPSO)算法[1]、社会学习粒子群优化(SL-PSO)算法[6]、基于概率分层的简化粒子群优化(PHSPSO)算法[2]、基于终端交叉和转向扰动的粒子群优化(TCSPSO)算法[7]、一种基于自适应策略的改进粒子群优化(MPSO)算法[3]进行对比测试,以文献[4]中表1的12个测试函数为例,使用Matlab软件进行仿真,不同PSO算法设置相同种群规模N=100N=100N=100、最大迭代次数Tmax⁡=1000T_{\max}=1000Tmax​=1000和变量维数D=30D=30D=30,其他参数设置与原文保持一致,具体见文献[4]中表3,每个算法独立运行50次,结果显示如下:

函数:F1IPSO-VP:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MeanPSO:最优值: 6.8646e-86, 最差值: 5.9281e-71, 平均值: 1.8817e-72, 标准差: 8.9253e-72TCSPSO:最优值: 5.6373e-114, 最差值: 4.9045e-55, 平均值: 9.8176e-57, 标准差: 6.9359e-56LDWPSO:最优值: 0, 最差值: 0.91227, 平均值: 0.039838, 标准差: 0.15901SL-PSO:最优值: 6.3084e-46, 最差值: 2.8089e-43, 平均值: 3.138e-44, 标准差: 4.5876e-44PHSPSO:最优值: 0, 最差值: 3.6331e-318, 平均值: 8.7455e-320, 标准差: 0MPSO:最优值: 2.5347e-73, 最差值: 6.1736e-57, 平均值: 1.2377e-58, 标准差: 8.7304e-58函数:F2IPSO-VP:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MeanPSO:最优值: 0, 最差值: 6.1457e-71, 平均值: 2.6063e-72, 标准差: 1.1072e-71TCSPSO:最优值: 1.3652e-124, 最差值: 1.4709e-54, 平均值: 3.1769e-56, 标准差: 2.0801e-55LDWPSO:最优值: 0, 最差值: 3284.4655, 平均值: 491.1481, 标准差: 766.9553SL-PSO:最优值: 8.4655e-46, 最差值: 1.5845e-43, 平均值: 1.9671e-44, 标准差: 2.6786e-44PHSPSO:最优值: 0, 最差值: 2.3647e-316, 平均值: 9.0693e-318, 标准差: 0MPSO:最优值: 2.0274e-73, 最差值: 4.6725e-58, 平均值: 9.6728e-60, 标准差: 6.6051e-59函数:F3IPSO-VP:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MeanPSO:最优值: 5.283e-96, 最差值: 4.1191e-78, 平均值: 1.1412e-79, 标准差: 5.9438e-79TCSPSO:最优值: 1.4865e-159, 最差值: 1.3319e-77, 平均值: 2.6639e-79, 标准差: 1.8837e-78LDWPSO:最优值: 0, 最差值: 5.4479e-10, 平均值: 2.1166e-11, 标准差: 8.3114e-11SL-PSO:最优值: 2.2139e-118, 最差值: 4.0772e-104, 平均值: 8.4391e-106, 标准差: 5.763e-105PHSPSO:最优值: 4.6532e-99, 最差值: 1.3859e-77, 平均值: 2.7718e-79, 标准差: 1.9599e-78MPSO:最优值: 1.8882e-219, 最差值: 1.3464e-178, 平均值: 3.1723e-180, 标准差: 0函数:F4IPSO-VP:最优值: 4.5551e-266, 最差值: 5.7613e-243, 平均值: 1.4013e-244, 标准差: 0MeanPSO:最优值: 0, 最差值: 9.3944e-37, 平均值: 1.1951e-37, 标准差: 2.e-37TCSPSO:最优值: 2.7039e-71, 最差值: 3.0697e-52, 平均值: 1.0024e-53, 标准差: 4.6749e-53LDWPSO:最优值: 0, 最差值: 20.2796, 平均值: 3.6956, 标准差: 5.2418SL-PSO:最优值: 2.5159e-24, 最差值: 8.9502e-23, 平均值: 2.5257e-23, 标准差: 1.8106e-23PHSPSO:最优值: 1.2117e-164, 最差值: 1.4035e-158, 平均值: 6.0033e-160, 标准差: 2.1005e-159MPSO:最优值: 1.1517e-39, 最差值: 4.4154e-33, 平均值: 1.0053e-34, 标准差: 6.2431e-34函数:F5IPSO-VP:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MeanPSO:最优值: 8.3741e-89, 最差值: 3.2567e-69, 平均值: 9.8745e-71, 标准差: 4.7812e-70TCSPSO:最优值: 7.0918e-143, 最差值: 9.8839e-47, 平均值: 1.9768e-48, 标准差: 1.3978e-47LDWPSO:最优值: 0, 最差值: 15186.9885, 平均值: 3974.1626, 标准差: 4628.8783SL-PSO:最优值: 0.0047206, 最差值: 0.4358, 平均值: 0.091848, 标准差: 0.088621PHSPSO:最优值: 0, 最差值: 3.2058e-305, 平均值: 6.4717e-307, 标准差: 0MPSO:最优值: 13.8853, 最差值: 1707.2201, 平均值: 312.9347, 标准差: 277.632函数:F6IPSO-VP:最优值: 8.8818e-16, 最差值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0MeanPSO:最优值: 8.8818e-16, 最差值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0TCSPSO:最优值: 8.8818e-16, 最差值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0LDWPSO:最优值: 8.8818e-16, 最差值: 13.8122, 平均值: 0.60472, 标准差: 2.7433SL-PSO:最优值: 4.4409e-15, 最差值: 7.9936e-15, 平均值: 6.7857e-15, 标准差: 1.7e-15PHSPSO:最优值: 8.8818e-16, 最差值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0MPSO:最优值: 8.8818e-16, 最差值: 4.4409e-15, 平均值: 4.2277e-15, 标准差: 8.5229e-16函数:F7IPSO-VP:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MeanPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0TCSPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0LDWPSO:最优值: 0, 最差值: 104.6241, 平均值: 25.9934, 标准差: 25.9937SL-PSO:最优值: 8.9546, 最差值: 29.8488, 平均值: 13.81, 标准差: 3.8226PHSPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MPSO:最优值: 0, 最差值: 74.1012, 平均值: 17.8264, 标准差: 20.8861函数:F8IPSO-VP:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MeanPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0TCSPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0LDWPSO:最优值: 0, 最差值: 60.25, 平均值: 15.2192, 标准差: 16.7802SL-PSO:最优值: 32, 最差值: 53, 平均值: 40.08, 标准差: 5.PHSPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MPSO:最优值: 19.6972, 最差值: 151.837, 平均值: 53.9991, 标准差: 30.5432函数:F9IPSO-VP:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MeanPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0TCSPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0LDWPSO:最优值: 0, 最差值: 0.6829, 平均值: 0.040769, 标准差: 0.12944SL-PSO:最优值: 0, 最差值: 0.0098647, 平均值: 0.00054236, 标准差: 0.0021875PHSPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0MPSO:最优值: 0, 最差值: 0, 平均值: 0, 标准差: 0函数:F10IPSO-VP:最优值: 1.4998e-32, 最差值: 1.4998e-32, 平均值: 1.4998e-32, 标准差: 1.3823e-47MeanPSO:最优值: 8.0709e-06, 最差值: 1.3233, 平均值: 0.40072, 标准差: 0.41418TCSPSO:最优值: 0.69528, 最差值: 1.8328, 平均值: 1.2517, 标准差: 0.28216LDWPSO:最优值: 0.13685, 最差值: 4.7504, 平均值: 0.93702, 标准差: 1.0571SL-PSO:最优值: 1.4998e-32, 最差值: 0.45432, 平均值: 0.023545, 标准差: 0.091378PHSPSO:最优值: 7.4448e-09, 最差值: 2.4401e-06, 平均值: 4.3436e-07, 标准差: 5.1923e-07MPSO:最优值: 0.0085016, 最差值: 0.42659, 平均值: 0.1422, 标准差: 0.10651函数:F11IPSO-VP:最优值: 4.6349e-21, 最差值: 1.182e-13, 平均值: 7.1471e-15, 标准差: 2.1663e-14MeanPSO:最优值: 5.2295e-05, 最差值: 0.13511, 平均值: 0.057518, 标准差: 0.031228TCSPSO:最优值: 0.056151, 最差值: 0.76795, 平均值: 0.26317, 标准差: 0.16111LDWPSO:最优值: 0.00092593, 最差值: 2.063, 平均值: 0.074796, 标准差: 0.30378SL-PSO:最优值: 1.5705e-32, 最差值: 1.5705e-32, 平均值: 1.5705e-32, 标准差: 5.5294e-48PHSPSO:最优值: 3.2248e-10, 最差值: 1.5657e-07, 平均值: 3.3779e-08, 标准差: 3.4082e-08MPSO:最优值: 0.00041682, 最差值: 0.010294, 平均值: 0.0019032, 标准差: 0.0020786函数:F12IPSO-VP:最优值: 1.3498e-32, 最差值: 3.8301e-24, 平均值: 1.1314e-25, 标准差: 5.6851e-25MeanPSO:最优值: 8.1743e-05, 最差值: 2.7016, 平均值: 0.8306, 标准差: 0.60677TCSPSO:最优值: 2.0026, 最差值: 2.998, 平均值: 2.9169, 标准差: 0.23732LDWPSO:最优值: 0.041643, 最差值: 3.4192, 平均值: 1.2515, 标准差: 0.87477SL-PSO:最优值: 1.3498e-32, 最差值: 0.010987, 平均值: 0.00065924, 标准差: 0.0026358PHSPSO:最优值: 4.775e-10, 最差值: 1.4829e-06, 平均值: 3.4713e-07, 标准差: 3.5818e-07MPSO:最优值: 0.00094959, 最差值: 0.20431, 平均值: 0.013967, 标准差: 0.02913

实验结果表明:IPSO-VP算法在收敛速度和寻优精度方面均优于其他6种改进算法。

三、参考文献

[1] Deep K, Bansal J C. Mean particle swarm optimisation for function optimisation[J]. International Journal of Computational Intelligence Studies, , 1(1): 72-92.

[2] Hao-Ran Liu, Jing-Chuang Cui, Ze-Dan Lu, et al. A hierarchical simple particle swarm optimization with mean dimensional information[J]. Applied Soft Computing, , 76: 712-725.

[3] Hao Liu, Xu-Wei Zhang , Liang-Ping Tu. A modified particle swarm optimization using adaptive strategy[J]. Expert Systems With Applications, , 152: 113353.

[4] 李二超, 高振磊. 改进粒子速度和位置更新公式的粒子群优化算法[J]. 南京师大学报(自然科学版), , 45(1): 118-126.

[5] Y. Shi, R. Eberhart. A modified particle swarm optimizer[C]. 1998 IEEE International Conference on Evolutionary Computation Proceedings. IEEE World Congress on Computational Intelligence (Cat. No.98TH8360), 1998, 4: 69-73.

[6] Ran Cheng, Yaochu Jin. A social learning particle swarm optimization algorithm for scalable optimization[J]. Information Sciences, , 291: 43-60.

[7] XuWei Zhang, Hao Liu, Tong Zhang, et al. Terminal crossover and steering-based particle swarm optimization algorithm with disturbance[J]. Applied Soft Computing Journal, , 85: 105841.

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。