700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 算法笔记-粒子群优化算法(PSO)

算法笔记-粒子群优化算法(PSO)

时间:2022-11-04 10:47:54

相关推荐

算法笔记-粒子群优化算法(PSO)

一、算法概述

粒子群优化(PSO,particle swarm optimization)算法是计算智能领域,除了蚁群算法,鱼群算法之外的一种群体智能的优化算法,该算法最早由Kennedy和Eberhart在1995年提出的,该算法源自对鸟类捕食问题的研究。

PSO算法首先在可行解空间中初始化一群粒子,每个粒子都代表极值优化问题的一个潜在最优解,用位置速度适应度三项指标表示该粒子特征。

粒子在解空间中运动,通过跟踪个体极值Pbest和群体极值Gbest更新个体位置,个体极值Pbest是指个体所经历位置中计算得到的适应度值最优位置,群体极值Gbest是指种群中的所有粒子搜索到的适应度最优位置。

粒子每更新一次位置,就计算一次适应度值,并且通过比较新粒子的适应度值和个体极值、群体极值的适应度值更新个体极值Pbest和群体极值Gbest位置。

在每一次迭代过程中,粒子通过个体极值和群体极值更新自身的速度和位置,更新公式如下:

其中,and is a random number between (0,1). andare learning factors. usually = = 2.

二、粒子群优化算法与遗传算法对比

相同点:

种群随机初始化

适应度函数值与目标最优解之间的映射

不同点:

PSO算法没有选择、交叉、变异等操作算子

PSO有记忆的功能

信息共享机制不同,遗传算法是互相共享信息,整个种群的移动是比较均匀地向最优区域移动,而在PSO中,只有gBest和lBest给出信息给其他粒子,属于单向的信息流动,整个搜索更新过程是跟随当前最优解的过程。因此,在一般情况下,PSO的收敛速度更快

三、算法示例(matlab)

1.一元函数寻找最大值

test1.m

clcclear all%% 绘制目标函数曲线图,一元函数优化寻找最大值x = 1:0.01:2;y = sin(10*pi*x)./x;figureplot(x,y)hold on%% 参数初始化c1 = 1.49445;c2 = 1.49445;maxgen = 50; %进化次数sizepop = 10; %种群规模Vmax = 0.5;Vmin = -0.5;popmax = 2;popmin = 1;ws = 0.9; we = 0.4;%% 产生初始粒子和速度for i = 1:sizepop% 随机产生一个种群pop(i,:) = (rand(1)+1)/2+1; %初始种群,第i行所有值V(i,:) = 0.5*rands(1); %初始化速度% 计算适应度fitness(i) = fun1(pop(i,:));end%% 个体极值和群体极值[bestfitness,bestindex] = max(fitness); %此程序找最大值,所以取max。寻找最小值,取min。zbest = pop(bestindex,:); %全局最佳gbest = pop; %个体最佳fitnessgbest = fitness; %个体最佳适应值fitnesszbest = bestfitness; %全局最佳适应度值%% 迭代寻优for i = 1:maxgenw = ws - (ws - we)*(i/maxgen); %权重更新,影响局部和全局的收敛速度for j = 1:sizepop%速度更新V(j,:)=w*V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:)); %rand生成(0,1)的一个随机数V(j, find(V(j,:)>Vmax)) = Vmax; %边界约束V(j, find(V(j,:)<Vmin)) = Vmin; %边界约束%种群更新pop(j,:) = pop(j,:) + V(j,:);pop(j, find(pop(j,:)>popmax)) = popmax; %边界约束pop(j, find(pop(j,:)<popmin)) = popmin; %边界约束%适应度更新fitness(j) = fun1(pop(j,:));endfor j = 1:sizepop%个体最优更新if fitness(j) > fitnessgbest(j)gbest(j,:) = pop(j,:);fitnessgbest(j) = fitness(j);end%群体最优更新if fitness(j) > fitnesszbestzbest = pop(j,:);fitnesszbest = fitness(j);endendyy(i) = fitnesszbest; %一代的执行结果end%% 输出结果绘图[fitnesszbest zbest]plot(zbest,fitnesszbest,'r+')figureplot(yy)title('最优个体适应度','fontsize',12);xlabel('进化代数','fontsize',12);ylabel('适应度','fontsize',12);

fun1.m

function y = fun1(x)%函数用于计算粒子适应度值%xinput 输入粒子%youtput 粒子适应度值y = sin(10*pi*x)/x;

运行效果:

figure1:一元函数图像,+处是寻找到的最大值。figure2:经过50次迭代,对应的每一代的最佳适应度值,差不多在第10代往后已经收敛了,适应度值几乎不变。

2.二元函数寻找最大值

test2.m

%% 清空环境clcclear%% 绘制目标函数曲线,二元函数优化寻找最大值figure[x,y] = meshgrid(-5:0.1:5,-5:0.1:5);z = x.^2 + y.^2 - 10*cos(2*pi*x) - 10*cos(2*pi*y) + 20;mesh(x,y,z)hold on%% 参数初始化c1 = 1.49445;c2 = 1.49445;maxgen = 1000; %进化次数sizepop = 100; %种群规模Vmax = 1;Vmin = -1;popmax = 5;popmin = -5;%% 产生初始粒子和速度for i = 1:sizepop%随机产生一个种群pop(i,:)=5*rand(1,2); %初始种群V(i,:) = rands(1,2); %初始化速度,二元函数,所以要产生两个速度% 计算适应度fitness(i) = fun2(pop(i,:)); %染色体的适应度end%% 个体极值和群体极值[bestfitness bestindex] = max(fitness);zbest = pop(bestindex,:); %全局最佳gbest = pop; %个体最佳fitnessgbest = fitness; %个体最佳适应度值fitnesszbest = bestfitness; %全局最佳适应度值%% 迭代寻优for i = 1:maxgenfor j = 1:sizepop% 速度更新V(j,:)=V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:));V(j, find(V(j,:)>Vmax)) = Vmax; %边界约束V(j, find(V(j,:)<Vmin)) = Vmin; %边界约束%种群更新pop(j,:) = pop(j,:) + V(j,:);pop(j, find(pop(j,:)>popmax)) = popmax; %边界约束pop(j, find(pop(j,:)<popmin)) = popmin; %边界约束%适应度更新fitness(j) = fun2(pop(j,:));endfor j = 1:sizepop%个体最优更新if fitness(j) > fitnessgbest(j)gbest(j,:) = pop(j,:);fitnessgbest(j) = fitness(j);end%群体最优更新if fitness(j) > fitnesszbestzbest = pop(j,:);fitnesszbest = fitness(j);endendyy(i) = fitnesszbest; %一代的执行结果end%% 输出结果[fitnesszbest zbest]plot3(zbest(1) ,zbest(2),fitnesszbest,'bo','linewidth',1.5)figureplot(yy)title('最优个体适应度','fontsize',12);xlabel('进化代数','fontsize',12);ylabel('适应度','fontsize',12);

fun2.m

function y = fun2(x)%函数用于计算粒子适应度值%xinput输入粒子%youtput粒子适应度值y = x(1).^2 + x(2).^2 - 10*cos(2*pi*x(1)) - 10*cos(2*pi*x(2)) + 20;

运行效果:

figure1:二元函数图像,o处是寻找到的最大值。figure2:经过1000次迭代,对应的每一代的最佳适应度值,差不多在第27代往后已经收敛了,适应度值几乎不变。

四、算法作用

PSO算法简单容易实现并且没有许多参数的调节。目前已被广泛应用于函数优化(函数最大值、最小值问题)、神经网络训练(稍后学习用到再说)、模糊系统控制(不了解)以及其他遗传算法(不了解)的应用领域。

注:个人笔记,仅用于学习,内容参考一些视频讲解。如有问题,请及时联系!

Particle Swarm Optimization

在matlabaVersion中,也有粒子群算法的工具箱。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。