700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > m基于PSO粒子群优化算法的最优样本组合策略分析matlab仿真

m基于PSO粒子群优化算法的最优样本组合策略分析matlab仿真

时间:2021-06-16 07:56:48

相关推荐

m基于PSO粒子群优化算法的最优样本组合策略分析matlab仿真

目录

1.算法描述

2.matlab算法仿真效果

3.MATLAB核心程序

4.完整MATLAB

1.算法描述

PSO算法是一种随机的、并行的优化算法。它的优点是:不要求被优化函数具有可微、可导、连续等性质,收敛速度较快,算法简单,容易编程实现。然而,PSO算法的缺点在于:(1)对于有多个局部极值点的函数,容易陷入到局部极值点中,得不到正确的结果。造成这种现象的原因有两种,其一是由于待优化函数的性质;其二是由于微粒群算法中微粒的多样性迅速消失,造成早熟收敛。这两个因素通常密不可分地纠缠在一起。(2)由于缺乏精密搜索方法的配合,PSO算法往往不能得到精确的结果。造成这种问题的原因是PSO算法并没有很充分地利用计算过程中获得的信息,在每一步迭代中,仅仅利用了群体最优和个体最优的信息。(3)PSO算法虽然提供了全局搜索的可能,但是并不能保证收敛到全局最优点上。(4)PSO算法是一种启发式的仿生优化算法,当前还没有严格的理论基础,仅仅是通过对某种群体搜索现象的简化模拟而设计的,但并没有从原理上说明这种算法为什么有效,以及它适用的范围。因此,PSO算法一般适用于一类高维的、存在多个局部极值点而并不需要得到很高精度解的优化问题。

当前针对PSO算法开展的研究工作种类繁多,经归纳整理分为如下八个大类:(1)对PSO算法进行理论分析,试图理解其工作机理;(2)改变PSO算法的结构,试图获得性能更好的算法;(3)研究各种参数配置对PSO算法的影响;(4)研究各种拓扑结构对PSO算法的影响;(5)研究离散版本的PSO算法;(6)研究PSO算法的并行算法;(7)利用PSO算法对多种情况下的优化问题进行求解;(8)将PSO算法应用到各个不同的工程领域。以下从这八大类别着手,对PSO算法的研究现状作一梳理。由于文献太多,无法面面俱到,仅捡有代表性的加以综述。

PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次迭代中,粒子通过跟踪两个“极值(pbest和gbest)”来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。

对于公式(1):

公式(1)中的第一部分称为记忆项,表示上次速度大小和方向的影响;

公式(1)中的第二部分称为自身认知项,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;

公式(1)中的第三部分称为群体认知项,是一个从当前点指向种群最好点的矢量,反映了粒子间的协调合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。

综上所述,标准PSO算法流程:

初始化一群微粒(群体规模为N),包括随机位置和速度;

评价每个微粒的适应度;

对每个微粒,将其适应值与其经过的最好位置pbest作比较,如果较好,则将其作为当前的最好位置pbest;

对每个微粒,将其适应值与其经过的最好位置gbest作比较,如果较好,则将其作为当前的最好位置gbest;

根据公式(2)、(3)调整微粒的速度和位置;

未达到结束条件则转到第二步。

迭代终止条件根据具体问题一般选为最大迭代次数Gk或微粒群迄今为止搜索到的最优位置满足预定最小适应阈值。

2.matlab算法仿真效果

matlaba仿真结果如下:

3.MATLAB核心程序

global Ri;global Pij;global Si;%导入excel数据dat1 = xlsread('alpha_beta.xlsx');dat2 = xlsread('project_correlation.xlsx');alpha = dat1(:,1);beta = dat1(:,2);Rm = dat1(:,3);Ri = [alpha + beta.*Rm]';Pij = dat2(1:30,1:30);for i = 1:30for j = 1:30if isnan(Pij(i,j)) == 1Pij(i,j) = 0;endendendSi = dat2(1:30,34);%粒子初始化%粒子群算法中的两个参数c1= 1.5;c2= 1.5;%最大最小权值wmax = 0.9;wmin = 0.1;%最大最小速度Vmax = 1.5;Vmin = -1.5;%最大最小个体popmax = 1;popmin = 0;maxgen = 280; %进化次数 sizepop= 500; %种群规模LE= 30;%随机产生一个种群for i=1:sizepop pop(i,:) = 0.6*rand(1,LE);%个体编码pop(i,:) = pop(i,:)/sum(pop(i,:));fitness1(i)= func_object1(pop(i,:));%染色体的适应度fitness2(i)= func_object2(pop(i,:));%染色体的适应度V(i,:)= 0.03*rands(1,LE); %初始化速度fitness(i) =(0.5*fitness1(i)+0.5*fitness2(i));end%初始种群极值%找最好的染色体[bestfitness,bestindex] = min(fitness);[bestfitness1,bestindex1] = min(fitness1);[bestfitness2,bestindex2] = min(fitness2);%全局最佳zbest = pop(bestindex,:); %个体最佳gbest = pop; %个体最佳适应度值fitnessgbest = fitness; fitnessgbest1 = fitness1; fitnessgbest2 = fitness2; %全局最佳适应度值fitnesszbest = bestfitness; fitnesszbest1 = bestfitness; fitnesszbest2 = bestfitness; %迭代寻优for i=1:maxgenifor j=1:sizepop%变权值w =(wmax-wmin)*(i-1)/(maxgen)+wmin; % %固定权值% w = 0.1;%速度更新V(j,:) = w*V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:)); V(j,find(V(j,:)>Vmax)) = Vmax; %小于最大速度V(j,find(V(j,:)<Vmin)) = Vmin; %大于最小速度%种群更新pop(j,:) = pop(j,:)+0.9*V(j,:);%适应度值pop(j,:) = pop(j,:)/sum(pop(j,:));%小于个体最大值pop(j,find(pop(j,:)>popmax)) = popmax; %大于个体最小值pop(j,find(pop(j,:)<popmin)) = popmin; %适应度值pop(j,:) = pop(j,:)/sum(pop(j,:));fitness1(j) = func_object1(pop(j,:));fitness2(j) = func_object2(pop(j,:));fitness(j) = (0.5*fitness1(j)+0.5*fitness2(j));endfor j=1:sizepop%个体极值更新if fitness(j)>fitnessgbest(j)gbest(j,:) = pop(j,:);fitnessgbest(j) = fitness(j);fitnessgbest1(j) = fitness1(j);fitnessgbest2(j) = fitness2(j);end%全局极值更新if fitness(j)>fitnesszbestzbest = pop(j,:);fitnesszbest= fitness(j);fitnesszbest1 = fitness1(j);fitnesszbest2 = fitness2(j);endend%记录最优适应度值yy(i) = fitnesszbest;E(i) = fitnesszbest1;F(i) = fitnesszbest2;%保存数据SAVES(1,i) = E(i);SAVES(2,i) = F(i);SAVES(3:32,i) = zbest';endfigure;plot(F,E,'linewidth',2);title('风险收益曲线图');xlabel('RISK');ylabel('RETURN,E(Ri)');grid on02_037m

4.完整MATLAB

V

V

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。