700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > SVM支持向量机实验(基于SVM的手写体数字识别)

SVM支持向量机实验(基于SVM的手写体数字识别)

时间:2019-09-19 06:54:24

相关推荐

SVM支持向量机实验(基于SVM的手写体数字识别)

文章目录

最大间隔与分类对偶问题等式约束不等式约束的KKT条件二次规划SMO核函数软间隔与正则化支持向量回归实现SMO算法处理小规模数据集简化版SMO算法利用完整Platt SMO算法加速优化在复杂数据上应用核函数基于SVM的数字识别实验总结

最大间隔与分类

线性模型:

在样本空间中寻找一个超平面,将不同类别样本分开。当数据点在二维平面上时,分隔超平面是一条直线。若数据集是三维的,分隔数据的即为一个平面。高维情况时分隔数据的是超平面,也就是分类的决策边界。分布在超平面一侧的所有数据都属于某个类别,而分布在另一侧的所有数据则属于另一个类别。

我们希望采用这种方式构建分类器,即如果数据点离决策边界越远,那么其最后的预测结果也就越可信。那么我们如何选择超平面?我们希望找到离分隔超平面最近的点(支持向量),确保它们离分隔面的距离尽可能远。这里点到分隔面的距离称为间隔,我们希望间隔尽可能的大,即最大化决策边界的边缘,这是因为若我们犯错或在有限数据上训练分类器的话,我们希望分类器尽可能健壮。

如图所示:

我们在选择超平面时应选择“正中间”的这条直线,容忍性好,鲁棒性高,泛化能力最强。

我们可将分隔超平面方程写为:wTx+b=0w^Tx+b=0wTx+b=0

如图所示:令x+和x−x_+和x_-x+​和x−​位于决策边界上,标签为正负两个样本,x+x_+x+​到分类线距离为:d+=∣WTx++b∣∣∣W∣∣d_+=\frac{|W^Tx_++b|}{||W||}d+​=∣∣W∣∣∣WTx+​+b∣​.则分类间隔为:width=2∣∣W∣∣width=\frac{2}{||W||}width=∣∣W∣∣2​.

间隔最大化即要找到参数w和b,使得以下公式最大:

我们举一个间隔最大化的简单的例子:

根据已知条件,联立方程组并化简后可得到以下式子:

这样我们便得到了一个圆的方程12(w12+w22)\frac{1}{2}(w_1^2+w_2^2)21​(w12​+w22​)以及两条直线方程w1+w2>1w_1+w_2>1w1​+w2​>1和32w1+w2>1\frac{3}{2}w_1+w_2>123​w1​+w2​>1,用图表示如下:

我们要求的为12(w12+w22)\frac{1}{2}(w_1^2+w_2^2)21​(w12​+w22​)的最小值,显而易见该方程最小值即为0,但在求该方程最小值时同时要满足w1+w2>1w_1+w_2>1w1​+w2​>1和32w1+w2>1\frac{3}{2}w_1+w_2>123​w1​+w2​>1的约束条件,即图中两条直线的右边相交部分。因此以原点为中心,我们可以将圆不断放大直至与约束区域边界相切,这样便可以找到12(w12+w22)\frac{1}{2}(w_1^2+w_2^2)21​(w12​+w22​)的最小值。

如图所示:求得w和b后在代入便可得到分隔超平面方程及最大化间隔。

对偶问题

等式约束

给定目标函数f:Rn−>RR^n->RRn−>R,希望找到x∈RnR^nRn,在满足约束条件g(x)=0的前提下,使得f(x)有最小值。该约束优化问题记为:

min f(x) s.t. g(x)=0.

建立拉格朗日函数:

L(x,λ)=f(x)+λg(x)

λ为拉格朗日乘数,因此,将原本的约束优化问题转换为等价无约束优化问题:

分别对待求解参数求导,得:

一般联立方程组即可得到相应的解。

不等式约束的KKT条件

将约束条件g(x)=0推广为g(x)<=0,约束优化问题便改为:

拉格朗日函数为:

L(x,λ)=f(x)+λg(x)L(x,\lambda)=f(x)+\lambda g(x)L(x,λ)=f(x)+λg(x)

其约束范围为不等式,可等价转化为Karush-Kuhn-Tucker (KKT)条件:

在此基础上,通过优化方式(如二次规划或SMO)求解其最优解。

几何解释:

当解位于gi(x)<0g_i(x)<0gi​(x)<0范围时,那么gi(x)=0g_i(x)=0gi​(x)=0这一条件就未起到了约束作用,因此,当解满足gi(x)=0g_i(x)=0gi​(x)=0这一约束条件时,约束条件才有意义。

拉格朗日乘子法:

引入拉格朗日乘子αi>=0\alpha_i>=0αi​>=0得到拉格朗日函数:L(w,b,α)=12∣∣w∣∣2−∑i=1mαi(yi(wTxi+b)−1)L(w,b,\alpha)=\frac{1}{2}||w||^2-\sum_{i=1}^m\alpha_i(y_i(w^Tx_i+b)-1)L(w,b,α)=21​∣∣w∣∣2−∑i=1m​αi​(yi​(wTxi​+b)−1)令L(w,b,α)L(w,b,\alpha)L(w,b,α)对w和b的偏导为0:w=∑i=1mαiyixi,∑i=1mαiyi=0w=\sum_{i=1}^m\alpha_iy_ix_i,\sum_{i=1}^m\alpha_iy_i=0w=∑i=1m​αi​yi​xi​,∑i=1m​αi​yi​=0将w和b回代到第一步:

L(w,b,α)=12∣∣w∣∣2−∑i=1mαi(yi(wTxi+b)−1)L(w,b,\alpha)=\frac{1}{2}||w||^2-\sum_{i=1}^m\alpha_i(y_i(w^Tx_i+b)-1)L(w,b,α)=21​∣∣w∣∣2−∑i=1m​αi​(yi​(wTxi​+b)−1)

=12wTw−wT∑i=1mαiyixi−b∑i=1mαiyi+∑i=1mαi\frac{1}{2}w^Tw-w^T\sum_{i=1}^m\alpha_iy_ix_i-b\sum_{i=1}^m\alpha_iy_i+\sum_{i=1}^m\alpha_i21​wTw−wT∑i=1m​αi​yi​xi​−b∑i=1m​αi​yi​+∑i=1m​αi​

=12wT(∑i=1mαiyixi)−wT∑i=1mαiyixi+∑i=1mαi\frac{1}{2}w^T(\sum_{i=1}^m\alpha_iy_ix_i)-w^T\sum_{i=1}^m\alpha_iy_ix_i+\sum_{i=1}^m\alpha_i21​wT(∑i=1m​αi​yi​xi​)−wT∑i=1m​αi​yi​xi​+∑i=1m​αi​

=−12wT∑i=1mαiyixi+∑i=1mαi-\frac{1}{2}w^T\sum_{i=1}^m\alpha_iy_ix_i+\sum_{i=1}^m\alpha_i−21​wT∑i=1m​αi​yi​xi​+∑i=1m​αi​

=−12∑i=1m∑j=1mαiαjyiyjxiTxj+∑i=1mαi-\frac{1}{2}\sum_{i=1}^m\sum_{j=1}^m\alpha_i\alpha_jy_iy_jx_i^Tx_j+\sum_{i=1}^m\alpha_i−21​∑i=1m​∑j=1m​αi​αj​yi​yj​xiT​xj​+∑i=1m​αi​

即minαmin_\alphaminα​12∑i=1m∑j=1mαiαjyiyjxiTxj−∑i=1mαi\frac{1}{2}\sum_{i=1}^m\sum_{j=1}^m\alpha_i\alpha_jy_iy_jx_i^Tx_j-\sum_{i=1}^m\alpha_i21​∑i=1m​∑j=1m​αi​αj​yi​yj​xiT​xj​−∑i=1m​αi​

s.t.∑i=1mαiyi=0,αi>=0,i=1,2,...,m.\sum_{i=1}^m\alpha_iy_i=0,\alpha_i>=0,i=1,2,...,m.∑i=1m​αi​yi​=0,αi​>=0,i=1,2,...,m.

由于minw,b12wTw=minw,bmaxαL(w,b,α)=maxαminw,bL(w,b,α)min_{w,b}\frac{1}{2}w^Tw=min_{w,b}max_\alpha L(w,b,\alpha)=max_\alpha min_{w,b}L(w,b,\alpha)minw,b​21​wTw=minw,b​maxα​L(w,b,α)=maxα​minw,b​L(w,b,α)

则等价于maxα∑i=1mαi−12∑i=1m∑j=1mαiαjyiyjxiTxjmax_\alpha\sum_{i=1}^m\alpha_i-\frac{1}{2}\sum_{i=1}^m\sum_{j=1}^m\alpha_i\alpha_jy_iy_jx_i^Tx_jmaxα​∑i=1m​αi​−21​∑i=1m​∑j=1m​αi​αj​yi​yj​xiT​xj​

s.t.∑i=1mαiyi=0,αi>=0,i=1,2,...,m.\sum_{i=1}^m\alpha_iy_i=0,\alpha_i>=0,i=1,2,...,m.∑i=1m​αi​yi​=0,αi​>=0,i=1,2,...,m.

最终模型:f(x)=wTx+b=∑i=1mαIyixiTx+bf(x)=w^Tx+b=\sum_{i=1}^m\alpha_Iy_ix_i^Tx+bf(x)=wTx+b=∑i=1m​αI​yi​xiT​x+b

此处αi\alpha_iαi​为未知数

据Karush-Kuhn-Tucker(KKT)条件,函数最优解满足以下条件:

对于不在最大边缘边界上的点,由于yif(xi)>1,因此y_if(x_i)>1,因此yi​f(xi​)>1,因此αi=0\alpha_i=0αi​=0

支持向量机解的稀疏性:

训练完成后,大部分训练样本都无需保留,最终模型只与支持向量有关。

二次规划

调用开源工具的二次规划程序求得α1,α2,α3,α4\alpha_1,\alpha_2,\alpha_3,\alpha_4α1​,α2​,α3​,α4​的值,并代入求得w和b的值。

显然当数据集样本很大时,计算量也很大。

SMO

maxα∑i=1mαi−12∑i=1m∑j=1mαiαjyiyjxiTxjmax_\alpha\sum_{i=1}^m\alpha_i-\frac{1}{2}\sum_{i=1}^m\sum_{j=1}^m\alpha_i\alpha_jy_iy_jx_i^Tx_jmaxα​∑i=1m​αi​−21​∑i=1m​∑j=1m​αi​αj​yi​yj​xiT​xj​

s.t.∑i=1mαiyi=0.\sum_{i=1}^m\alpha_iy_i=0.∑i=1m​αi​yi​=0.

基本思路:不断重复执行以下两个步骤直至收敛。

选取一对需要更新的变量αi,αj\alpha_i,\alpha_jαi​,αj​固定αi,αj\alpha_i,\alpha_jαi​,αj​以外的参数,求解对偶问题更新αi,αj\alpha_i,\alpha_jαi​,αj​。

当仅考虑αi,αj\alpha_i,\alpha_jαi​,αj​时,对偶问题的约束条件变为:

αiyi+αjyj=−∑k!=i,jαkyk,αi>=0,αj>=0\alpha_iy_i+\alpha_jy_j=-\sum_{k!=i,j}\alpha_ky_k,\alpha_i>=0,\alpha_j>=0αi​yi​+αj​yj​=−∑k!=i,j​αk​yk​,αi​>=0,αj​>=0

偏移项b:通过支持向量确定。

算法流程:每次选取两个α\alphaα进行更新

需要注意的是我们要同时改变两个α\alphaα,若只选取一个,那么该变量可以通过其他变量和约束条件联合求得,可能会导致约束条件失效,因此我们需要同时改变两个α\alphaα。

核函数

线性不可分->高维可分

当不存在一个能正确划分两类样本的超平面时,我们可以将样本从原始空间映射到一个更高维的特征空间,使得样本在该特征空间内线性可分。

设样本x映射后的向量为ϕ(x), 划分超平面为f(x)=wTϕ(x)+bf(x)=w^Tϕ(x)+bf(x)=wTϕ(x)+b

基本想法:不显式的构造该映射,而是设计核函数。

Mercer定理(充分非必要):只要对称函数值所对应的核矩阵半正定,则该函数可作为核函数。

常用核函数: 仍然可用SMO算法求解

软间隔与正则化

在实际应用中,很难选择合适的核函数使样本在特征空间中线性可分,此外,线性可分的结果也很难断定是否是由过拟合造成的。因此,我们引入软间隔的概念,允许SVM在一些样本上不满足约束。

部分样本允许:

基本思想:最大化间隔的同时,让不满足约束的样本应尽可能的少。

C>0为惩罚参数,l0/1l_{0/1}l0/1​是“0/1损失函数”

但是0/1损失函数非凸,非连续,不宜优化,因此我们选择替代损失函数,替代损失函数数学性质较好,一般是0/1损失函数的上界。

Hinge Loss:

据KKT条件推得最终模型只与支持向量有关,即hinge损失函数保留了支持向量机解的稀疏性。

支持向量机学习模型的更一般形式:

通过替换上图中的两个部分便可得到其他学习模型:对数几率回归(Logistic Regression),最小绝对收缩选择算子(LASSO)。

支持向量回归

特点:允许模型输出和实际输出间存在2ε的偏差。

对于落入中间2ε间隔带的样本我们不计算损失,从而获得模型的稀疏性。

形式化:

训练策略:

实现SMO算法处理小规模数据集

简化版SMO算法

SMO算法中的辅助函数:

def loadDataSet(fileName):dataMat=[];labelMat=[];fr=open(fileName)for line in fr.readlines():#逐行解析lineArr=line.strip().split('\t')dataMat.append([float(lineArr[0]),float(lineArr[1])])#得到数据矩阵labelMat.append(float(lineArr[2]))#得到类标签return dataMat,labelMatdef selectJrand(i,m):#i为第一个alpha的下标,m为所有alpha的数目j=iwhile(j==i):j=int(random.uniform(0,m))#随机选择alphareturn jdef clipAlpha(aj,H,L):#调整大于H或小于L的alpha值if aj>H:aj=Hif L>aj:aj=Lreturn aj

loadDataSet函数打开文件并对其逐行解析,得到每行的类标签和整个数据矩阵。selectJrand函数进行随机选择alpha。clipAlpha函数调整大于H或小于L的alpha值。

SMO函数伪代码如下所示:

创建一个alpha向量并将其初始化为0向量当迭代次数小于最大迭代次数时(外循环):对数据集中的每个数据向量(内循环):如果该数据向量可以被优化:随机选择另外一个数据向量同时优化这两个向量如果两个向量都不能被优化,退出内循环如果所有向量都没被优化,增加迭代次数,继续下一次循环

简化版SMO算法如下所示:

def smoSimple(dataMatIn,classLabels,C,toler,maxIter):#数据集,类别标签,常数C,容错率,最大循环次数start=time.time()dataMatrix=mat(dataMatIn);labelMat=mat(classLabels).transpose()#转置类别标签b=0m,n=shape(dataMatrix)alphas=mat(zeros((m,1)))#初始化alpha列矩阵iter=0#存储在没有任何alpha改变情况下遍历数据集的次数while(iter<maxIter):alphaPairsChanged=0#记录alpha是否进行优化for i in range(m):fxi=float(multiply(alphas,labelMat).T*\(dataMatrix*dataMatrix[i,:].T))+b #预测类别Ei=fxi-float(labelMat[i])#计算误差if((labelMat[i]*Ei<-toler)and(alphas[i]<C))or\((labelMat[i]*Ei>toler)and\(alphas[i]>0)):j=selectJrand(i,m)#选择第二个alpha值fxj=float(multiply(alphas,labelMat).T*\(dataMatrix*dataMatrix[j,:].T))+bEj=fxj-float(labelMat[j])alphaIold=alphas[i].copy();alphaJold=alphas[j].copy();if(labelMat[i]!=labelMat[j]):L=max(0,alphas[j]-alphas[i])H=min(C,C+alphas[j]-alphas[i])else:L=max(0,alphas[j]+alphas[i]-C)H=min(C,alphas[j]+alphas[i])if L==H:print('L==H')continueeta=2.0*dataMatrix[i,:]*dataMatrix[j,:].T-\dataMatrix[i,:]*dataMatrix[i,:].T-\dataMatrix[j,:]*dataMatrix[j,:].Tif eta>=0:print('eta>=0')continuealphas[j]-=labelMat[j]*(Ei-Ej)/etaalphas[j]=clipAlpha(alphas[j],H,L)if(abs(alphas[j]-alphaJold)<0.00001):print('j not moving enough')continuealphas[i]+=labelMat[j]*labelMat[i]*\(alphaJold-alphas[j])#对i进行修改,修改量与j相同,但方向相反b1=b-Ei-labelMat[i]*(alphas[i]-alphaIold)*\dataMatrix[i,:]*dataMatrix[i,:].T-\labelMat[j]*(alphas[j]-alphaJold)*\dataMatrix[i,:]*dataMatrix[j,:].Tb2=b-Ej-labelMat[i]*(alphas[i]-alphaIold)*\dataMatrix[i,:]*dataMatrix[j,:].T-\labelMat[j]*(alphas[j]-alphaJold)*\dataMatrix[j,:]*dataMatrix[j,:].Tif(0<alphas[i])and(C>alphas[i]):b=b1elif (0<alphas[j])and(C>alphas[j]):b=b2else:b=(b1+b2)/2.0alphaPairsChanged+=1print('iter:%d i:%d,pairs changed %d'%\(iter,i,alphaPairsChanged))if(alphaPairsChanged==0):iter+=1else:iter=0print('iteration number: %d' %iter)end=time.time()rtime=end-startprint("the running time is:%f"%(end-start))return b,alphas,rtime

dataArr,labelArr=loadDataSet('D:/machinelearning/machinelearninginaction/Ch06/testSet.txt')# print(labelArr)b,alphas,rtime=smoSimple(dataArr,labelArr,0.6,0.001,40)

运行结果:

由运行结果可以看出简化版的SMO算法运行时间较久,并且随着迭代次数的增加,程序的运行时间也在增加,这里我运行了十次算法并计算出来程序的平均运行时间为4s左右,虽然不是太久,但该数据集规模较小,当数据集规模较大时,程序运行时间将会更长。

对支持向量用圆圈标记后的结果如图所示:

利用完整Platt SMO算法加速优化

在之前实现的简化版SMO算法中,对于小规模数据集运行时间并不会太久,但在更大规模数据集上时简化版SMO算法的运行时间就会变长。因此我们通过完整的Platt SMO算法进行加速优化。在简化版与完整版SMO算法中,实现alpha的更改和代数运算的优化环节一模一样,在优化过程中,唯一不同为选择alpha的方式。

Platt SMO算法是通过一个外循环来选择第一个alpha值的,并且其选择过程会在两种方式之间进行交替:一种方式为在所有数据集上进行单遍扫描,另一种方式是在非边界alpha中实现单遍扫描。非边界alpha指的是不等于边界0或C的alpha值,对整个数据集的扫描相当容易,而实现非边界alpha值的扫描时,首先需要建立这些alpha值的列表,然后再对这个表进行遍历,同时,该步骤会跳过已知的不会改变的alpha值。

在选择第一个alpha值后,算法会通过一个内循环来选择第二个alpha值,在优化过程中,会通过最大化步长的方式来获得第二个alpha值,在简化版SMO算法中,我们会在选择j之后计算错误率Ej,但在完整版SMO算法中,我们会建立一个全局的缓存用于保存误差值,并从中选择使得步长或者说Ei-Ej最大的alpha值。

完整版Platt SMO的支持函数:

class optStruct:def __init__(self,dataMatIn,classLabels,C,toler):self.X=dataMatInself.labelMat=classLabelsself.C=Cself.tol=tolerself.m=shape(dataMatIn)[0]self.alphas=mat(zeros((self.m,1)))self.b=0self.eCache=mat(zeros((self.m,2)))#误差缓存def calcEk(oS,k):#计算E值并返回fXk=float(multiply(oS.alphas,oS.labelMat).T*(oS.X*oS.X[k,:].T))+oS.bEk=fXk-float(oS.labelMat[k])return Ekdef selectJ(i,oS,Ei):#选择第二个alpha(内循环的alpha值)maxK=-1maxDeltaE=0Ej=0oS.eCache[i]=[1,Ei]#将输入值Ei在缓存中设置为有效的(已经计算好的)validEcacheList=nonzero(oS.eCache[:,0].A)[0]#构建出非零表if(len(validEcacheList))>1:for k in validEcacheList:if k==1:continueEk=calcEk(oS,k)deltaE=abs(Ei-Ek)if(deltaE>maxDeltaE):#选择具有最大步长的jmaxk=k;maxDeltaE=deltaE;Ej=Ekreturn maxK,Ejelse:j=selectJrand(i,oS.m)Ej=calcEk(oS,j)return j,Ejdef updateEk(oS,k):#计算误差值并存入缓存当中Ek=calcEk(oS,k)oS.eCache[k]=[1,Ek]

首先建立一个数据结构保存所有重要值,这个过程可以通过一个对象来完成,这里使用对象的目的不是为了面向对象编程,而是作为一个数据结构来使用对象。构建一个仅包含init方法的optStruct类,该方法可以实现其成员变量的填充。calcEk函数用于计算E值并返回,在之前简化版SMO算法中,该过程是内嵌的,但由于该过程在完整版Platt SMO算法中出现频繁,因此将其单独拎出来。selectJ函数用于选择第二个alpha(内循环的alpha值)。updateEk函数计算误差值并存入缓存当中。

完整Platt SMO算法中的优化例程:

def innerL(i,oS):Ei=calcEk(oS,i)if((oS.labelMat[i]*Ei<-oS.tol)and(oS.alphas[i]<oS.C))or\((oS.labelMat[i]*Ei>oS.tol)and(oS.alphas[i]>0)):j,Ej=selectJ(i,oS,Ei)#采用第二个alpha选择中的启发式方法alphaIold=oS.alphas[i].copy()alphaJold=oS.alphas[j].copy()if(oS.labelMat[i]!=oS.labelMat[j]):L=max(0,oS.alphas[j]-oS.labelMat[i])H=min(oS.C,oS.C+oS.alphas[j]-oS.alphas[i])else:L=max(0,oS.alphas[j]+oS.alphas[i]-oS.C)H=min(oS.C,oS.alphas[j]+oS.alphas[i])if L==H:print("L==H")return 0eta=2.0*oS.X[i,:]*oS.X[j,:].T-oS.X[i,:]*oS.X[i,:].T-\oS.X[j,:]*oS.X[j,:].Tif eta>=0:print("eta>=0")return 0oS.alphas[j]-=oS.labelMat[j]*(Ei-Ej)/etaoS.alphas[j]=clipAlpha(oS.alphas[j],H,L)updateEk(oS,j)#更新误差缓存if(abs(oS.alphas[j]-alphaJold)<0.00001):print("j not moving enough")return 0oS.alphas[i]+=oS.labelMat[j]*oS.labelMat[i]*\(alphaJold-oS.alphas[j])updateEk(oS,i)b1=oS.b-Ei-oS.labelMat[i]*(oS.alphas[i]-alphaIold)*\oS.X[i,:]*oS.X[i,:].T-oS.labelMat[j]*\(oS.alphas[j]-alphaJold)*oS.X[i,:]*oS.X[j,:].Tb2=oS.b-Ej-oS.labelMat[i]*(oS.alphas[i]-alphaIold)*\oS.X[i,:]*oS.X[j,:].T-oS.labelMat[j]*\(oS.alphas[j]-alphaJold)*oS.X[j,:]*oS.X[j,:].Tif(0<oS.alphas[i])and(oS.C>oS.alphas[i]):oS.b=b1elif(0<oS.alphas[j])and(oS.C>oS.alphas[j]):oS.b=b2else:oS.b=(b1+b2)/2.0return 1else:return 0

该部分代码与smoSimple函数几乎一样,但该部分代码使用了自己的数据结构,该结构在参数oS中传递,另外该部分代码使用了selectJ函数来选择第二个alpha值,最后在alpha值改变时更新Ecache。

完整版Platt SMO算法的外循环代码

def smoP(dataMatIn,classLabels,C,toler,maxIter,kTrup=('lin',0)):start=time.time()oS=optStruct(mat(dataMatIn),mat(classLabels).transpose(),C,toler)#构建数据结构容纳数据iter=0entireSet=True;alphaPairsChanged=0while(iter<maxIter)and((alphaPairsChanged>0)or(entireSet)):alphaPairsChanged=0if entireSet:#遍历所有的值for i in range(oS.m):alphaPairsChanged+=innerL(i,oS)print("fullSet,iter:%d i:%d,pairs changed %d"%(iter,i,alphaPairsChanged))iter+=1else:#遍历非边界值nonBoundIs=nonzero((oS.alphas.A>0) * (oS.alphas.A<C))[0]for i in nonBoundIs:alphaPairsChanged+=innerL(i,oS)print("non-bound,iter:%d i:%d,pairs changed %d"%(iter,i,alphaPairsChanged))iter+=1if entireSet:entireSet=Falseelif(alphaPairsChanged==0):entireSet=Trueprint("iteration number:%d"%iter)end=time.time()rtime=end-startprint("the running time is:%f"%(end-start))return oS.b,oS.alphas,rtime

该算法首先构建一个数据结构容纳所有数据,再对控制函数退出的一些变量进行初始化,代码主体为while循环,与smoSimple类似,但该算法的循环退出条件更多,当迭代次数超过指定最大值,或遍历整个集合都未对任意alpha值对进行修改时,就退出循环。while循环内部与smoSimple也不同,一开始for循环遍历数据集上任意可能的alpha,我们调用innerL函数选择第二个alpha,并在可能时对其进行优化处理,若任意一对alpha值发生改变,那么返回1,第二个for循环遍历所有非边界alpha值,即不在边界0或C上的值。

dataArr,labelArr=loadDataSet('D:/machinelearning/machinelearninginaction/Ch06/testSet.txt')# print(labelArr)b,alphas,rtime=smoP(dataArr,labelArr,0.6,0.001,40)

运行结果:

由运行结果可以看出完整版的Platt SMO算法相比简化版SMO算法的运行时间快得多,运行10次的平均时间为0.5s左右,而简化版SMO算法则需要4s左右。

w的计算:

def calcWs(alphas,dataArr,classLabels):X=mat(dataArr)labelMat=mat(classLabels).transpose()m,n=shape(X)w=zeros((n,1))for i in range(m):w+=multiply(alphas[i]*labelMat[i],X[i,:].T)return w

dataArr,labelArr=loadDataSet('D:/machinelearning/machinelearninginaction/Ch06/testSet.txt')b, alphas, rtime = smoP(dataArr, labelArr, 0.6, 0.001, 100)ws=calcWs(alphas,dataArr,labelArr)print(ws)datMat=mat(dataArr)print(datMat[0]*mat(ws)+b)print(labelArr[0])datMat=mat(dataArr)print(datMat[1]*mat(ws)+b)print(labelArr[1])datMat=mat(dataArr)print(datMat[2]*mat(ws)+b)print(labelArr[2])

运行结果:

若值大于0则属于1类,若值小于0则属于-1类,对于数据点0,1,2,我们分别通过查看类别标签来验证分类的正确性,可以发现数据分类结果正确。

在复杂数据上应用核函数

核转换函数:

def kernelTrans(X,A,kTup):m,n=shape(X)K=mat(zeros((m,1)))if kTup[0]=='lin':K=X*A.Telif kTup[0]=='rbf':for j in range(m):deltaRow=X[j,:]-AK[j]=deltaRow*deltaRow.TK=exp(K/(-1*kTup[1]**2))#元素间的除法else:raise NameError('Houston We Have a Problem--That Kernel is not recognized')return Kclass optStruct:def __init__(self,dataMatIn,classLabels,C,toler,kTup):self.X=dataMatInself.labelMat=classLabelsself.C=Cself.tol=tolerself.m=shape(dataMatIn)[0]self.alphas=mat(zeros((self.m,1)))self.b=0self.eCache=mat(zeros((self.m,2)))self.K=mat(zeros((self.m,self.m)))for i in range(self.m):self.K[:,i]=kernelTrans(self.X,self.X[i,:],kTup)

kernelTrans函数有三个输入参数:2个数据型变量,1个元组。元组kTup时核函数的信息,元组第一个参数是描述所用核函数类型的一个字符串,其他2个参数都是核函数可能需要的可选参数,该函数首先构建出一个列向量,然后检查元组以确定核函数的类型。

需要对innerL函数和calcEk函数做的修改:

def innerL(i,oS):Ei=calcEk(oS,i)if((oS.labelMat[i]*Ei<-oS.tol)and(oS.alphas[i]<oS.C))or\((oS.labelMat[i]*Ei>oS.tol)and(oS.alphas[i]>0)):j,Ej=selectJ(i,oS,Ei)#采用第二个alpha选择中的启发式方法alphaIold=oS.alphas[i].copy()alphaJold=oS.alphas[j].copy()if(oS.labelMat[i]!=oS.labelMat[j]):L=max(0,oS.alphas[j]-oS.labelMat[i])H=min(oS.C,oS.C+oS.alphas[j]-oS.alphas[i])else:L=max(0,oS.alphas[j]+oS.alphas[i]-oS.C)H=min(oS.C,oS.alphas[j]+oS.alphas[i])if L==H:print("L==H")return 0# eta=2.0*oS.X[i,:]*oS.X[j,:].T-oS.X[i,:]*oS.X[i,:].T-\#oS.X[j,:]*oS.X[j,:].Teta = 2.0 * oS.K[i, j] - oS.K[i, i] - oS.K[j, j] # changed for kernelif eta>=0:print("eta>=0")return 0oS.alphas[j]-=oS.labelMat[j]*(Ei-Ej)/etaoS.alphas[j]=clipAlpha(oS.alphas[j],H,L)updateEk(oS,j)#更新误差缓存if(abs(oS.alphas[j]-alphaJold)<0.00001):print("j not moving enough")return 0oS.alphas[i]+=oS.labelMat[j]*oS.labelMat[i]*\(alphaJold-oS.alphas[j])updateEk(oS,i)# b1=oS.b-Ei-oS.labelMat[i]*(oS.alphas[i]-alphaIold)*\#oS.X[i,:]*oS.X[i,:].T-oS.labelMat[j]*\# (oS.alphas[j]-alphaJold)*oS.X[i,:]*oS.X[j,:].T# b2=oS.b-Ej-oS.labelMat[i]*(oS.alphas[i]-alphaIold)*\#oS.X[i,:]*oS.X[j,:].T-oS.labelMat[j]*\# (oS.alphas[j]-alphaJold)*oS.X[j,:]*oS.X[j,:].Tb1 = oS.b - Ei - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * oS.K[i, i] - oS.labelMat[j] * (oS.alphas[j] - alphaJold) * oS.K[i, j]b2 = oS.b - Ej - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * oS.K[i, j] - oS.labelMat[j] * (oS.alphas[j] - alphaJold) * oS.K[j, j]if(0<oS.alphas[i])and(oS.C>oS.alphas[i]):oS.b=b1elif(0<oS.alphas[j])and(oS.C>oS.alphas[j]):oS.b=b2else:oS.b=(b1+b2)/2.0return 1else:return 0def calcEk(oS, k):fXk = float(multiply(oS.alphas,oS.labelMat).T*oS.K[:,k] + oS.b)Ek = fXk - float(oS.labelMat[k])return Ek

利用核函数进行分类的径向基测试函数:

def testRbf(k1=1.3):dataArr,labelArr=loadDataSet('D:/machinelearning/machinelearninginaction/Ch06/testSetRBF.txt')b,alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, ('rbf', k1)) #C=200 importantdatMat=mat(dataArr)labelMat=mat(labelArr).transpose()svInd=nonzero(alphas.A>0)[0]sVs=datMat[svInd]#构建支持向量矩阵labelSV=labelMat[svInd]print("there are %d support vectors"%shape(sVs)[0])m,n=shape(datMat)errorCount=0for i in range(m):kernelEval=kernelTrans(sVs,datMat[i,:],('rbf',k1))predict=kernelEval.T*multiply(labelSV,alphas[svInd])+bif sign(predict)!=sign(labelArr[i]):errorCount+=1print("the training error rate is:%f"%(float(errorCount)/m))dataArr,labelArr=loadDataSet('D:/machinelearning/machinelearninginaction/Ch06/testSetRBF2.txt')errorCount=0datMat=mat(dataArr)labelMat=mat(labelArr).transpose()m,n=shape(datMat)for i in range(m):kernelEval=kernelTrans(sVs,datMat[i,:],('rbf',k1))predict=kernelEval.T*multiply(labelSV,alphas[svInd])+bif sign(predict)!=sign(labelArr[i]):errorCount+=1print("the test error rate is:%f"%(float(errorCount)/m))

testRbf()

运行结果:

如图所示:当k1参数为1.3时,支持向量个数为5,训练错误率为0.46,测试错误率为0.43,当我们改变k1参数为0.3或2.3时,支持向量个数发生改变,同时训练错误率及测试错误率也发生了改变。支持向量数目存在一个最优值,SVM优点在于能对数据进行高效分类,若支持向量太少,可能会得到一个很差的决策边界,若支持向量太多,相当于每次都利用整个数据集进行分类,这种分类方法称为k近邻。

基于SVM的数字识别

def img2vector(filename):returnVect = zeros((1,1024))fr = open(filename)for i in range(32):lineStr = fr.readline()for j in range(32):returnVect[0,32*i+j] = int(lineStr[j])return returnVectdef loadImages(dirName):from os import listdirhwLabels=[]trainingFileList=listdir(dirName)m=len(trainingFileList)trainingMat=zeros((m,1024))for i in range(m):fileNameStr=trainingFileList[i]fileStr=fileNameStr.split('.')[0]classNumStr=int(fileStr.split('_')[0])if classNumStr==9:hwLabels.append(-1)else:hwLabels.append(1)trainingMat[i,:]=img2vector('%s/%s'%(dirName,fileNameStr))return trainingMat,hwLabelsdef testDigits(kTup=('rbf',10)):dataArr,labelArr=loadImages('D:/machinelearning/machinelearninginaction/Ch06/digits/trainingDigits')b,alphas=smoP(dataArr,labelArr,200,0.0001,10000,kTup)datMat=mat(dataArr)labelMat=mat(labelArr).transpose()svInd=nonzero(alphas.A>0)[0]sVs=datMat[svInd]labelSV=labelMat[svInd]print("there are %d support vectors"%shape(sVs))[0]m,n=shape(datMat)errorCount=0for i in range(m):kernelEval=kernelTrans(sVs,datMat[i,:],kTup)predict=kernelEval.T*multiply(labelSV,alphas[svInd])+bif sign(predict)!=sign(labelArr[i]):errorCount+=1print("the training error rate is:%f"%(float(errorCount)/m))dataArr,labelArr=loadImages('D:/machinelearning/machinelearninginaction/Ch06/digits/testDigits')errorCount=0datMat=mat(dataArr)labelMat=mat(labelArr).transpose()m,n=shape(datMat)for i in range(m):kernelEval=kernelTrans(sVs,datMat[i,:],kTup)predict=kernelEval.T*multiply(labelSV,alphas[svInd])+bif sign(predict)!=sign(labelArr[i]):errorCount+=1print("the test error rate is:%f"%(float(errorCount)/m))

支持向量机是一个二类分类器,因此我们对手写体识别的数据集进行处理,只保留1和9的数据样本,当碰到数字9输出类别标签-1,否则输出+1.

运行结果:

结果表明:当改变参数分别为0.1,10,100时,支持向量个数及错误率也发生了变化。

实验总结

在SVM支持向量机的实验当中,首先要对实验原理足够熟悉以及掌握对数据集的处理才能方便实验进行。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。