700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 《统计学习方法》学习笔记(三)之 朴素贝叶斯法

《统计学习方法》学习笔记(三)之 朴素贝叶斯法

时间:2019-01-04 22:17:12

相关推荐

《统计学习方法》学习笔记(三)之 朴素贝叶斯法

朴素贝叶斯法

总述

朴素贝叶斯法是基于贝叶斯定理与特征条件独立性假设的分类方法。对于给定的训练数据集,首先基于特征独立性假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入 x x x,利用贝叶斯定理求出后验概率最大的输出 y y y。朴素贝叶斯法实际上学到了生成数据的机制,属于生成模型

1 朴素贝叶斯法的学习与分类

1.1 基本方法

设输入空间 x x x包含于 R n R^n Rn是 n n n维向量的集合,输出空间为类标记集合 y = y= y={c 1 , c 2 , . . . , c k c_1, c_2, ..., c_k c1​,c2​,...,ck​}。输入为特征向量 x x x,输出为类标记 y y y。 X X X是定义在输入空间 x x x上的随机变量, Y Y Y是定义在输出空间 y y y上的随机变量。 p ( X , Y ) p(X,Y) p(X,Y)是 X X X和 Y Y Y的联合概率分布。训练数据集

T = T= T={( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) (x_1,y_1), (x_2,y_2),..., (x_N,y_N) (x1​,y1​),(x2​,y2​),...,(xN​,yN​)}由 p ( X , Y ) p(X,Y) p(X,Y)独立同分布产生。

朴素贝叶斯法通过训练数据集 T T T学习联合概率分布 p ( X , Y ) p(X,Y) p(X,Y),具体的,学习以下先验分布即条件概率分布:

先验分布: p ( Y = c k ) , k = 1 , 2 , . . . , K p(Y=c_k), k=1, 2, ..., K p(Y=ck​),k=1,2,...,K条件概率分布: p ( X = x ∣ Y = c k ) = p ( X 1 = x 1 , X 2 = x 2 , . . . , X n = x n ∣ Y = c k ) , k = 1 , 2 , . . . , K . p(X=x|Y=c_k)=p(X^1=x^1, X^2=x^2, ..., X^n=x^n|Y=c^k), k=1, 2, ..., K. p(X=x∣Y=ck​)=p(X1=x1,X2=x2,...,Xn=xn∣Y=ck),k=1,2,...,K.

由于条件概率分布 p ( X = x ∣ Y = c k ) p(X=x|Y=c^k) p(X=x∣Y=ck)具有指数级数量的参数(即:假设 x j x^j xj可取值 S j S_j Sj​个, j = 1 , 2 , . . . , n j=1, 2, ..., n j=1,2,...,n; Y Y Y可取值 k k k个,则参数个数为 k k k× S 1 × S 2 × , . . . , × S n S_1×S_2×,...,×S_n S1​×S2​×,...,×Sn​),因此,朴素贝叶斯法对条件概率分布做了条件独立性的假设,其为:

以上的条件独立性假设等于是说用于分类的特征在类确定的条件下都是条件独立的。

朴素贝叶斯法分类时,对于给定的输入 x x x,通过学到的模型计算后验概率分布p ( Y = c k ∣ X = x ) p(Y=c_k|X=x) p(Y=ck​∣X=x),将后验概率最大的类作为 x x x的类输出。后验概率计算根据贝叶斯定理进行:

朴素贝叶斯分类器可表示为:

可等价于:

1.2 后验概率最大化的含义

朴素贝叶斯法将实例分到后验概率最大的类中,这等价于期望风险最小化。假设选择0-1损失函数:

式中 f ( x ) f(x) f(x)是分类决策函数。这时,期望风险函数为

R e x p ( f ) = E ( L ( Y , f ( x ) ) ) R_exp(f)=E(L(Y,f(x))) Re​xp(f)=E(L(Y,f(x)))期望是对联合分布 p ( X , Y ) p(X,Y) p(X,Y)取的,由此取条件期望

为了使期望风险最小化,只需要对 X = x X=x X=x逐个极小化,由此得到:

这样,根据期望风险最小化准则,就得到了后验概率最大化准则:

2 朴素贝叶斯法的参数估计

2.1 极大似然估计

朴素贝叶斯法的学习意味着估计 p ( Y = c k ) p(Y=c_k) p(Y=ck​)和 p ( X j = x j ∣ Y = c k ) p(X^j=x^j|Y=c_k) p(Xj=xj∣Y=ck​)。可以应用极大似然估计法估计相应的概率:

先验概率的极大似然估计

条件概率的极大似然估计

式中, x i j x_i^j xij​是第 i i i个样本的第 j j j个特征; a i l a_il ai​l是第 j j j个特征可能取的第 l l l个值; I I I为指示函数。

2.2 学习与分类算法

算法:朴素贝叶斯算法

输入:训练数据集 T = T= T={( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) (x_1,y_1), (x_2,y_2),..., (x_N,y_N) (x1​,y1​),(x2​,y2​),...,(xN​,yN​)},其中 x i x_i xi​= ( x i 1 , x i 2 , . . . , x i n ) T (x_i^1, x_i^2, ..., x_i^n)^T (xi1​,xi2​,...,xin​)T, x i j x_i^j xij​是第 i i i个样本的第 j j j个特征, x i j x_i^j xij​∈{a j 1 , a j 2 , . . . , a j S j a_j1, a_j2, ..., a_jS_j aj​1,aj​2,...,aj​Sj​}, a j l a_jl aj​l为第 j j j个特征可能取的第 l l l个值, j = 1 , 2 , . . . , n , l = 1 , 2 , . . . , S j , y i ∈ j=1, 2, ...,n, l=1, 2, ..., S_j, y_i∈ j=1,2,...,n,l=1,2,...,Sj​,yi​∈{c 1 , c 2 , . . . , c k c_1, c_2, ..., c_k c1​,c2​,...,ck​};实例 x x x;

输出:实例 x x x的分类

计算先验概率及条件概率:

对于给定的实例 x = ( x 1 , x 2 , . . . , x n ) T x=(x_1, x_2, ..., x_n)^T x=(x1​,x2​,...,xn​)T,计算

确定实例 x x x的类

2.3 贝叶斯估计

极大似然估计可能会出现所要估计的概率值为0的情况,这时会影响到后验概率的计算结果,使分数产生偏差。解决这一问题的方法是采用贝叶斯估计,具体地,条件概率的贝叶斯估计是

等价于在随机变量各个取值的频数上赋予一个整数 λ > 0 \lambda>0 λ>0。当 λ = 0 \lambda=0 λ=0时就是极大似然估计;常取 λ = 1 \lambda=1 λ=1,这时称为拉普拉斯估计。

同样的,先验概率的贝叶斯估计是

总结

朴素贝叶斯法是典型的生成学习方法,生成方法由训练数据学习联合改了分布 p ( X , Y ) p(X,Y) p(X,Y),然后计算后验概率分布 p ( Y ∣ X ) p(Y|X) p(Y∣X)。具体来说,利用训练数据学习 p ( X ∣ Y ) p(X|Y) p(X∣Y)和 p ( Y ) p(Y) p(Y)的估计,得到联合概率分布

p ( X , Y ) = p ( Y ) p ( X ∣ Y ) p(X,Y)=p(Y)p(X|Y) p(X,Y)=p(Y)p(X∣Y)概率估计方法可以是极大似然估计或贝叶斯估计。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。