700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 朴素贝叶斯算法的python实现

朴素贝叶斯算法的python实现

时间:2022-11-22 03:04:40

相关推荐

朴素贝叶斯算法的python实现

后端开发|Python教程

朴素贝叶斯算法的python实现

后端开发-Python教程

算法优缺点

圣诞树小程序源码,vscode下载是免费的吗,ubuntu-14.04,tomcat 部署源代码,jk网络爬虫,zyupload php,漳州抖音seo优化搜索排名,asp flash网站源码lzw

优点:在数据较少的情况下依然有效,可以处理多类别问题

微信聊天记录在线生成网站源码,vscode能打断点吗,重启Ubuntu黑屏,添加tomcat8.0,网吧steam爬虫,php.ini 设置编码,seo推广软件公司分类,学院响应式自适应网站模板,wordpress 后台模板目录lzw

缺点:对输入数据的准备方式敏感

asp响应式h5网站源码,git ubuntu教程,项目设置到tomcat中,电信黄页爬虫,php apd,seo优化程序金口碑网络专业lzw

适用数据类型:标称型数据

算法思想:

朴素贝叶斯

比如我们想判断一个邮件是不是垃圾邮件,那么我们知道的是这个邮件中的词的分布,那么我们还要知道:垃圾邮件中某些词的出现是多少,就可以利用贝叶斯定理得到。

朴素贝叶斯分类器中的一个假设是:每个特征同等重要

贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。

函数

loadDataSet()

创建数据集,这里的数据集是已经拆分好的单词组成的句子,表示的是某论坛的用户评论,标签1表示这个是骂人的

createVocabList(dataSet)

找出这些句子中总共有多少单词,以确定我们词向量的大小

setOfWords2Vec(vocabList, inputSet)

将句子根据其中的单词转成向量,这里用的是伯努利模型,即只考虑这个单词是否存在

bagOfWords2VecMN(vocabList, inputSet)

这个是将句子转成向量的另一种模型,多项式模型,考虑某个词的出现次数

trainNB0(trainMatrix,trainCatergory)

计算P(i)和P(w[i]|C[1])和P(w[i]|C[0]),这里有两个技巧,一个是开始的分子分母没有全部初始化为0是为了防止其中一个的概率为0导致整体为0,另一个是后面乘用对数防止因为精度问题结果为0

classifyNB(vec2Classify, p0Vec, p1Vec, pClass1)

根据贝叶斯公式计算这个向量属于两个集合中哪个的概率高

#coding=utf-8from numpy import *def loadDataSet(): postingList=[[my, dog, has, flea, problems, help, please], [maybe, ot, ake, him, o, dog, park, stupid], [my, dalmation, is, so, cute, I, love, him], [stop, posting, stupid, worthless, garbage], [mr, licks, ate, my, steak, how, o, stop, him], [quit, uying, worthless, dog, food, stupid]] classVec = [0,1,0,1,0,1] #1 is abusive, 0 not return postingList,classVec#创建一个带有所有单词的列表def createVocabList(dataSet): vocabSet = set([]) for document in dataSet: vocabSet = vocabSet | set(document) return list(vocabSet)def setOfWords2Vec(vocabList, inputSet): retVocabList = [0] * len(vocabList) for word in inputSet: if word in vocabList: retVocabList[vocabList.index(word)] = 1 else: print word ,word , ot in dict return retVocabList#另一种模型 def bagOfWords2VecMN(vocabList, inputSet): returnVec = [0]*len(vocabList) for word in inputSet: if word in vocabList: returnVec[vocabList.index(word)] += 1 return returnVecdef trainNB0(trainMatrix,trainCatergory): numTrainDoc = len(trainMatrix) numWords = len(trainMatrix[0]) pAbusive = sum(trainCatergory)/float(numTrainDoc) #防止多个概率的成绩当中的一个为0 p0Num = ones(numWords) p1Num = ones(numWords) p0Denom = 2.0 p1Denom = 2.0 for i in range(numTrainDoc): if trainCatergory[i] == 1: p1Num +=trainMatrix[i] p1Denom += sum(trainMatrix[i]) else: p0Num +=trainMatrix[i] p0Denom += sum(trainMatrix[i]) p1Vect = log(p1Num/p1Denom)#处于精度的考虑,否则很可能到限归零 p0Vect = log(p0Num/p0Denom) return p0Vect,p1Vect,pAbusivedef classifyNB(vec2Classify, p0Vec, p1Vec, pClass1): p1 = sum(vec2Classify * p1Vec) + log(pClass1) #element-wise mult p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1) if p1 > p0: return 1 else: return 0 def testingNB(): listOPosts,listClasses = loadDataSet() myVocabList = createVocabList(listOPosts) trainMat=[] for postinDoc in listOPosts: trainMat.append(setOfWords2Vec(myVocabList, postinDoc)) p0V,p1V,pAb = trainNB0(array(trainMat),array(listClasses)) testEntry = [love, my, dalmation] thisDoc = array(setOfWords2Vec(myVocabList, testEntry)) print testEntry,classified as: ,classifyNB(thisDoc,p0V,p1V,pAb) testEntry = [stupid, garbage] thisDoc = array(setOfWords2Vec(myVocabList, testEntry)) print testEntry,classified as: ,classifyNB(thisDoc,p0V,p1V,pAb)def main(): testingNB()if __name__ == \__main__: main()

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。