您好,欢迎访问三七文档
当前位置:首页 > 临时分类 > 贝叶斯分类器经典讲解
贝叶斯算法贝叶斯算法贝叶斯,英国数学家。1702年出生于伦敦,做过神甫。1742年成为英国皇家学会会员。1763年4月7日逝世。贝叶斯在数学方面主要研究概率论。他首先将归纳推理法用于概率论基础理论,并创立了贝叶斯统计理论,对于统计决策函数、统计推断、统计的估算等做出了贡献。一个医疗诊断问题有两个可选的假设:病人有癌症、病人无癌症可用数据来自化验结果:正+和负-有先验知识:在所有人口中,患病率是0.008对确实有病的患者的化验准确率为98%,对确实无病的患者的化验准确率为97%总结如下P(cancer)=0.008,P(cancer)=0.992P(+|cancer)=0.98,P(-|cancer)=0.02P(+|cancer)=0.03,P(-|cancer)=0.97问题:假定有一个新病人,化验结果为正,是否应将病人断定为有癌症?求后验概率P(cancer|+)和P(cancer|+)贝叶斯定理解决上面的问题:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)。癌症诊断正确诊断正确癌症贝叶斯定理这里先解释什么是条件概率)(BAP在事情B发生的条件下A发生的条件概率,其求解公式为)()(BPABPBAP贝叶斯定理贝叶斯定理的意义在于,我们在生活中经常遇到这种情况:我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出,但我们更关心P(B|A),贝叶斯定理就为我们打通从P(A|B)获得P(B|A)的道路。贝叶斯定理)()()()(APBPBAPABP下面不加证明给出贝叶斯定理公式机器语言中的定义)(AP表示在没有训练数据前假设A拥有的初始概率。P(A)被称为A的先验概率.)(ABPP(A|B)表示假设B成立时A的概率机器学习中我们关心的是P(B|A),即给定A时B的成立的概率,称为B的后验概率,)()()()(APBPBAPABP贝叶斯定理的解释P(B|A)随着P(B)和P(A|B)的增长而增长,随着P(A)的增长而减少,即如果A独立于B时被观察到的可能性越大,那么B对A的支持度越小.评分标准)()|(maxarg)()()|(maxarg)|(maxargBPBAPAPBPBAPABPBHBHBHBMAPH:假设候选集表示使P(B|A)最大的B值P(A)??_P(A|B)=)|(1BAPNi朴素贝叶斯分类器1、条件独立性给定类标号y,朴素贝叶斯分类器在估计类条件概率时假设属性之间条件独立。条件独立假设可以形式化的表达如下:UniyYxPyYXP1)|()|(其中每个训练样本可用一个属性向量X=(x1,x2,x3,„,xn)表示,各个属性之间条件独立。朴素贝叶斯分类器比如,对于一篇文章“Goodgoodstudy,Daydayup.”用一个文本特征向量来表示:x=(Good,good,study,Day,day,up)。一般各个词语之间肯定不是相互独立的,有一定的上下文联系。但在朴素贝叶斯文本分类时,我们假设个单词之间没有联系,可以用一个文本特征向量来表示这篇文章,这就是“朴素”的来历。朴素贝叶斯如何工作有了条件独立假设,就不必计算X和Y的每一种组合的类条件概率,只需对给定的Y,计算每个Xi的条件概率。后一种方法更实用,因为它不需要很大的训练集就能获得较好的概率估计。估计分类属性的条件概率P(Xi|Y=y)怎么计算呢?它一般根据类别y下包含属性Xi的实例的比例来估计。以文本分类为例,Xi表示一个单词,P(Xi|Y=y)=包含该类别下包含单词的xi的文章总数/该类别下的文章总数。贝叶斯分类器举例假设给定了如下训练样本数据,我们学习的目标是根据给定的天气状况判断你对PlayTennis这个请求的回答是Yes还是No。DayOutlookTemperatureHumidityWindPlayTennisD1SunnyHotHighWeakNoD2SunnyHotHighStrongNoD3OvercastHotHighWeakYesD4RainMildHighWeakYesD5RainCoolNormalWeakYesD6RainCoolNormalStrongNoD7OvercastCoolNormalStrongYesD8SunnyMildHighWeakNoD9SunnyCoolNormalWeakYesD10RainMildNormalWeakYesD11SunnyMildNormalStrongYesD12OvercastMildHighStrongYesD13OvercastHotNormalWeakYesD14RainMildHighStrongNo14/9yesyp)(145/)noy(pwindhumdityetemperaturoutlookx][noyes,y)(xf贝叶斯分类器打网球我们需要利用训练数据计算后验概率P(Yes|x)和P(No|x),如果P(Yes|x)P(No|x),那么新实例分类为Yes,否则为No。贝叶斯分类器举例我们将使用此表的数据,并结合朴素贝叶斯分类器来分类下面的新实例:strongnormalcoolovercastwindhumdityetemperaturoutlookx贝叶斯分类器举例DayOutlookTemperatureHumidityWindPlayTennisD1SunnyHotHighWeakNoD2SunnyHotHighStrongNoD8SunnyMildHighWeakNoD14RainMildHighStrongNoD6RainCoolNormalStrongNoP(Outlook=Sunny|No)=3/5P(Temperature=Cool|No)=1/5P(Humidity=High|No)=4/5P(Wind=Strong|No)=3/5贝叶斯分类器举例P(Outlook=Sunny|No)=3/5P(Temperature=Cool|No)=1/5P(Humidity=High|No)=4/5P(Wind=Strong|No)=3/5145/)noY(p6253653545153***)NOY|X(P8751814562536*)NOY(P*)NOY|X(P贝叶斯分类器举例DayOutlookTemperatureHumidityWindPlayTennisD3OvercastHotHighWeakYesD4RainMildHighWeakYesD5RainCoolNormalWeakYesD7OvercastCoolNormalStrongYesD9SunnyCoolNormalWeakYesD10RainMildNormalWeakYesD11SunnyMildNormalStrongYesD12OvercastMildHighStrongYesD13OvercastHotNormalWeakYesP(Outlook=Sunny|Yes)=2/9P(Temprature=Cool|Yes)=3/9P(Humidity=High|Yes)=3/9P(Wind=Strong|Yes)=3/9283293939392***)YESY|X(PP(Outlook=Sunny|Yes)=2/9P(Temprature=Cool|Yes)=3/9P(Humidity=High|Yes)=3/9P(Wind=Strong|Yes)=3/9贝叶斯分类器举例14/9yesPP)(189114993939392****)YESP(P)YESY|X(P贝叶斯分类器举例由于87518)NOY(P)NOY|X(P1891)YESP(P)YESY|X(P大于所以该样本分类为No朴素贝叶斯分类器的工作流程条件概率的m估计假设有来了一个新样本x1=(Outlook=Cloudy,Temprature=Cool,Humidity=High,Wind=Strong)要求对其分类。我们来开始计算P(Outlook=Cloudy|Yes)=0/9=0P(Outlook=Cloudy|No)=0/5=0计算到这里,大家就会意识到,这里出现了一个新的属性值,在训练样本中所没有的。如果有一个属性的类条件概率为0,则整个类的后验概率就等于0,我们可以直接得到后验概率P(Yes|x1)=P(No|x1)=0,这时二者相等,无法分类。条件概率的m估计当训练样本不能覆盖那么多的属性值时,都会出现上述的窘境。简单的使用样本比例来估计类条件概率的方法太脆弱了,尤其是当训练样本少而属性数目又很大时。解决方法是使用m估计(m-estimate)方法来估计条件概率:mnmpn)Y|X(Pcin是Y中的样本总数,nc是Y中取值xi的样本数,m是称为等价样本大小的参数,而p是用户指定的参数。如果没有训练集(即n=0),则P(xi|yj)=p,因此p可以看作是在Y的样本中观察属性值xi的先验概率。等价样本大小决定先验概率和观测概率nc/n之间的平衡多项式模型基本原理在多项式模型中,设某文档d=(t1,t2,…,tk),tk是该文档中出现过的单词,允许重复,则:V是训练样本的单词表(即抽取单词,单词出现多次,只算一个),|V|则表示训练样本包含多少种单词。在这里,m=|V|,p=1/|V|。P(tk|c)可以看作是单词tk在证明d属于类c上提供了多大的证据,而P(c)则可以认为是类别c在整体上占多大比例(有多大可能性)。整个训练本的单词总数下单词总数类)(先验概率ccp|v|cttPkk下单词总数类数在各个文档中出现的次下单词类条件概率1c)c|(多项式模型举例iddoc类别Inc=China?1ChineseBeijingChineseyes2ChineseChineseShanghaiyes3ChineseMacaoyes4TokyoJapanChineseno给定一个新样本ChineseChineseChineseTokyoJapan,对其进行分类。该文本用属性向量表示为d=(Chinese,Chinese,Chinese,Tokyo,Japan)类别集合为Y={yes,no}。多项式模型举例iddoc类别Inc=China?1ChineseBeijingChineseyes2ChineseChineseShanghaiyes3ChineseMacaoyes4TokyoJapanChineseno118)YES(P113)NO(P字典里包括六个单词iddoc类别Inc=China?1ChineseBeijingChineseyes2ChineseChineseShanghaiyes3ChineseMacaoyes4TokyoJapanChinesenoP(Chinese|yes)=(5+1)/(8+6)=6/14=3/7P(Japan|yes)=P(Tokyo|yes)=(0+1)/(8+6)=1/14P(Chinese|no)=(1+1)/(3+6)=2/9P(Japan|no)=P(Tokyo|no)=(1+1)/(3+6)=2/9p(yes|d)=(3/7)3×1/14×1/14×8/11=108/184877≈0.00058417P(no|d)=(2/9)3×2/9×2/9×3/11=32/216513≈0.00014780因此,这个文档属于类别china。伯努利模型1、基本原理整个训练本的文件总数下文件数类)(先验概率ccp2cttPkk下文件数类的文件数下单词类条件概率1c)c|(在这里,m=2,p=1/2。p(|c=YES)=p(|c=yes)(1-p(|c=yes)ctcttit伯努利模型举例iddoc类别Inc=China?1ChineseBeijingChineseyes2ChineseChineseShanghaiyes3Ch
本文标题:贝叶斯分类器经典讲解
链接地址:https://www.777doc.com/doc-4245509 .html