您好,欢迎访问三七文档
当前位置:首页 > IT计算机/网络 > AI人工智能 > ch6机器学习与知识发现人工智能课程安徽理工大学计
第6章机器学习与知识发现6.1机器学习概述6.2符号学习6.3神经网络学习6.4知识发现与数据挖掘6.1机器学习概述6.1.1机器学习的概念心理学中对学习的解释是:学习是指(人或动物)依靠经验的获得而使行为持久变化的过程。Simon认为:如果一个系统能够通过执行某种过程而改进它的性能,这就是学习。Minsky认为:学习是在人们头脑中(心理内部)进行有用的变化。TomM.Mitchell在《机器学习》一书中对学习的定义是:对于某类任务T和性能度P,如果一个计算机程序在T上以P衡量的性能随着经验E而自我完善,那么,我们称这个计算机程序从经验E中学习。当前关于机器学习的许多文献中也大都认为:学习是系统积累经验以改善其自身性能的过程。总之:①学习与经验有关;②学习可以改善系统性能;③学习是一个有反馈的信息处理与控制过程。因为经验是在系统与环境的交互过程中产生的,而经验中应该包含系统输入、响应和效果等信息。因此经验的积累、性能的完善正是通过重复这一过程而实现的。6.1.2机器学习的原理图9-1机器学习原理1图9-2机器学习原理2图9-3机器学习原理3图9-4机器学习原理4图9-5机器学习原理56.1.3机器学习的分类1.基于学习策略的分类(1)模拟人脑的机器学习●符号学习:模拟人脑的宏观心理级学习过程,以认知心理学原理为基础,以符号数据为输入,以符号运算为方法,用推理过程在图或状态空间中搜索,学习的目标为概念或规则等。符号学习的典型方法有:记忆学习、示例学习、演绎学习、类比学习、解释学习等。●神经网络学习(或连接学习):模拟人脑的微观生理级学习过程,以脑和神经科学原理为基础,以人工神经网络为函数结构模型,以数值数据为输入,以数值运算为方法,用迭代过程在系数向量空间中搜索,学习的目标为函数。典型的连接学习有权值修正学习、拓扑结构学习。(2)直接采用数学方法的机器学习●主要有统计机器学习。2.基于学习方法的分类(1)归纳学习●符号归纳学习:典型的符号归纳学习有示例学习,决策树学习。●函数归纳学习(发现学习):典型的函数归纳学习有神经网络学习、示例学习,发现学习,统计学习。(2)演绎学习(3)类比学习:典型的类比学习有案例(范例)学习。(4)分析学习:典型的分析学习有案例(范例)学习、解释学习。3.基于学习方式的分类(1)有导师学习(监督学习):输入数据中有导师信号,以概率函数、代数函数或人工神经网络为基函数模型,采用迭代计算方法,学习结果为函数。(2)无导师学习(非监督学习):输入数据中无导师信号,采用聚类方法,学习结果为类别。典型的无导师学习有发现学习、聚类、竞争学习等。(3)强化学习(增强学习):以环境反馈(奖/惩信号)作为输入,以统计和动态规划技术为指导的一种学习方法。4.基于数据形式的分类(1)结构化学习:以结构化数据为输入,以数值计算或符号推演为方法。典型的结构化学习有神经网络学习、统计学习、决策树学习、规则学习。(2)非结构化学习:以非结构化数据为输入,典型的非结构化学习有类比学习、案例学习、解释学习、文本挖掘、图像挖掘、Web挖掘等。5.基于学习目标的分类(1)概念学习:即学习的目标和结果为概念,或者说是为了获得概念的一种学习。典型的概念学习有示例学习。(2)规则学习:即学习的目标和结果为规则,或者说是为了获得规则的一种学习。典型的规则学习有决策树学习。(3)函数学习:即学习的目标和结果为规则,或者说是为了获得函数的一种学习。典型的函数学习有神经网络学习。(4)类别学习:即学习的目标和结果为对象类,或者说是为了获得类别的一种学习。典型的类别学习有聚类分析。(5)贝叶斯网络学习:即学习的目标和结果是贝叶斯网络,或者说是为了获得贝叶斯网络的一种学习。其又可分为结构学习和参数学习。6.2符号学习6.2.1记忆学习记忆学习方法简单,但学习系统需要几种能力:(1)能实现有组织的存储信息。(2)能进行信息综合。(3)能控制检索方向。当存储对象愈多时,其中可能有多个对象与给定的6.2.2示例学习示例学习也称实例学习,它是一种归纳学习。示例学习是从若干实例(包括正例和反例)中归纳出一般概念或规则的学习方法。图9-6第一个拱桥的语义网络图9-7第二个拱桥的语义网络图9-8学习程序归纳出的语义网络图9-9拱桥概念的语义网络例9.1假设示例空间中有桥牌中同花概念的两个示例:示例1:花色(c1,梅花)∧花色(c2,梅花)∧花色(c3,梅花)∧花色(c4,梅花)→同花(c1,c2,c3,c4)示例2:花色(c1,红桃)∧花色(c2,红桃)∧花色(c3,红桃)∧花色(c4,红桃)→同花(c1,c2,c3,c4)关于同花的一般性规则:花色(c1,x)∧花色(c2,x)∧花色(c3,x)∧花色(c4,x)→同花(c1,c2,c3,c4)对于这个问题可采用通常的曲线拟合技术,归纳出规则:(x,y,2x+3y+1)即z=2x+3y+1例9.2假设示例空间存放有如下的三个示例:示例1:(0,2,7)示例2:(6,-1,10)示例3:(-1,-5,-10)这是三个3维向量,表示空间中的三个点。现要求求出过这三点的曲线。6.2.3决策树学习1.什么是决策树决策树(decisiontree)也称判定树,它是由对象的若干属性、属性值和有关决策组成的一棵树。其中的节点为属性(一般为语言变量),分枝为相应的属性值(一般为语言值)。从同一节点出发的各个分枝之间是逻辑“或”关系;根节点为对象的某一个属性;从根节点到每一个叶子节点的所有节点和边,按顺序串连成一条分枝路径,位于同一条分枝路径上的各个“属性-值”对之间是逻辑“与”关系,叶子节点为这个与关系的对应结果,即决策。决策树示意图例9.3下图所示是机场指挥台关于飞机起飞的简单决策树。例9.4下图是一个描述“兔子”概念的决策树。2.怎样学习决策树决策树学习的基本方法和步骤:首先,选取一个属性,按这个属性的不同取值对实例集进行分类;并以该属性作为根节点,以这个属性的诸取值作为根节点的分枝,进行画树。然后,考察所得的每一个子类,看其中的实例的结论是否完全相同。如果完全相同,则以这个相同的结论作为相应分枝路径末端的叶子节点;否则,选取一个非父节点的属性,按这个属性的不同取值对该子集进行分类,并以该属性作为节点,以这个属性的诸取值作为节点的分枝,继续进行画树。如此继续,直到所分的子集全都满足:实例结论完全相同,而得到所有的叶子节点为止。●决策树学习举例设表9.1所示的是某保险公司的汽车驾驶保险类别划分的部分事例。我们将这张表作为一个实例集,用决策树学习来归纳该保险公司的汽车驾驶保险类别划分规则。表9.1汽车驾驶保险类别划分实例集将实例集简记为S={(1,C),(2,C),(3,C),(4,B),(5,A),(6,A),(7,C),(8,B),(9,A),(10,A),(11,B),(12,B)}其中每个元组表示一个实例,前面的数字为实例序号,后面的字母为实例的决策项保险类别。用“小”、“中”、“大”分别代表“<21”、“≥21且≤25”、“>25”这三个年龄段。对于S,我们按属性“性别”的不同取值将其分类。由表9.1可见,这时S应被分类为两个子集:S1={(3,C),(4,B),(7,C),(8,B),(11,B),(12,B)}S2={(1,C),(2,C),(5,A),(6,A),(9,A),(10,A)}于是,我们得到以性别作为根节点的部分决策树(见下图)。决策树生成过程决策树生成过程决策树生成过程最后生成的决策树由决策树所得的规则集:①女性且年龄在25岁以上,则给予A类保险;②女性且年龄在21岁到25岁之间,则给予A类保险;③女性且年龄在21岁以下,则给予C类保险;④男性且年龄在25岁以上,则给予B类保险;⑤男性且年龄在21岁到25岁之间且未婚,则给予C类保险;⑥男性且年龄在21岁到25岁之间且已婚,则给予B类保险;⑦男性且年龄在21岁以下且未婚,则给予C类保险;⑧男性且年龄在21岁以下且已婚,则给予B类保险。3.ID3算法ID3算法是一个经典的决策树学习算法,由Quinlan于1979年提出。ID3算法的基本思想是,以信息熵为度量,用于决策树节点的属性选择,每次优先选取信息量最多的属性,亦即能使熵值变成最小的属性,以构造一棵熵值下降最快的决策树,到叶子节点处的熵值为0。此时,每个叶子节点对应的实例集中的实例属于同一类。(1)信息熵和条件熵设S是一个实例集(S也可以是子实例集),A为S中实例的一个属性。H(S)和H(S|A)分别称为实例集S的信息熵和条件熵,其计算公式如下:其中,μi(i=1,2,…,n)为S中各实例所有可能的结论;lb即log2。其中,ak(k=1,2,…,m)为属性A的取值,Sak为按属性A对实例集S进行分类时所得诸子类中与属性值ak对应的那个子类。niiiPPSH1)(lb)()(mkaakkSHSSASH1)()|((2)基于条件熵的属性选择按性别划分,实例集S被分为两个子类:S男={(3,C),(4,B),(7,C),(8,B),(11,B),(12,B)}S女={(1,C),(2,C),(5,A),(6,A),(9,A),(10,A)}从而,对子集S男而言,62)(,64)(,060)(CPBPAP对子集S女而言,62)(,060)(,64)(CPBPAP于是,由公式(9-1)有:9183.0)5283.039.0(5850.16258850.064062lb6264lb6460lb60))(lb)()(lb)(()(lb)(()(CPCPBPBPAPAPSH男9183.0)39.05283.0(5850.16205850.06462lb6260lb6464lb64))(lb)()(lb)(()(lb)(()(CPCPBPBPAPAPSH女又126||||SSSS女男将以上3式代入公式(9-2)得:9183.09183.01269183.0126)(126)(126)|(中男性别SHSHSH用同样的方法可求得:5062.1)(126)(126)|(10351)(124)(124)(124)|(已未小中大婚状性别SHSHSH。SHSHSHSH可见,条件熵H(S|性别)为最小,所以,应取“性别”这一属性对实例集进行分类,即以“性别”作为决策树的根节点。6.3神经网络学习6.3.1生物神经元生物神经元的基本结构6.3.2人工神经元人工神经元结构模型人工神经元的输入、输出关系可描述为:1()niiiyfAAx神经元特性函数1.阈值型2.S型3.分段线性型1()1AyfAe()yfA1000AA0001kkAyKAAAAA神经元特性函数6.3.3神经网络1.分层前向网络2.3.互连前向网络4.广泛互连网络神经网络结构模型神经网络至少可以实现如下功能:——数学上的映射逼近——数据聚类、压缩通过自组织方式对所选输入模式聚类——优化计算和组合优化问题求解——模式分类——概率密度函数的估计6.3.4神经网络学习1.学习规则Hebb规则:最基本的误差修正规则,即δ学习规则:步1选择一组初始权值Wij(0)步2计算某一输入模式对应的实际输出与期望输出的误差。步3用下式更新权值(阈值可视为输入恒为-1的一个权值)Wij(t+1)=Wij(t)+η[dj-yj(t)]xi(t)步4返回步2,直到对所有训练模式网络输出均能满足要求。)]()([)()1(tXtXtWtWjiijij2.学习方法分类表9.2神经网络学习方法的常见分类9.3.5BP网络及其学习举例BP(Back-Propagation)网络的特点:(1)BP(2)神经元的特
本文标题:ch6机器学习与知识发现人工智能课程安徽理工大学计
链接地址:https://www.777doc.com/doc-25779 .html