您好,欢迎访问三七文档
当前位置:首页 > IT计算机/网络 > AI人工智能 > 人工智能讲稿计算智能
第四章计算智能(1)教学内容:本章讨论计算智能所涉及的领域和范围,计算智能的含义及它与传统的人工智能的区别。介绍人工神经网络的由来、特性、结构、模型和算法;神经网络的表示和推理。简要地介绍模糊数学的基本概念、运算法则、模糊逻辑推理和模糊判决等。教学重点:计算智能;人工神经网络的结构、模型和算法,以及表示和推理。教学难点:人工神经网络的结构、算法和推理;模糊数学的运算法则和模糊逻辑推理。教学方法:课堂教学为主。适当提问,加深学生对概念的理解。教学要求:通过对本章的学习,使学生掌握人工神经网络的结构、模型和算法,了解计算智能所涉及的领域和范围,了解人工神经网络的特性、表示和推理,了解模糊数学的基本概念、运算法则、模糊逻辑推理和模糊判决等。4.1概述教学内容:本节介绍计算智能所涉及的领域和范围,计算智能的含义及其与传统人工智能的区别。贝兹德克提出的“ABC”,及它与神经网络(NN)、模式识别(PR)和智能(I)之间的关系。教学重点:计算智能的含义及其与传统的人工智能的区别。教学难点:“ABC”及其与神经网络(NN)、模式识别(PR)和智能(I)之间的关系。教学方法:课堂教学。教学要求:掌握计算智能的含义,了解计算智能与传统的人工智能有何区别。了解贝兹德克提出的“ABC”及其与神经网络(NN)、模式识别(PR)和智能(I)之间的关系。信息科学与生命科学的相互交叉、相互渗透和相互促进是现代科学技术发展的一个显著特点。计算智能涉及神经网络、模糊逻辑、进化计算和人工生命等领域,它的研究和发展正是反映了当代科学技术多学科交叉与集成的重要发展趋势。把神经网络(NN)归类于人工智能(AI)可能不大合适,而归类于计算智能(CI)更能说明问题实质。进化计算、人工生命和模糊逻辑系统的某些课题,也都归类于计算智能。计算智能取决于制造者(manufacturers)提供的数值数据,不依赖于知识;另一方面,人工智能应用知识精品(knowledgetidbits)。人工神经网络应当称为计算神经网络。第一个对计算智能的定义是由贝兹德克(Bezdek)于1992年提出的。尽管计算智能与人工智能的界限并非十分明显,然而讨论它们的区别和关系是有益的。马克斯(Marks)在1993年提到计算智能与人工智能的区别,而贝兹德克则关心模式识别(PR与生物神经网络(BNN)、人工神经网络(ANN)和计算神经网络(CNN)的关系,以及模式识别与其它智能的关系。忽视ANN与CNN的差别可能导致对模式识别中神经网络模型的混淆、误解、误表示和误用。提问:计算智能与人工智能的区别和关系如何。贝兹德克对这些相关术语给予一定的符号和简要说明或定义。他给出有趣的ABC:A-Artificial,表示人工的(非生物的),即人造的B-Biological,表示物理的+化学的+(??)=生物的C-Computational,表示数学+计算机图4.1表示ABC及其与神经网络(NN)、模式识别(PR)和智能(I)之间的关系。图4.1ABC的交通关系图计算智能是一种智力方式的低层认知,它与人工智能的区别只是认知层次从中层下降至低层而已。中层系统含有知识(精品),低层系统则没有。当一个系统只涉及数值(低层)数据,含有模式识别部分,不应用人工智能意义上的知识,而且能够呈现出:(1)计算适应性;(2)计算容错性;(3)接近人的速度;(4)误差率与人相近,则该系统就是计算智能系统。当一个智能计算系统以非数值方式加上知识(精品)值,即成为人工智能系统。提问:计算智能的主要特征是什么?4.2神经计算教学内容:本节将介绍人工神经网络的由来、特性、结构、模型和算法;然后讨论神经网络的表示和推理。这些内容是神经网络的基础知识。神经计算是以神经网络为基础的计算。教学重点:人工神经网络的结构、模型和算法;神经网络的表示和推理。教学难点:人工神经网络的结构和算法及其表示和推理。教学方法:课堂教学为主,并适当提问、收集学生学习情况。教学要求:掌握人工神经网络的结构、模型和算法,了解人工神经网络的由来和特性,一般了解神经网络的表示和推理方法。4.2.1人工神经网络研究的进展1960年威德罗和霍夫率先把神经网络用于自动控制研究。60年代末期至80年代中期,神经网络控制与整个神经网络研究一样,处于低潮。80年代后期以来,随着人工神经网络研究的复苏和发展,对神经网络控制的研究也十分活跃。这方面的研究进展主要在神经网络自适应控制和模糊神经网络控制及其在机器人控制中的应用上。人工神经网络的特性:(1)并行分布处理神经网络具有高度的并行结构和并行实现能力,因而能够有较好的耐故障能力和较快的总体处理能力。(2)非线性映射神经网络具有固有的非线性特性,这源于其近似任意非线性映射(变换)能力。(3)通过训练进行学习神经网络是通过所研究系统过去的数据记录进行训练的。一个经过适当训练的神经网络具有归纳全部数据的能力。(4)适应与集成神经网络能够适应在线运行,并能同时进行定量和定性操作。神经网络的强适应和信息熔合能力使得网络过程可以同时输入大量不同的控制信号,解决输入信息间的互补和冗余问题,并实现信息集成和熔合处理。(5)硬件实现神经网络不仅能够通过软件而且可借助软件实现并行处理。近年来,一些超大规模集成电路实现硬件已经问世,而且可从市场上购到。4.2.2人工神经网络的结构神经网络的结构是由基本处理单元及其互连方法决定的。图4.2所示神经元单元由多个输入,i=1,2,...,n和一个输出y组成。中间状态由输入信号的权和表示,而输出为:图4.2神经元模型式中,为神经元单元的偏置(阈值),为连接权系数(对于激发状态,取正值,对于抑制状态,取负值),n为输入信号数目,为神经元输出,t为时间,f(_)为输出变换函数,有时叫做激励函数,往往采用0和1二值函数或S形函数,见图4.3,这三种函数都是连续和非线性的。一种二值函数可由下式表示:如图4.3(a)所示。一种常规的S形函数见图4.3(b),可由下式表示:常用双曲正切函数(见图4.3(c))来取代常规S形函数,因为S形函数的输出均为正值,而双曲正切函数的输出值可为正或负。双曲正切函数如下式所示:图4.3神经元中的某些变换(激励)函数提问:神经网络有哪几种激励函数?1、人工神经网络的基本特性和结构人工神经网络由神经元模型构成;这种由许多神经元组成的信息处理网络具有并行分布结构。每个神经元具有单一输出,并且能够与其它神经元连接;存在许多(多重)输出连接方法,每种连接方法对应一个连接权系数。严格地说,人工神经网络是一种具有下列特性的有向图:(1)对于每个节点i存在一个状态变量;(2)从节点j至节点i,存在一个连接权系统数;(3)对于每个节点i,存在一个阈值;(4)对于每个节点i,定义一个变换函数;对于最一般的情况,此函数取形式。人工神经网络的结构基本上分为两类:递归(反馈)网络和前馈网络。(1)递归网络在递归网络中,多个神经元互连以组织一个互连神经网络,如图4.4所示。有些神经元的输出被反馈至同层或前层神经元。因此,信号能够从正向和反向流通。Hopfield网络,Elmman网络和Jordan网络是递归网络有代表性的例子。递归网络又叫做反馈网络。图4.4递归(反馈)网络图4.5前馈(多层)网络图4.4中,表示节点的状态,为节点的输入(初始)值,为收敛后的输出值,i=1,2,...,n。(2)前馈网络前馈网络具有递阶分层结构,由一些同层神经元间不存在互连的层级组成。从输入层至输出层的信号通过单向连接流通;神经元从一层连接至下一层,不存在同层神经元间的连接,如图4.5所示。图中,实线指明实际信号流通而虚线表示反向传播。前馈网络的例子有多层感知器(MLP)、学习矢量量化(LVQ)网络、小脑模型联接控制(CMAC)网络和数据处理方法(GMDH)网络等。2、人工神经网络的主要学习算法神经网络主要通过指导式(有师)学习算法和非指导式(无师)学习算法。此外,还存在第三种学习算法,即强化学习算法;可把它看做有师学习的一种特例。(1)有师学习有师学习算法能够根据期望的和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度或权。因此,有师学习需要有个老师或导师来提供期望或目标输出信号。有师学习算法的例子包括Delta规则、广义Delta规则或反向传播算法以及LVQ算法等。(2)无师学习无师学习算法不需要知道期望输出。在训练过程中,只要向神经网络提供输入模式,神经网络就能够自动地适应连接权,以便按相似特征把输入模式分组聚集。无师学习算法的例子包括Kohonen算法和Carpenter-Grossberg自适应谐振理论(ART)等。(3)强化学习如前所述,强化(增强)学习是有师学习的特例。它不需要老师给出目标输出。强化学习算法采用一个“评论员”来评价与给定输入相对应的神经网络输出的优度(质量因数)。强化学习算法的一个例子是遗传算法(GA)。提问:神经网络主要有哪二类学习算法?4.2.3人工神经网络的典型模型根据伊林沃思(W.T.Illingworth)提供的综合资料,最典型的ANN模型(算法)及其学习规则和应用领域如表4.2所列(见表4.2)。4.2.4基于神经网络的知识表示与推理1、基于神经网络的知识表示基于神经网络系统中知识的表示方法与传统人工智能系统中所用的方法(如产生式、框架、语义网络等)完全不同,传统人工智能系统中所用的方法是知识的显式表示,而神经网络中的知识表示是一种隐式的表示方法。在这里,知识并不像在产生式系统中那样独立地表示为每一条规则,而是将某一问题的若干知识在同一网络中表示。例:对图4.6所示的异或逻辑的神经网络来说,其邻接矩阵为:图4.6异或逻辑的神经网络表示如果用产生式规则描述,则该网络代表下述四条规则:IFx1=0ANDx2=0THENy=0IFx1=0ANDx2=1THENy=1IFx1=1ANDx2=0THENy=1IFx1=1ANDx2=1THENy=0提问:神经网络中的知识表示采用了什么样的表示方法?结合这个例子回答。2、基于神经网络的推理基于神经网络的推理是通过网络计算实现的。把用户提供的初始证据用作网络的输入,通过网络计算最终得到输出结果。一般来说网络推理有正向网络推理,其步骤如下:(1)把已知数据输入网络输入层的各个节点。(2)利用特性函数分别计算网络中各层的输出。计算中,前一层的输出作为后一层有关节点的输入,逐层进行计算,直至计算出输出层的输出值。(3)用阈值函数对输出层的输出进行判定,从而得到输出结果。4.3模糊计算教学内容:本节简要地介绍模糊数学的基本概念、运算法则、模糊逻辑推理和模糊判决等。这些内容构成模糊逻辑的基础知识。模糊计算就是以模糊逻辑为基础的计算。教学重点:模糊数学的模糊逻辑推理和模糊判决。教学难点:模糊数学的运算法则和模糊逻辑推理。教学方法:课堂教学为主,注意结合例子进行讲解。教学要求:掌握模糊数学的基本概念、运算法则、模糊逻辑推理方法。4.3.1模糊集合、模糊逻辑及其运算首先,让我们介绍模糊集合与模糊逻辑的若干定义。设U为某些对象的集合,称为论域,可以是连续的或离散的;u表示U的元素,记作U={u}。定义4.1模糊集合(fuzzysets)论域U到[0,1]区间的任一映射,即,都确定U的一个模糊子集F;称为F的隶属函数(membershipfunction)或隶属度(gradeofmembership)。在论域U中,可把模糊子集表示为元素u与其隶属函数的序偶集合,记为:(4.7)定义4.2模糊支集、交叉点及模糊单点如果模糊集是论域U中所有满足的元素u构成的集合,则称该集合为模糊集F的支集。当u满足,则称此模糊集为模糊单点。定义4.3模糊集的运算设A和B为论域U中的两个模糊集,其隶属函数分别为和,则对于所有,存在下列运算:(1)A与B的并(逻辑或)记为,其隶属函数定义为:(2)A与B的交(逻辑与)记为,其隶属函数定义为:(3)A的补(逻辑非)记为,其传递函数定义为:定义4.4直积(笛卡儿乘积,代数积)若分别为论域中的模糊集合,则这些集合的直积是乘积空间中一个
本文标题:人工智能讲稿计算智能
链接地址:https://www.777doc.com/doc-2704126 .html