您好,欢迎访问三七文档
1第3讲人工神经网络欧阳柳波2/65人工神经网络的进展初创阶段(二十世纪四十年代至六十年代):1943年,美国心理学家W.S.Mcculloch和数理逻辑学家和数理逻辑学家W.Pitts提出了神经元的数学模型,即MP(Mcculloch-Pitts)模型以数学逻辑为研究手段,探讨了客观事件在神经网络的形式问题1960年,威德罗和霍夫率先把神经网络用于自动控制研究。过渡阶段(二十世纪六十年代初至七十年代)M.Minsky和S.Papert于1969年出版《PerceptronPerceptron》从理论上证明了以单层感知机为代表的网络系统在某些能力方面的局限性。60年代末期至80年代中期,神经网络控制与神经网络进入低潮3/65人工神经网络的进展(续)高潮阶段(二十世纪八十年代)1982和1984年,美国加州理工学院的生物物理学J.J.Hopfield在美国科学院院刊发表的两篇文章,有力地推动了人工神经网络的研究与应用,并引发了研究神经网络的一次热潮。80年代后期以来,随着人工神经网络研究的复苏和发展,对神经网络控制的研究也十分活跃。研究进展主要在神经网络自适应控制和模糊神经网络控制及其在机器人控制中的应用上。平稳发展阶段(二十世纪九十年代以后)和相关学科交叉融合4/65ANN人工神经网络概述基本原理前向型神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合BP神经网络5/65概述什么叫人工神经网络采用物理可实现的系统来模仿人脑神经细胞的结构和功能的系统。为什么要研究神经网络用计算机代替人的脑力劳动。计算机速度为纳秒级,人脑细胞反应时间是毫秒级。而计算机不如人。长期以来人类的梦想,机器既能超越人的计算能力,又有类似于人的识别、分析、联想等能力。6/65概述人工智能与神经网络共同之处:研究怎样使用计算机来模仿人脑工作过程,学习——实践——再学习——再实践。不同之处:人工智能研究人脑的推理、学习、思考、规划等思维活动,解决需人类专家才能处理的复杂问题。神经网络企图阐明人脑结构及其功能,以及一些相关学习、联想记忆的基本规则(联想、概括、并行搜索、学习和灵活性)7/65例如:人工智能专家系统是制造一个专家,几十年难以培养的专家。神经网络是制造一个婴儿,一个幼儿,一个可以学习,不断完善,从一些自然知识中汲取智慧的生命成长过程。同样是模仿人脑,但所考虑的角度不同。成年人和婴儿学习过程不一样8/65概述人工智能神经网络研究目的人脑推理、学习、思考、规划等思维活动,解决需人类专家才能处理的复杂问题。阐明有关人脑结构及其功能以及相关学习、联想记忆的基本规律。研究内容推理方法、知识表示、机器学习生物的生理机制、信息的存储、传递、处理方式知识表示方法人懂→机器懂→人懂图像等→机器→图像等知识储存方式知识库中有事实和规则,随时添加而增大,一条出了毛病有可能出错。在网的结构之中,一条出问题不会触大错,网络结构不会随知识增加变化很大信息传递方式符号脉冲形式,以频率表示信息处理方式树、网等,一条一条执行,并行处理较难原理上是并行结构,与生物信息处理机制一致9/65ANN人工神经网络概述基本原理前向型神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合BP神经网络10/65基本原理11/6512/6513/65生物神经元细胞核细胞质树突突触来自其他细胞细胞膜轴突神经末梢神经元由细胞体、树突和轴突组成。细胞体是神经元的主体,它由细胞核、细胞质和细胞膜三部分构成.从细胞体向外延伸出许多突起,其中大部分突起呈树状,称为树突.树突起感受作用,接受来自其他神经元的传递信号.由细胞体伸出的一条最长的突起,用来传出细胞体产生的输出信号,称之为轴突;轴突末端形成许多细的分枝,叫做神经末梢;每一条神经末梢可以与其他神经元形成功能性接触,该接触部位称为突触。所谓功能性接触是指非永久性接触,它是神经元之间信息传递的奥秘之处。14/65一个神经元把来自不同树突的兴奋性或抑制性输入信号(突触后膜电位)累加求和的过程,称为整合。考虑到输入信号的影响要持续一段时间(毫秒级),因此,神经元的整合功能是一种时空整合。当神经元的时空整合产生的膜电位超过阈值电位时,神经元处于兴奋状态,产生兴奋性电脉冲,并经轴突输出;否则,无电脉冲产生,处于抑制状态。15/6516/65图2一种简化神经元结构17/65人工神经元模型每一个细胞处于两种状态。突触联接有强度。多输入单输出。实质上传播的是脉冲信号,信号的强弱与脉冲频率成正比。yisix1x2xnuiθi图3人工神经元的结构模型一般地,人工神经元的结构模型如图3所示。它是一个多输入单输出的非线性阈值器件。其中x1,x2,…xn表示神经元的n个输入信号量;w1,w2,…,wn表示对应输入的权值,它表示各信号源神经元与该神经元的连接强度;U表示神经元的输入总和,它相应于生物神经细胞的膜电位,称为激活函数;y为神经元的输出;θ表示神经元的阈值。18/6519/65于是,人工神经元的输入输出关系可描述为:1()niiiyfUUx函数y=f(U)称为特性函数(亦称作用、传递、激活、活化、转移函数)。特性函数可以看作是神经元的数学模型。20/651.阈值型()yfA1000AA2.S型这类函数的输入-输出特性多采用指数、对数或双曲正切等S型函数表示。例如1()1AyfAeS型特性函数反映了神经元的非线性输出特性。常见的特性函数有以下几种:21/653.分段线性型神经元的输入-输出特性满足一定的区间线性关系,0001kkAyKAAAAA式中,K、Ak均表示常量。22/65人工神经元模型以上三种特性函数的图像依次如下图中的(a)、(b)、(c)所示神经细胞的输出对输入的反映。典型的特性函数是非线性的。f(u)f(u)f(u)111000uuu(a)(b)(c)23/65基本原理-网络结构人脑神经网络:人脑中约有140亿个神经细胞根据Stubbz的估计这些细胞被安排在约1000个主要模块内,每个模块上有上百个神经网络,每个网络约有10万个神经细胞。如果将多个神经元按某种的拓扑结构连接起来,就构成了神经网络。根据连接的拓扑结构不同,神经网络可分为四大类:分层前向网络、反馈前向网络、互连前向网络、广泛互连网络。24/65基本原理-网络模型分层前向网络:每层只与前层相联接网络由若干层神经元组成,一般有输入层、中间层(又称隐层,可有一层或多层)和输出层,各层顺序连接;且信息严格地按照从输入层进,经过中间层,从输出层出的方向流动。x1x2xny1y2yn25/65基本原理-网络模型反馈前向网络:输出层上存在一个反馈回路,将信号反馈到输入层。而网络本身还是前向型的。反馈的结果形成封闭环路,具有反馈的单元称为隐单元,其输出称为内部输出。x1x2xny1y2yn26/65基本原理-网络模型互连前向网络:外部看还是一个前向网络,内部有很多自组织网络在层内互连着。同一层内单元的相互连接使它们之间有彼此牵制作用。x1x2xny1y2yn27/65基本原理-网络模型广泛互连网络:所有计算单元之间都有连接,即网络中任意两个神经元之间都可以或可能是可达的。如:Hopfield网络、波尔茨曼机模型反馈型局部连接网络:特例,每个神经元的输出只与其周围的神经元相连,形成反馈网络。28/65基本原理-网络分类分类前向型(前馈型);反馈型;自组织竞争;随机网络其它具体来讲,神经网络至少可以实现如下功能:数学上的映射逼近。通过一组映射样本(x1,y1)(x2,y2),…,(xn,yn),网络以自组织方式寻找输入与输出之间的映射关系:yi=f(xi)。数据聚类、压缩。通过自组织方式对所选输入模式聚类。联想记忆。实现模式完善、恢复,相关模式的相互回忆等。优化计算和组合优化问题求解。利用神经网络的渐进稳定态,特别是反馈网络的稳定平衡态,进行优化计算或求解组合优化问题的近似最优解。29/65模式分类。现有的大多数神经网络模型都有这种分类能力。概率密度函数的估计。根据给定的概率密度函数,通过自组织网络来响应在空间Rn中服从这一概率分布的一组向量样本X1,X2,…,Xk。30/6531/65基本原理-基本属性基本属性:非线性:自然界的普遍特性大脑的智慧就是一种非线性现象人工神经元处于激活或抑制两种不同的状态,在数学上表现为一种非线性。非局域性:一个神经网络通常由多个神经元广泛连接而成一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定通过单元之间的大量连接模拟大脑的非局域性联想记忆是非局域性的典型例子。32/65基本原理-基本属性非定常性人工神经网络具有自适应、自组织、自学习能力神经网络不但处理的信息有各种各样,而且在处理信息的同时,非线性动力系统本身也在不断变化经常采用迭代过程描写动力系统的演化过程。非凸性:系统演化的多样性一个系统的演化方向,在一定条件下,将取决于某个特定的状态函数,如能量函数,它的极值相应于系统比较稳定的状态非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。33/65基本原理-优缺点评价优点:并行性;分布存储;容错性;学习能力缺点:不适合高精度计算;学习问题没有根本解决,慢;目前没有完整的设计方法,经验参数太多。神经网络学习学习(亦称训练)是神经网络的最重要特征之一。神经网络能够通过学习,改变其内部状态,使输入—输出呈现出某种规律性。网络学习一般是利用一组称为样本的数据,作为网络的输入(和输出),网络按照一定的训练规则(又称学习规则或学习算法)自动调节神经元之间的连接强度或拓扑结构,当网络的实际输出满足期望的要求,或者趋于稳定时,则认为学习成功。34/65神经网络学习1.学习规则权值修正学派认为:神经网络的学习过程就是不断调整网络的连接权值,以获得期望的输出的过程。所以,学习规则就是权值修正规则。2.学习方法分类从不同角度考虑,神经网络的学习方法有不同的分类。表9.1列出了常见的几种分类情况。35/65神经网络学习36/65表1神经网络学习方法的常见分类37/65ANN人工神经网络概述基本原理前向型神经网络BP神经网络自组织竞争神经网络神经网络的应用与人工智能原理的结合38/65前向型神经网络概述最初称之为感知器。应用最广泛的一种人工神经网络模型,最要原因是有BP学习方法。前向网络结构是分层的,信息只能从下一层单元传递到相应的上一层单元。上层单元与下层所有单元相联接特性函数可以是线性阈值的。39/65前向型神经网络单层感知器w1θYx1xnwnΣ40/65前向型神经网络基本原理和结构极其简单在实际应用中很少出现采用阶跃函数作为特性函数2维空间可以明显表现其分类功能,但Minsky等揭示的致命弱点也一目了然。关键是学习算法及网络设计方法输出yi等于:)(jjijixwfy(1)0101)(jjjuuuf 其中41/65前向型神经网络-单层感知器分类方法:如果输入x有k个样本,xp,p=1,2,…,k,xRn当将这些样本分别输入到单输出的感知器中,在一定的和下,输出有两种可能+1或-1。把样本xp看作为在n维状态空间中的一个矢量,则k个样本为输入空间的k个矢量前向神经网络就是将n维空间分为SA、SB两个子空间,其分界线为n-1维的超平面。即用一个单输出的感知器通过调整参数及来达到k个样本的正确划分。42/65前向型神经网-单层感知器),,,,2,1,,...2,1(其中,kllBlASxSxBBAA则存在一组权值wij使得公式(1)满足:1,;1,ySxySxBBAA称样本集为线性可分的,否则为线性不可分的。43/65前向型神经网-单层感知器如:2维
本文标题:人工神经网络
链接地址:https://www.777doc.com/doc-1780708 .html