您好,欢迎访问三七文档
神经网络理论基础以冯·诺依曼型计算机为中心的信息处理技术的高速发展,计算机在信息化社会中起着十分重要的作用。但是,当用它来解决某些人工智能问题时却遇到了很大的困难。模糊控制从人的经验出发,解决了智能控制中人类语言描述和推理问题,但在处理数值数据、自学习能力等方面远未达到人脑境界图片来自蒲慕明教授的第6届模式识别会议大会报告版权归其所有从人脑生理、心理学着手,模拟人脑工作机理大脑是由生物神经元构成的巨型网络,它在本质上不同于计算机,是一种大规模的并行处理系统,它具有学习、联想记忆、综合等能力,并有巧妙的信息处理方法。图片来自蒲慕明教授的第6届模式识别会议大会报告版权归其所有图片来自蒲慕明教授的第6届模式识别会议大会报告版权归其所有图片来自蒲慕明教授的第6届模式识别会议大会报告版权归其所有图片来自蒲慕明教授的第6届模式识别会议大会报告版权归其所有神经网络原理生物神经元人脑大约由1012个神经元组成,神经元互相连接成神经网络神经元是大脑处理信息的基本单元,以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干。它主要由细胞体、树突、轴突和突触(Synapse,又称神经键)组成。单个生物神经元解剖图细胞体:包括细胞质、细胞膜和细胞核树突:用于为细胞体传入信息轴突:为细胞体传出信息,其末端为神经末梢,含传递信息的化学物质突触:神经元之间的接口(可塑性)从神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近。当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质。突触有两种:兴奋性突触和抑制性突触。前者产生正突触后电位,后者产生负突触后电位。突触传递信息的功能和特点归纳为:信息传递有时延,一般为0.3~lms。信息的综合有时间累加和空间累加。(时空整合)突触有兴奋性和抑制性两种类型。具有脉冲/电位信号转换功能。神经纤维传导的速度,即脉冲沿神经纤维传递的速度,在1—150m/s之间存在不应期。不可逆性,脉冲只从突触前传到突触后,不逆向传递。(动态极化性)可塑性,突触传递信息的强度是可变的,即具有学习功能。存在遗忘或疲劳效应。人工神经网络(简称神经网络)也是由大量的、功能比较简单的形式神经元互相连接而构成的复杂网络系统,用它可以模拟大脑的许多基本功能和简单的思维方式。人工神经网络是模拟人脑思维方式的数学模型,从微观结构和功能上对人脑进行抽象和简化,模拟人类智能是对人脑的模拟人工神经网络人工神经元模拟生物神经元人工神经元模拟生物神经元人工神经网络模拟生物神经网络人工神经元模拟生物神经元生物神经元生物神经元生物神经元人工神经元生物神经元人工神经元)(ixfi生物神经元人工神经元生物神经元--信息处理单元生物神经元--信息处理单元信息输入生物神经元--信息处理单元信息传播与处理生物神经元--信息处理单元信息传播与处理(整合)生物神经元--信息处理单元信息传播与处理:兴奋或抑制生物神经元--信息处理单元信息输出生物神经元--信息处理单元生物神经元--信息处理单元生物神经元--信息处理单元生物神经元--信息处理单元生物神经元--信息处理单元生物神经元--信息处理单元人工神经元--信息处理单元人工神经元--信息处理单元信息输入信息输入人工神经元--信息处理单元)(ixfi信息传播与处理:积与和人工神经元--信息处理单元)(ixfi人工神经元--信息处理单元)(ixfi信息传播人工神经元--信息处理单元信息传播与处理:非线性)(ixfi人工神经元--信息处理单元)(ixfi信息输出人工神经元--信息处理单元)(ixfi人工神经--信息处理单元)(ixfi人工神经元信息输入输出)(ixfi人工神经元信息输入输出)(ixfi人工神经元信息输入输出)(ixfi人工神经元信息输入输出)(ixfi人工神经网络模拟生物神经网络生物神经网络生物神经网络生物神经网络生物神经网络人工神经网络生物神经网络人工神经网络uy生物神经网络人工神经网络u(t)y(t)生物神经网络人工神经网络生物神经网络人工神经网络)1(ty)(tu生物神经网络人工神经网络uy生物神经网络人工神经网络生物神经网络人工神经网络+生物神经网络人工神经网络PuyDII人工神经网络(ArtificialNeuralNetworks,ANN):一种模范动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程被称为“训练”。(引自《环球科学》2007年第一期《神经语言:老鼠胡须下的秘密》)人工神经网络以数学手段来模拟人脑神经网络结构和特性神经网络是一个并行和分布式的信息处理网络结构,它一般由许多个神经元组成,每个神经元只有一个输出,它可以连接到很多其他的神经元,每个神经元输入有多个连接通道,每个连接通道对应于一个连接权系数。目前已有40多种模型人脑神经网络信息处理的特点1.分布存储与冗余性2.并行处理3.信息处理与存储合一4.可塑性与自组织性5.鲁棒性人工神经元模型归纳一下生物神经元传递信息的过程:生物神经元是一个多输入、单输出单元。常用的人工神经元模型可用下图模拟。图人工神经元模型响应函数(激活函数)的基本作用:1、控制输入对输出的激活作用;2、对输入、输出进行函数转换;3、将可能无限域的输入变换成指定的有限范围内的输出。jniijijxs1根据响应函数的不同,人工神经元有以下几种类型:图人工神经元的响应函数1、阈值单元2、线性单元3、非线性单元:Sigmoid函数上述模型能反映生物神经元的基本特性,但还有如下不同之点:(1)生物神经元传递的信息是脉冲,而上述模型传递的信息是模拟电压。(2)由于在上述模型中用一个等效的模拟电压来模拟生物神经元的脉冲密度,所以在模型中只有空间累加而没有时间累加(可以认为时间累加已隐含在等效的模拟电压之中)。(3)上述模型未考虑时延、不应期和疲劳等。人工神经网络的分类神经元的模型确定之后,一个神经网络的特性及能力主要取决于网络的拓扑结构及学习方法。人工神经网络连接的几种基本形式:1.前向网络网络中的神经元是分层排列的,每个神经元只与前一层的神经元相连接。2.反馈网络从输出到输入有反馈,反馈动力学系统,需要工作一段时间才稳定,具有联想记忆功能3.自组织网络神经网络接受外界输入时,网络会分成不同区域,不同区域具有不同的响应特性,即不同的神经元以最佳方式响应不同性质的信号激励,形成一种非线性映射,通过无监督的自适应过程完成(聚类)图神经网络的典型结构人工神经网络的学习算法神经网络最有用的特征之一是它具有自学习功能。通常一个ANN模型要实现某种功能,就需要对其加以训练。所谓“训练”,就是让它学会要做的事情,通过学习,把这些知识记忆在网络的权值中。学习方法是人工神经网络研究中的核心问题,通过学习算法,实现自适应、自组织和自学习能力。神经网络的学习过程就是不断调整网络的连接数值,以获得期望输出。人工神经网络学习方法通常有:有导师学习、无导师学习和再励学习常用的神经网络学习方式:(1)有导师学习监督学习SupervisedLearning—例如BP—有明确的“教师”信号神经网络比较输入实际输出期望输出(2)无导师学习无监督学习UnsupervisedLearning—没有任何“教师”信号—只是通过输入数据的内部信息相当自组织这类方法。神经网络输入实际输出(3)再励学习ReinforcementLearning源于心理学神经网络1环境输入输出神经网络2神经网络的工作方式:学习阶段——修改权值工作阶段——计算单元变化1.Hebb学习规则是DonallHebb根据生理学中条件反射机理,于1949年提出的神经元连接强度变化的规则。如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强。Hebb学习规则是一种无导师学习的方法,称为相关学习或并联学习,是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb学习规则的变形。jiijijIIkk1是用已知样本作为教师对网络进行学习。主要利用误差:ek=dk-yk学习目的是通过调整权值,使某一基于ek的目标函数达到最小]21[2kkeE如:常用的目标函数是均方误差判据2.Delta学习规则pppppppEydE12121pTpXWfy可用梯度下降法对权值W求导,得ppippppiXfydw1)()(8.622jjE3)竞争学习规则在竞争学习时,网络各输出单元相互竞争,最后达到只有一个最强者激活。)(ijjijwxw神经网络特征及要素特征:能逼近任意非线性函数信息的并行分布式处理与存储可以多输入、多输出便于用超大规模集成电路、光学集成电路系统和计算机实现能进行学习,以适应环境的变化三要素神经元的特性神经元之间相互连接的拓扑结构为适应环境而改善性能的学习规则神经网络发展史1.启蒙期(1890-1969)对大脑神经元研究表明,当其处于兴奋状态时,输出侧的轴突就会发出脉冲信号,每个神经元的树状突起与来自其它神经元轴突的互相结合部(此结合部称为Synapse,即突触)接收由轴突传来的信号。如果—神经元所接收到的信号的总和超过了它本身的“阈值”,则该神经元就会处于兴奋状态,并向它后续连接的神经元发出脉冲信号。1890年,W.James发表《心理学》,讨论脑结构和功能1943年,W.S.McCulloch和W.Pitts提出了描述脑神经细胞动作的数学模型,即MP模型。1949年,D.O.Hebb提出了神经元的学习法则,即Hebb法则。50年代末,E.Rosenblatt提出了描述信息在人脑中存储和记忆的数学模型,即感知机(Perceptron)模型。感知机是现代神经计算的出发点。Block于1962年用解析法证明了感知机的学习收敛定理。正是由于这一定理的存在,才使得感知机的理论具有实际的意义,并引发了60年代以感知机为代表的第一次神经网络研究发展的高潮。1961年,E.R.Caianiello提出了能实现记忆和识别的神经网络模型,它由学习方程式和记忆方程式两部分组成。1962年,M.Minsky和S.Papert进一步发展了感知机的理论,他们把感知机定义为一种逻辑函数的学习机。B.Widraw在稍后于感知机一些时候提出了Adline分类学习机。它在结构上与感知机相似,但在学习法则上采用了最小二乘平均误差法。1965年M.Minsky和S.Papert在《感知机》一书中指出感知机的缺陷并表示出对这方面研究的悲观态度,使得神经网络的研究从兴起期进入了停滞期,这是神经网络发展史上的第一个转折2.低潮期(1969-1982年)神经网络理论研究水平的限制计算机发展的冲击1969年,Grossberg提出迄今为止最复杂的ART神经网络1972年,Kohonen提出自组织映射的SOM模型到了20世纪80年代初,J.J.Hopfield的工作和D.Rumelhart等人的PDP报告显示出神经网络的巨大潜力,使得该领域的研究从停滞期进入了繁荣期,这是神经网络发展史上的第二个转折。3.复兴期1982年,美国物理学家Hopfield对神经网络的动态特性进行了研究,提出了Hopfield神经网络模型,引入能量函数,实现问题优化求解1986年,以Rumelhart为首的PDP(ParallelDistributedProcessing)并行分布处理研究集团对联结机制(connectionist)进行了研究,提出了
本文标题:神经网络理论基础
链接地址:https://www.777doc.com/doc-4971237 .html