您好,欢迎访问三七文档
当前位置:首页 > 办公文档 > 其它办公文档 > 合肥工业大学人工智能2009-+-2010-+-2011级考卷-+-答案
合肥工业大学人工智能2009级考卷+答案一、选择填空(在每题下面提供的多个答案中,为每个位置选择正确的答案,每空1分,共40分)1.智能科学研究B和C,是由E、G、J等学科构成的交叉学科。A.思维的基本理论B.智能的基本理论C.实现技术D.基本形态E.脑科学F.形象思维G.认知科学H.抽象思维I.感知思维J.人工智能K.灵感思维2.深度优先搜索属于A,搜索原则是深度越C、越D产生结点的优先级越高。深度搜索是H。A.盲搜索B.启发式搜索C.大D.晚E.小F.早G.完备的H.不完备的3.人工智能中的符号主义在认识层次是A,在求解层次是C,在处理层次是E,在操作层次是G,在体系层次是K。A.离散B.连续C.由底向上D.自顶向下E.串行F.并行G.推理H.映射I.交互J.分布K.局部4.ID3算法属于C,基于解释的学习属于B,关联分析属于A,SVM属于G。A.发现学习B.分析学习C.归纳学习D.遗传学习E.连接学习F.强化学习G.统计学习5.封闭世界假设(CWA)属于B,D-S证据理论属于D,限定逻辑属于B。A.归结原理B.非单调推理C.定性推理D.不确定推理6.在不确定理论中D无需任何先验知识(或信息),B与C具有处理不精确和不确定数据的方法,而A使用概率去表示所有形式的不确定性。A.Bayes理论B.模糊集理论C.证据理论D.粗糙集7.SVM是建立在B和C原理基础上的,在解决F、I及A模式识别中表现出许多特有的优势。A.高维B.VC维C.结构风险最小D.经验风险最小E.置信风险最小F.小样本G.大样本H.线性I.非线性8.人工神经网络是B的典型,它的特点集中表现在以D方式存储信息、以F方式处理信息、具有自组织、自学习能力。神经网络可分为四大类,著名的Hopfield网络属于J类。A.符号智能B.计算智能C.集中D。分布E.串行F.并行G.分层前向网络H.反馈前向网络I.互连前向网络J.广泛互连网络9.在遗传算法中复制操作使用来模拟B,交叉操作是用来模拟C,而变异操作是用来模拟A。A.基因突变B.适者生存C.繁殖现象10.群智能思想的产生主要源于B以及D的研究,F是群智能领域最著名的算法。A.多Agent系统B.复杂适应系统理论C.进化计算D.人工生命E.PSOF.ACOG.AFSA第2页二、将下列语句形式化(每题5分,共10分)例1:他个子高而且很胖令P表示“他个子高”,Q表示“他很胖”,于是可表示为P∧Q例2:任何金属都可以溶解在某种液体里以P(x)表示x是金属,Q(x)表示x是液体,R(x,y)表示x可以溶解在y中,语句的形式化为:)),()(()(yxRyQyxxP1.他个子矮或他不很胖都是不对的令P表示“他个子高”,Q表示“他很胖”┐(┐P∧┐Q)2.凡实数都能比较大小以P(x)表示x是实数,Q(x,y)表示x和y可以比较大小,语句的形式化为:)),()()((yxQyPxPyx三、采用广度优先搜索求解下面八数码问题,给出广度优先搜索树(10分)。2674138516748325SD第3页四、简答题(每题10分)1.在不确定知识与推理研究中,模糊集理论、贝叶斯网络、粗糙集理论各有何特点?模糊集理论利用模糊隶属度来表示自然界模糊现象,从研究集合与元素的关系入手研究不确定性。广泛应用于专家系统和智能控制中。模糊集是不可计算的,即没有给出数学公式描述这一含糊概念,故无法计算出它的具体的含糊元素数目,如模糊集中的隶属函数μ和模糊逻辑中的算子λ都是如此。贝叶斯网络是用来表示变量间连接概率的图形模式,它提供了一种自然的表示因果信息的方法,用来发现数据间的潜在关系。在这个网络中,用节点表示变量,有向边表示变量间的依赖关系。贝叶斯理论给出了信任函数在数学上的计算方法,具有稳固的数学基础,同时它刻画了信任度与证据的一致性及其信任度随证据而变化的增量学习特性;在数据挖掘中,贝叶斯网络可以处理不完整和带有噪声的数据集,它用概率测度的权重来描述数据间的相关性,从而解决了数据间的不一致性,甚至是相互独立的问题;用图形的方法描述数据间的相互关系,语义清晰、可理解性强,这有助于利用数据间的因果关系进行预测分析。贝叶斯方法正在以其独特的不确定性知识表达形式、丰富的概率表达能力、综合先验知识的增量学习特性等成为当前数据挖掘众多方法中最为引人注目的焦点之一粗糙集理论反映了人们用粗糙集方法处理不分明问题的常规性,即以不完全信息或知识去处理一些不分明现象的能力,或依据观察、度量到的某些不精确的结果而进行分类数据的能力。基本粗糙集理论认为知识就是人类和其他物种所固有的分类能力,粗糙集理论利用集合(下近似集和上近似集)处理含糊和不精确性问题。粗糙集主要优点包括:除数据集之外,无需任何先验知识(或信息);对不确定性的描述与处理相对客观。2.群智能算法与进化算法有何异同?基于SI的优化算法和EC都是基于群体迭代的启发式随机优化算法,有着非常多相似之处,它们都是对自然中随机系统的仿真,都具有本质并行性。另外,与EC还一样的是,SI的目的并不是为了忠实地模拟自然现象,而是利用它们的某些特点去解决实际问题。283147652318476528314765832147652837146583214765832147652814376523184765283145762318476528316475813247658342176581324765813247658326417528374615281637542837146528316754123847651237846523418765234185762814376524813765283145762836417528315746813264752837461523784615283746152837165428316754283641752831457628143765234187651238476528371465283164752831647528314765S1234512131110987614151617222324252618192021D第4页首先,PSO和SI所模拟的自然随机系统不一样。EC是模拟生物系统进化过程,其最基本单位是基因(Gene),它在生物体的每一代之间传播;已有的基于SI的优化算法都是源于对动物社会通过协作解决问题行为的模拟,它主要强调对社会系统中个体之间相互协同作用的模拟,其最基本单位是敏因。其次,EC中强调“适者生存”,不好的个体在竞争中被淘汰;SI强调“协同合作”,不好的个体通过学习向好的方向转变,不好的个体被保留还可以增强群体的多样性。EC中最好的个体通过产生更多的后代来传播自己的基因,而SI中的优秀个体通过吸引其它个体向它靠近来传播自己的敏因。最后,EC的迭代由选择、变异和交叉重组操作组成,而SI的迭代中的操作是“跟随”,ACO中蚂蚁跟随信息素浓度爬行,PSO中粒子跟随最优粒子飞行。在某种程度上看,SI的跟随操作中隐含了选择、变异和交叉重组操作。五、什么是线性可分?简述支持向量机解决非线性可分问题的基本思想。(10分)假设存在训练样本(x1,y1),…,(xn,yn),x∈Rd,y∈{+1,-1},n为样本数,d为输入维数,在线性可分的情况下就会有一个超平面使得这两类样本完全分开。如果训练数据可以无误差地被划分,以及每一类数据与超平面距离最近的向量与超平面之间的距离最大则称这个超平面为最优超平面。对非线性问题支持向量机首先通过用内积函数定义的非线性变换将输入空间变换到一个高维空间,在这个空间中求广义最优分类面。六、解答下列问题:(10分)(1)给出ID3算法描述ID3算法①选出整个训练实例集X的规模为W的随机子集X1(W称为窗口规模,子集称为窗口);②以使得(7.29)式的值最小为标准,选取每次的测试属性形成当前窗口的决策树;③顺序扫描所有训练实例,找出当前的决策树的例外,如果没有例外则训练结束;④组合当前窗口的一些训练实例与某些在(3)中找到的例外形成新的窗口,转(2)(2)表1给出了一个可能带有噪音的数据集合。它有四个属性,Outlook、Temperature、Humidity、Windy。它被分为两类,P与N,分别为正例与反例。用ID3构造出决策树将数据进行分类。表1样本数据集合属性outlooktemperaturehumiditywindy类1overcasthothighnotN2overcasthothighveryN3overcasthothighmediumN4sunnyhothighnotP5sunnyhothighmediumP6rainmildhighnotN7rainmildhighmediumN8rainhotnormalnotP9raincoolnormalmediumN10rainhotnormalveryN11sunnycoolnormalveryP12sunnycoolnormalmediumP13overcastmildhighnotN14overcastmildhighmediumN15overcastcoolnormalnotP16overcastcoolnormalmediumP17rainmildnormalnotN第5页18rainmildnormalmediumN19overcastmildnormalmediumP20overcastmildnormalveryP21sunnymildhighveryP22sunnymildhighmediumP23sunnyhotnormalnotP24rainmildhighveryN解:可以看出H(X/Outlook)最小,即有关Outlook的信息对于分类有最大的帮助,提供最大的信息量,即I(X;Outlook)最大。所以应该选择Outlook属性作为测试属性。并且也可以看出H(X)=H(X/Windy),即I(X;Windy)=0,有关Windy的信息不能提供任何有关分类的信息。选择Outlook作为测试属性之后将训练实例集分为三个子集,生成三个叶结点,对每个叶结点依次利用上面过程则生成图1所示的决策树。第6页图1表1所训练生成的决策树第7页合肥工业大学人工智能2010级考卷+答案一、选择填空(在每题下面提供的多个答案中,为每个位置选择正确的答案,每空1分,共40分)1.智能科学研究B和C,是由E、G、J等学科构成的交叉学科。A.思维的基本理论B.智能的基本理论C.实现技术D.基本形态E.脑科学F.形象思维G.认知科学H.抽象思维I.感知思维J.人工智能K.灵感思维2.深度优先搜索属于A,搜索原则是深度越C、越D产生结点的优先级越高。深度搜索是H。A.盲搜索B.启发式搜索C.大D.晚E.小F.早G.完备的H.不完备的3.人工智能中的符号主义在认识层次是A,在求解层次是D,在处理层次是E,在操作层次是G,在体系层次是K。A.离散B.连续C.由底向上D.自顶向下E.串行F.并行G.推理H.映射I.交互J.分布K.局部4.ID3算法属于C,基于解释的学习属于B,关联分析属于A,SVM属于G。A.发现学习B.分析学习C.归纳学习D.遗传学习E.连接学习F.强化学习G.统计学习5.封闭世界假设(CWA)属于B,D-S证据理论属于D,限定逻辑属于B。A.归结原理B.非单调推理C.定性推理D.不确定推理6.在不确定理论中D无需任何先验知识(或信息),B与C具有处理不精确和不确定数据的方法,而A使用概率去表示所有形式的不确定性。A.Bayes理论B.模糊集理论C.证据理论D.粗糙集7.SVM是建立在B和C原理基础上的,在解决F、I及A模式识别中表现出许多特有的优势。A.高维B.VC维C.结构风险最小D.经验风险最小E.置信风险最小F.小样本G.大样本H.线性I.非线性8.人工神经网络是B的典型,它的特点集中表现在以D方式存储信息、以F方式处理信息、具有自组织、自学习能力。神经网络可分为四大类,著名的Hopfield网络属于J类。A.符号智能B.计算智能C.集中D。分布E.
本文标题:合肥工业大学人工智能2009-+-2010-+-2011级考卷-+-答案
链接地址:https://www.777doc.com/doc-5307046 .html