您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 信息化管理 > 概率论与数理统计-课程论文
“概率论与数理统计”课程论文姓名:朱..学号:1305062019专业班级:电子信息工程2班成绩:教师评语:年月日标题:概率统计与梳理统计在信号中的应用摘要:概率论与数理统计是一门十分重要的大学数学基础课,也是唯一一门研究随机现象规律的学科,它指导人们从事物表象看到其本质.的概率论与数理统计学实际应用背景很广范。正如世界知名概率学家、华裔数学家钟开莱于1974年所说:“在过去半个世纪中,概率论从一个较小的、孤立的课题发展为一个与数学许多其它分支相互影响、内容宽广而深入的学科。”概率论与数理统计学应用于自然科学、社会科学、工程技术、经济、管理、军事和工农业生产等领域.经过不断的发展,学科本身的理论和方法日趋成熟,在社会生活中,就连面试、赌博、彩票、体育和天气等等也都会涉及到概率学知识。近年来,概率统计知识也越来越多的渗透到诸如物理学、遗传学、信息论等学科当中。尤其在电子信息通信方面尤为重要,甚至是通信原理的基础课程。可以说,概率统计是当今数学中最活跃,应用最广泛的学科之一。在此文中,进一步讨论概率统计在电子信息方面的应用。关键词:信息论概率论统计目录1对早期概率论的发展有过重要贡献的数学家2概率统计在电子专业中的应用3致谢4参考文献1对早期概率论的发展有过重要贡献的数学家莱布尼兹(Leibniz,1646—1716)于1672—1676年侨居巴黎时读到帕斯卡概率方面的研究成果,深刻地认识到这门“新逻辑学”的重要性,并且进行了认真的研究。在帕斯卡与费马通信讨论赌博问题的那一年,雅各·伯努利(JacobBernoulli,1654—1705)诞生了。在1713年出版的其遗著《猜度术》中首次提出了后来以“伯努利定理”著称的极限定理,伯努利定理刻画了大量经验观测中呈现的稳定性,作为大数定律的最早形式而在概率论发展史上占有重要地位。伯努利认为:先前人们对概率概念,多半从主观方面来解释,即说成是一种“期望”,这种期望是先验的等可能性的假设,是以古典概型为依据的。这种方法有极大的局限性,也许只在赌博中可用;在更多的场合,由于无法数清所有的可能情况,也无法确定不同情况的可能性彼此间的大小,这种方法就不可行.他提出,为了处理更大范围的问题,必须选择另一条道路,那就是“后验地去探知我们所无法先验地确定的东西,也就是从大量相关事例的观察结果中去探知它”。这样一来,就从主观的“期望”解释转到了客观的“频率”解释。大数定律可以说明目前的大多数概率应用。由于有了它,任一种预测的准确程度将随着例数增多而提高。这就是为什么承得一个特殊事件的保险费的收费标准,要高于大量的一般事件的保险费标准的原因。伯努利之后,棣莫弗(A.DeMoivre,1667—1754)于1733年和高斯(Gauss,1777—1857)于1809年各自独立引进了正态分布;蒲丰(G.L.LBuffon,1707—1778)于1777年提出了投针问题的几何概率;泊松于1837年陈述了泊松大数定律等。特别是拉普拉斯(P.S.Laplace,1749—1827)1812年出版的《概率的分析理论》以强有力的分析工具处理概率论的基本内容,使以往零散的结果系统化.拉普拉斯的著作实现了从组合技巧向分析方法的过渡,开辟了概率论发展的新时期。正是在这部著作中,拉普拉斯给出了概率的古典定义:事件的概率等于一次试验中有利于事件A的可能结果数与该试验中所有可能结果数之比。籍此拉普拉斯曾以“中立原理”计算出第二天太阳升起的概率为1/826214。值得说明的是,拉普拉斯认为世界是决定性的,偶然性只是出于人们的无知.如果我们能预知一切情况,以后的发展使可全知。关于这点拉普拉斯在其《概率论的哲学试验》中说的很明确:“智慧如果能在某一瞬间知道转动着自然的一切力量,知道大自然所有组成部分的相对位置,再者,如果它是如此浩瀚,足以分析这些材料,并能把上到庞大的天体下至微小的原子的所有运动悉数囊括在一个公式之中,那么,对于它来说,就没有什么东西是不可靠的了,无论是将来或过去,在它面前都会昭然若揭。”按此观点,宇宙的一切发展,早在混沌初开时就完全决定下来,岂不荒唐!19世纪后期,极限理论的发展成为概率论研究的中心课题,俄国数学家切比雪夫(Chebyshev,1821—1894)在这方面作出了重要贡献。他在1866年建立了关于独立随机变量序列的大数定律,使伯努利定理和泊松大数定理成为其特例.切比雪夫还将棣莫弗--拉普拉斯极限定理推广为更一般的中心极限定理。切比雪夫的成果后又被他的学生马尔可夫(А.А.марков,1856—1922)发扬光大,推进了20世纪概率论发展的进程。19世纪末,概率论在统计物理等领域的应用提出了对概率论基本概念与原理进行解释的需要。另外,科学家们在这一时期发现的一些概率论悖论也揭示出古典概率论中基本概念存在的矛盾与含糊之处,其中最著名的是所谓“贝特朗悖论”。1899年由法国学者贝特朗(J.Bertrand)提出:在半径为r的圆内随机选择弦,计算弦长超过圆内接正三角形边长的概率根据“随机选择”的不同意义,可以得到不同的答案。这类悖论说明概率的概念是以某种确定的实验为前提的,这种实验有时由问题本身所明确规定,有时则不然。因此,贝特朗等悖论的矛头直指概率概念本身,尤其是拉普拉斯的古典概率定义开始受到猛烈批评。这样,到19世纪,无论是概率论的实际应用还是其自身发展,都强烈地要求对概率论的逻辑基础作出更加严格的考察。鉴此,1900年夏,38岁的德国代表希尔伯特(D.Hilbort,1862—1943)在世界数学家大会上提出了建立概率公理系统的问题.这就是著名的希尔伯特23问题之中的第6个问题。这就引导一批数学家投入了这方面的工作。2概率统计在电子专业中的应用概率论与数理统计在电子电路的随机信号处理及实验中有着广泛的应用,通信工程中信号的接收和发射,都需要概率论与数理统计学的理论作为基础。因为,信号是信息的载体。信号源的输出都是随机的,怎样在随机信号中找出我们所需要的信息,就需要使用统计方法来描述。同时,对于接收者来说怎样从一个不缺定或不可预测的信号中获取我们所需要的信息,仍然需要再次利用统计学中的知识。根据概率论与数理统计中的知识所描述,事件的概率就是对于一次随机试验E,S是它的样本空间,那么对于随机试验E中的每一个事件A都赋予一个实数,记为P(A),这时,这个实数就是事件A的概率。我们知道一个事件的不确定性可以用事件出现的频率来描述,可能性越小,概率越小;反过来说,可能性越大,则概率就越大。由此就可以看出,信息中包含的信息量与事件发生的概率密切相关。在此,我们可以判断出,当一个事件的不确定性越小时,它所携带的信息量就越大,因为我们可以从中获得更多的信息。这个时候,我们设有一个函数,它满足对于一个事件的概率P(x),有对应的信息量I满足I=f[P(x)],由以上总结得出:1)P(x)越小,则I就越大;同样则有当P(x)越大时,I就越小。用数学式表达:P(x)→1时,I→0;P(x)→0时,I→.2)因为信息所包含的信息量可以用概率来表述,所以概率的基本性质例如相加性对于信息也是满足的。就是对于概率论来说,设,...,21AA是两两互不相容的事件,即对于AAji=Ø,i≠j,i,j=1,2,...,则......2121APAPAAPnnn通过类比可得出若干个相互独立事件所提供的信息量就等于个独立事件所提供的信息量之和,也就是所谓的信息的相加性,即......2121xxxxPIPIPPI由以上两点可以得出,信息量I与事件出现的概率P(x)的关系应满足一种数学关系,根据1)、2)可以知道信息量I与事件出现的概率P(x)的倒数成对数关系。此时,我们可以得出I与P(x)的对应关系,即I=xP1loga=-logaP(x)其中,a的取值可以用来判断信息量的单位。通过这个公式,我们对信息量做出了较为直观的描述,从而对信息做出度量,为信息的传输和处理奠定了基础。在信号的传输之前,我们需要对信号进行处理,这是因为对于信号源来说,它所发出的信号是一定的,但有时会具有较低的频谱分量,这种信号在很多信道中并不适合传输。因此,我们在信号传输之前需要对信号进行调幅。而需要调幅的信号就称为调幅(AM)信号。我们假设,一个调制信号m(t),叠加上直流A0后与可形成调幅(AM)信号。调幅信号的时域表示为sAM(t)=[A0+m(t)]cosct=A0cosct+m(t)cosct式中:m(t)为调制信号,它的均值为0;A0是常数,表示的是叠加的直流分量。AM信号在1电阻上的平均功率应该等于sAM(t)的均方值即为其平方的时间平均,即ttcAMAMtmAsPcos2220)(=ttmtttcccAmAcoscoscos20222202)(利用均方值可以很简单的计算出信号的总功率,通过改变高频载波的电流来改变低频谱分量,从而使原始的低频信号变换成为适合在信道中传输的已调信号,同时,也可以实现提高信号传输系统的抗干扰能力。由上文我们可以得出,信息具有不确定性,载有信息的信号是不可预测的,并且带有某种随机性,在信息的传输过程中,并非所有的信息都是有用的,而无用的那一部分,则被我们称为噪声。噪声更具有不确定性,并且也是不可预测的。在移动通信时,电磁波的传播路径在不断变化,同时,接收信号也是随机变化的。这时,通信中的信号源、噪声,以及信号传输特性都需要使用随机过程来描述。对于随机过程,我们可以知道它是一个给定的时间函数;同时,在给定的任一时刻t1,全体样本在t1时刻的取值t是一个不含t变化的随机变量。随机过程具有随机变量和时间函数的特点。随机过程的统计特性可以由分布函数和概率密度函数来描述,它可以分为一维、二维、...n维,当n越大时,则对随机过程的描述就越充分。同时我们也可以通过随机过程的数字特征(即均值、方差以及相关函数)更加简单直观的来描述随机过程的统计特性。随机过程的统计特性:1)一维分布函数2)一维概率密度函数3)二维分布函数和二维概率密度4)n维分布函数和n维概率密度函数随机过程的数字特征1)数学期望(均值或统计平均)设随机过程t在给定的时刻t1的取值t1是一个随机变量,起概率密度函数为txf111则t1的数学期望为xtxfxtdE111111,因为,t1使任意取得,所以可以将t1直接记为t,而x1可以直接写为x,这时,上式就变为随机过程在任意时刻的数学期望,所以上式可以写为dxtxxtEf,1对于均值性质如下:1)设C是常数,则有E(C)=C;2)设X是一个随机变量,C是常数,则有E(CX)=CE(X);3)设X和Y是任意两个随机变量,则有E(X+Y)=E(X)+E(Y);4)设X和Y是任意两个相互独立的随机变量,则有E(XY)=E(X).E(Y)。本性质可以推广至任意个相互独立的随机变量之积的情况。2)方差方差就是均放置与均值平方之差,它表示在随机时刻t对于均值的偏离程度。3)相关函数对于一维的概率密度函数用均值和方差就可以描述,对于二维概率密度函数的描述则仍需要引入概率论与数理统计学中的相关函数和协方差来对随机过程进行描述。协方差函数ttttttaaEB221121,=dxdxttxxftxtxaa212;12122211;,式中:t1、t2——为任意两个时刻;ta1、ta2——所选取的两个时刻所得到的数学期望;ttxxf2,1;2,12——二维概率密度函数。相关函数dxdxttxxfxxttttER212,1;2,1221212,1式中:t1、t2——任取的两个时刻;ttxxf2,1;2,12——二维概率密度函数通过这些就可以对随机过程进行描述。通过对随机信号的描述我们可以正确的对信号做出判断和处理。但是,在
本文标题:概率论与数理统计-课程论文
链接地址:https://www.777doc.com/doc-6369680 .html