您好,欢迎访问三七文档
当前位置:首页 > 中学教育 > 初中教育 > 信息论与编码[第二章离散信源及其信息测度]山东大学期末考试知识点复习
山东大学期末考试知识点复习第二章离散信源及其信息测度2.1.1信源的分类信源是信息的来源,是产生消息或消息序列的源泉。不同的信源输出的消息其随机性质不同。根据消息所具有的随机性质的不同,对信源进行如下分类:按照消息取值集合以及取值时刻集合的离散性和连续性,信源可分为离散信源(数字信源)和波形信源(模拟信源);按照某取值时刻消息的取值集合的离散性和连续性,信源可分为离散信源和连续信源;按照信源输出消息所对应的随机序列的平稳性,信源可分为平稳信源和非平稳信源;按照信源输出的信息所对应的随机序列中随机变量前后之间有无统计依赖关系,信源可分为无记忆信源和有记忆信源。2.1.2基本信源的数学模型根据信源输出消息所对应的不同的随机特性就有不同的信源数学模型。而基本的信源数学模型有以下几种。1.离散信源信源输出的是单个符号或代码的消息,信源符号集的取值是有限的,或可数的,可以用一维离散型随机变量来描述。信源的数学模型就是离散型随机变量x的概率空间,表示为山东大学期末考试知识点复习2.连续信源信源输出的是单个符号或代码的消息,但信源符号集的取值是连续的,可以用一维连续型随机变量来描述。相应的信源的数学模型就是连续型随机变量的概率空间,表示为其中(a,b)是连续随机变量X的取值区间,R表示全实数集,而p(x)是连续随机变量X的概率密度函数。2.1.3离散信源的信息熵1.自信息自信息即为某事件ai发生所含有的信息量。事件的自信息定义为式中P(ai)是事件ai发生的概率。自信息的单位有几种:以2为底的对数时单位是比特(bit);以e为底的自然对数时单位是奈特(nat);以10为底的常用对数时单位是哈特(hart)。2.信息熵离散随机变量X的信息熵就是其概率空间中每个事件所含有的自信息量的数学期望,即山东大学期末考试知识点复习其单位是:以2为底的对数时是比特/符号(bit/symbol);以e为底的对数时是奈特/符号(nat/symbol);以10为底的对数时是哈特/符号(hart/symbol)。3.信息熵的物理含义(1)信息熵H(X)表示了信源输出前,信源的平均不确定性;(2)信息熵H(X)表示了信源输出后,每个消息或符号所提供的平均信息量;(3)信息熵H(X)反映了随机变量X的随机性。2.1.4信息熵的基本性质2.确定性若信源符号集中,有一个符号几乎必然出现,其他符号几乎不可能出现,即该信源为一个确知信源,则信息熵等于零。H(1,0)=H(1,0,0)=…=H(1,0,0,…,0)=03.非负性信息熵是非负的,即H(X)≥0山东大学期末考试知识点复习4.扩展性若信源符号集中增加了若干符号,当这些符号出现的概率很小时,信源的熵不变。5.可加性统计独立的两个信源X和Y,有H(XY)=H(X)+H(Y)6.强可加性任意两个相互关联的信源X和Y,其联合熵等于信源X的熵加上在X已知条件下信源Y的熵,或等于信源Y的熵加上在Y已知条件下信源X的熵。H(XY)=H(X)+H(Y|X)或H(XY)=H(Y)+H(X|Y)7.递增性若原信源中某一个符号划分成m个符号,这m个符号的概率之和等于原某一符号的概率,则由于符号个数增多而产生新的不确定性,新信源的熵增加了。8.极值性(即最大离散熵定理)山东大学期末考试知识点复习2.1.5离散无记忆扩展信源的信息熵1.离散无记忆扩展信源的数学模型若信源输出的消息是取值离散的平稳随机序列,并且序列中各随机变量之间彼此统计独立则此信源称为平稳离散无记忆信源。离散无记忆信源的数学模型与基本离散信源的数学模型相同,也用[X,P(x)]概率空间来描述。离散无记忆信源X的N次扩展信源记为XN,它的输出消息由N个符号序列组成,并且前后符号的出现是彼此无依赖的、统计独立的。它的数学模型是[X,P(x)]的N重概率空间[XN,P(αi)]。2.离散无记忆扩展信源的信息熵信源XN的信息熵与信源X信息熵的关系为H(XN)=NH(X)山东大学期末考试知识点复习2.1.6离散平稳信源的信息熵1.离散平稳信源的数学模型若信源输出的消息是取值离散的随机序列,随机序列的任意有限维的概率分布不随时间平移而改变,则称为离散平稳信源。又根据随机序列中各随机变量有否依赖关系分有记忆信源和无记忆信源。N维离散平稳无记忆信源就是离散无记忆的扩展信源XN。而N维离散平稳有记忆信源X的数学模型为2.离散平稳信源的信息测度(1)联合熵(2)平均符号熵离散平稳信源输出N长的信源符号序列中平均每个信源符号所携带的信息量称为平均符号熵,记为HN(X),则有山东大学期末考试知识点复习HN(X)=(1/N)H(X1X2…XN)(3)条件熵随机序列X1X2的联合符号集上的条件自信息量的数学期望为条件熵,记为H(X1|X2),它表示已知前面一个符号(X1发出)时,信源将要输出下一个符号(X2发出)的平均不确定性。则有山东大学期末考试知识点复习2.1.7马尔可夫信源及其信息熵1.马尔可夫信源的定义马尔可夫信源是一类有限长度记忆的非平稳离散信源,信源输出的消息是非平稳的随机序列,它们的各维概率分布可能会随时间的平移而改变。若信源输出的符号和信源所处的状态满足马尔可夫链的条件:山东大学期末考试知识点复习(1)某一时刻信源输出的符号只与此刻信源所处的状态有关,而与以前的状态和输出的符号无关;(2)信源某l时刻所处的状态只由当前输出的符号和前一时刻信源的状态唯一决定。则此信源称为马尔可夫信源。若上述两条件与时刻z无关,则具有时齐性(齐次性),称为时齐马尔可夫信源。2.时齐遍历马尔可夫信源的信息熵时齐遍历马尔可夫信源,若状态的马尔可夫链的极限概率存在,它的信息熵为3.m阶马尔可夫信源及其信息熵该信源是常见的马尔可夫信源。此信源任一时刻符号发生的概率只与前面m个符号有关,而与更前面的符号无关,即依赖长度为m+1。山东大学期末考试知识点复习注意:4.马尔可夫信源信息熵的求解步骤一般求解马尔可夫信源信息熵分为三个步骤:(1)根据题意画出状态转移图,判断是否为时齐遍历马尔可夫信源;(2)根据状态转移图写出一步转移概率矩阵,计算信源的极限概率Q(Ei);(3)根据一步转移概率矩阵和极限概率Q(Ei)计算信源的信息熵。2.1.8信源剩余度根据最大离散熵定理,离散信源的符号为等概率分布时,信息熵有最大值,记为H0。对于离散信源有山东大学期末考试知识点复习H∞≤…≤Hm+1≤Hm≤…≤H2≤H1≤H0为了衡量信源的相关性程度,引入信源剩余度的概念。(1)熵的相对率ηη=H∞/H0(2)信源剩余度γ=1-η=1-H∞/H0信源输出符号之间依赖关系越长,相关性就越强,信息熵H∞就越小,信源的剩余度也就越大。信源剩余度是进行无失真信源压缩编码的理论依据。它表示了信源可以无失真压缩的程度。减少或消除信源剩余度可提高信息传输效率;而增加剩余度可提高信息传输抗干扰能力。
本文标题:信息论与编码[第二章离散信源及其信息测度]山东大学期末考试知识点复习
链接地址:https://www.777doc.com/doc-5330946 .html