您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 质量控制/管理 > 【安全课件】第4讲--shannon信息论
1第三章Shannon理论王滨2004年3月7日现代密码学解放军信息工程大学电子技术学院2香农简介香农(1916-2001),生于美国密执安州的加洛德。1940年获得麻省理工学院数学博士学位和电子工程硕士学位。1941年他加入了贝尔实验室数学部,在此工作了15年。现代密码学解放军信息工程大学电子技术学院3香农简介香农在信息论的领域中钻研了8年之久,终于在1949年在《贝尔系统技术杂志》发表了244页的长篇论著---《保密系统的通信理论》。次年,他又在同一杂志上发表了另一篇名著---《噪声下的通信》。现代密码学解放军信息工程大学电子技术学院4香农理论简介第一篇文章奠定了香农信息基本理论的基础。他在文中用非常简洁的数学公式定义了信息时代的基本概念:熵。“熵”的概念起源于热力学,是度量分子不规则热运动的单位。香农的伟大贡献在于,利用概率分布的理论给出“熵”的严格定义。根据香农的定义,确定发生的事件如“太阳从东边升起”与确定不发生的事件如“太阳从西边升起”,其熵都是零。只有当发生与不发生的概率相同时,事件的熵才达到极大。现代密码学解放军信息工程大学电子技术学院5香农理论简介在熵的基础上定义的信道容量也是通讯中一个至关重要的概念。由此,香农推出了一个公式,明确表达了在不同噪声情况下传输速率与失真的定量关系。从这一个公式导出的为达到无失真通讯的传输速率的极限,现已称为香农极限。打个比方来说,在周围干扰严重的情况下,要想使对方听清楚,你就只有慢慢地讲,甚至还要不断重复。现代密码学解放军信息工程大学电子技术学院6香农理论应用如今,这两个原理已广泛应用于信息处理和实际通信中。只要涉及信息的压缩与传递,就要用到香农的理论。PC机上常用的WinZip(无损压缩算法)手机通讯(有损压缩无损压缩,纠错)在因特网上传递多媒体数据(MP3音乐压缩格式)现代密码学解放军信息工程大学电子技术学院7第三章Shannon保密理论密码体制的数学模型随机事件的熵及其性质现代密码学解放军信息工程大学电子技术学院8通信系统信源编码器解码器接收者干扰源信道设计目的:在信道有干扰的情况下,使得接收者接收到的信息无差错或差错尽可能的小。现代密码学解放军信息工程大学电子技术学院9保密系统现代密码学解放军信息工程大学电子技术学院10保密系统设计目的:使得窃听者即使完全准确地接收带了信道上传输的信号也无法恢复出原始的信息。现代密码学解放军信息工程大学电子技术学院11密码体制的数学模型明文(离散信源)空间的统计特性:无记忆和有记忆密钥源通常是无记忆的,并且满足均匀分布密文空间的统计特性由明文空间和密钥空间的统计特性决定假定信道无干扰,假定分析者能够截获密文,且知道所用的密码体制以及明文空间和密钥空间的统计特性现代密码学解放军信息工程大学电子技术学院12§3.2随机事件的熵及其性质主要内容:•如何定量刻划一个随机事件包含的信息量用熵的概念!•熵(entropy)这个数学工具自身的理论.现代密码学解放军信息工程大学电子技术学院13何为信息?什么能提供信息?•我将你原来不知道的结果告诉你,就是提供了信息!例1当我给你一封信时,你就从我这里获得了信息,因为你事先并不知道其中的内容。例2设电脑彩票由8个10进制数组成.在开奖之前,我们不知道特等奖号码的信息,因为特等奖的号码是不确定。特等奖号码的信息只有在开奖时才获得。一旦开奖,就获得了8个十进制数的信息。这就是说,将未知的变成已知的时就获得了信息!信息寓于不确定之中!现代密码学解放军信息工程大学电子技术学院14信息量•我向你提供的信息量的大小就是你事先不知道结果的程度!也即是信息的不确定度。•如果你事先全知道了,说明我提供的信息量等于0;•如果你事先一无所知,说明我提供的信息量最多.•不知道意味着在我告诉你之前你只能猜测!•猜测就是按照每个可能结果的出现概率进行猜测!•因此,你只知道这个事情的每个结果的发生概率!•所以,我提供的信息量就是由你事先知道的每个可能结果的发生概率(即随机事件的概率分布)决定.现代密码学解放军信息工程大学电子技术学院15简单地说,信息就是:(1)当未知的变成已知的之后获取的信息;(2)当未知的还没变成已知之前包含的未知信息.信息寓于不确定之中!谁的信息!通常的信息是指:(1)一个实验提供的信息;(2)一个随机事件包含的信息;(3)一个随机变量包含的信息.其中(1)和(2)的含义相同,它们比(3)的意义更加广泛.现代密码学解放军信息工程大学电子技术学院16随机事件和随机变量定义1:设一个实验有共n个可能的结果,则每个可能结果都称为一个事件。这个实验也称为一个随机事件。性质1:设X是一个离散随机变量,它有n个可能的取值,设每种取值出现的概率为p(xi),则nAAA,,,21niixp11)(nxxx,,,21现代密码学解放军信息工程大学电子技术学院17一、随机事件的熵一个事件可能发生,也可能不发生!但我们总在每个事件发生的概率都已知的条件下分析!iA)(iAp这个实验提供的信息就是:(1)实验前该实验所包含的未知信息;(2)实验后这个实验所提供的信息.如何对信息量的大小进行定量刻划?再看一下彩票的例子.现代密码学解放军信息工程大学电子技术学院18例3设电脑彩票由8个10进制数组成,在开奖之前,108个可能号码成为特等奖的概率相同,都是10-8.一旦开奖,我们就知道了特等奖的8个具体号码,因而就获得了8个十进制数的信息。我们获得的信息量与开奖前每个可能号码成为特等奖的概率10-8有何关系?显然,有8=-log1010-8信息量的定量刻划:定义2设是一个实验中事件发生的概率,则称为事件包含的自信息量.iA)(iAp)(log)(iiApAIiA现代密码学解放军信息工程大学电子技术学院19熵的数学定义定义3.1(随机事件的熵):设一个实验X有共n个可能的结果,则称的数学期望为实验X的熵(Entropy).其中约定0log0=0.nxxx,,,21)(log)(iixpxIniiiniiixpxpxIxpXH11)(log)()()()(现代密码学解放军信息工程大学电子技术学院20因此,一个实验的熵就是该实验的每个可能结果包含的自信息量的平均值!熵的单位与对数的底有关!约定对数的底大于1!当以2为底时,其单位称为比特(bit);当以10为底时,其单位称为迪特(Det);现代密码学解放军信息工程大学电子技术学院21例5设一个实验有a和b两个可能的结果,且实验结果是a和b的概率分别为1/4和3/4,试计算该实验的熵.)](log)()(log)([22bpbpapapH解:根据熵的定义,有301.0477.0432]43log4341log41[22)]23(log43)2(41[2232log3log43211010811.0解毕现代密码学解放军信息工程大学电子技术学院22)2(2)()(yxfyfxf下面介绍熵的性质.定义3.4一个实值函数f称为在区间I上是凸的,Iyx,如果对任意的,都有yxIyx且,如果对任意的,都有)2(2)()(yxfyfxf则称f称为在区间I上是严格凸的.现代密码学解放军信息工程大学电子技术学院23引理3.1(Jensen不等式)设f是区间I上的一个连续的严格凸函数,并且,则有且上述等号成立的充要条件是121naaa0ia)()(11niiiniiixafxfanxxx21,1ixIin现代密码学解放军信息工程大学电子技术学院24推论1f(x)=logbx(b1)在区间x0时是严格凸的,因而当实数满足且有:nppbniibiloglog1121nppp0ipnppp,,,21且等号成立的充要条件是诸pi全相等.证明:注意此推论中条件与Jensen不等式中条件不同,故证明如下。0ip0ia现代密码学解放军信息工程大学电子技术学院25niibipp1log证明)1(log1miiibppmiibipp11log(记,)iipaiipx/1miibixa1log)1(log1mib)(log1miiibxa021nmmppp不妨设都0,且mppp,,,21)()(11miiimiiixafxfa则由Jensen不等式知mblognblog显然,当时等号不成立;nmnm时,只有当诸全相等时,等号才成立.当ip1现代密码学解放军信息工程大学电子技术学院26定理3.1设b1,则有且ij,都有;0)(ixp(2)当且仅当i;1)(nxpinXHblog)(,都有(1))(0XH;lognbniibixpxp1)(log)((3)当且仅当存在nii1:使得1)(ixp0)(XH证明(1)由可知0)(logibxp0)(XH)(XH;lognbniibixpxp1)(log)(故(1)成立.(2)由Jensen不等式的推论1可知(2)成立.,再由Jensen不等式的推论1现代密码学解放军信息工程大学电子技术学院270nttbtxpxpXH1)(log)()((3)充分性:此时)(log)(ibixpxp必要性:由于诸0)(log)(tbtxpxp设H(X)=0.若存在t,使,则0)(log)(tbtxpxp1,0)(txp,从而0)(XH两个值,该矛盾说明诸只能取0和1这)(txp因而必要性成立..矛盾!现代密码学解放军信息工程大学电子技术学院28定理3.1说明:(1)结果确定的随机事件不提供信息量,因而提供的信息量最少!(2)可能结果等可能发生的随机事件提供的包含的信息量最大!这与我们的直觉是一致的!现代密码学解放军信息工程大学电子技术学院29现实中的事件都不是孤立的!很多随机事件之间都有相互的联系和影响!那么,如何刻划和研究多个随机事件相互提供的信息呢?这就要引入两个实验的联合熵条件熵互信息等概念!现代密码学解放军信息工程大学电子技术学院30因此,实验X与实验Y的联合熵(JointEntropy)就是事件(xi,yj)的自信息量的数学期望.它反映了联合分布p(x,y)包含的信息量.定义3.2(联合熵):实验X与实验Y的可能结果分别为和,定义X与Y的联合熵为nimjjijinimjjijiyxpyxpyxIyxpYXH1111),(log),(),(),(),(nxxx,,,21myyy,,,21现代密码学解放军信息工程大学电子技术学院31定义3.3(条件熵):实验X与实验Y的可能结果分别为和.定义X与Y的条件熵为nxxx,,,21myyy,,,21(1)称为在实验Y的结果为yj的条件下,事件xi的条件自信息量.)|(log)|(jijiyxpyxI为在实验Y的结果为yj的条件下,实验X的条件熵.nijiinijiijyxpxpyxIxpyXH11)|(log)()|()()|((2)称现代密码学解放军信息工程大学电子技术学院32(3)称nimjjijinimjjijiyxpyxpyxIyxpYXH1111)|(log),()|(),()|(为在实验X关于实验Y的条件熵.反映了)|(jyXHY的结果是yj条件下,实验X包含的信息量.)|(YXH反映了Y的结果已知条件下,实验X平均包含的信息量.现代密码学解放军信息工程大学电子技术学院33联合熵与各自的熵的关系定理3.2)()(),(YHXHYXH且等号成立的充要条件是X与Y独立.两个实验提供的信息总量一定不超过这两个实验分别提供的信息量之和;当且仅当两个实验独立时,二者才相等.直观含义:现代密码学解放军信息工程大学电子技术学院34)()(YHXH证明(1)因nimjjijiyxpyxpYXH11),(log),(),(,故有ni
本文标题:【安全课件】第4讲--shannon信息论
链接地址:https://www.777doc.com/doc-1251434 .html