您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 管理学资料 > 第九章 图像压缩与编码
第九章图像压缩与编码1图像压缩与编码概述2图像编码方法原理3图像压缩编码国际标准简介§1概述图像处理的目的除了改善图像的视觉效果外,在保证一定视觉质量的前提下减少数据量,从而减少图像传输所需要的时间。减少一幅图像所需要的数据量,这就是图像编码要解决的主要问题,因此,常称图像编码为图像压缩。数据和信息是不同的概念,数据是信息的载体,对给定量的信息可用不同的数据量来表示。对给定量的信息,设法减少表达这些信息的数据量称为数据压缩。§1概述数字图像通常要求很大的比特数,这给图像的传输和存储带来相当大的困难。要占用很多的资源(费用高)。如一幅512x512的灰度图像的比特数为8512x512x8=2,097,152bit2,097,152bit=256k256k。再如一部90分钟的彩色电影,每秒放映24帧。每帧512x512象素,每象素的RR、GG、BB三分量分别占8bit,总比特数为:90x60x24x3x512x512x8bit=97,200M97,200M图像压缩与编码90x60x24x3x512x512x8bit=97,200M97,200M。CD650-700M字节存储容量160160张普通DVD4.7G2020张对图像数据进行压缩显得非常必要。本章讨论的问题:在满足一定条件下,能否减小图像bit数(压缩),以及用什么样的方法使之减少(编码)。图像压缩与编码1.图像数据压缩是可能的:冗余数据一般原始图像中存在大量的冗余数据。用户通常允许图像失真。用户不是对原始图像的全都感兴趣,可用特征提取和图像识别的方法,丢掉大量无用的信息。提取有用的信息,使必须传输和存储的图像数据大大减少。图像压缩编码的可行性图像数据可以进行压缩有几个方面的原因。首先,原始图像数据是高度相关的,存在很大的冗余度。数据冗余造成比特数浪费,消除这些冗余可以节约码字,也就达到了数据压缩的目的。1)空间冗余度:大多数图像内相邻像素之间有较大的相关性。2)时间冗余度:序列图像前后帧之间的较大的相关性。3)频率域冗余度:多光谱遥感图像各谱间有相关性。4)符号冗余度:若用相同码长表示不同出现概率的符号也会造成比特数的浪费,这种浪费称为符号冗余度。如果采用可变长编码技术,对出现概率高的符号用短码字表示,对出现概率低的符号用长码字,就可消除符号冗余度,从而节约码字。5)视觉冗余度:允许图像编码有一定的失真也是图像可以压缩的一个重要原因。在许多应用场合,并不要求经压缩及复原以后的图像和原图像完全相同,而允许有少量失真。只要这些失真并不被人眼所察觉,在许多情况下是完全可以接受的。这种有失真的编码提供了十分有利的条件。6)知识冗余度:在某些特定的应用场合,编码对象的某些特性可预先知道。例如,在可视电话中,编码对象为人的头肩像。这时,可以利用对编码对象的先验知识为编码对象建立模型。通过提取模型参数,对参数进行编码而不对图像直接进行编码,可以达到非常高的压缩比。这是模型编码的基本思想。压缩数据的重要方法是消除冗余数据,从数学角度来说是要将原始图像转化为从统计角度看尽可能不相关的数据集。彩色图像空间冗余一幅图像表面上各采样点的颜色之间往往度都是相同的,因此数据有很大的空间冗余。如,在静态图像中有一块表面颜色均匀的区域,此区域中所有点的光强和色彩以及饱和存在着空间连贯性。图像内部相邻像素之间的相关性所造成的冗余。图像压缩与编码2.原始图像越有规则,各像素之间的相关性越强,可能压缩的数据就多。3.全面评价一种编码方法的优劣,除了看它的编码效率编码效率、实时性实时性和失真度失真度以外,还要看它的设备复杂程度设备复杂程度,是否经济与实用经济与实用。图像压缩与编码目的:在满足一定图像质量条件下,用尽可能少的比特数来表示原始图像,以提高图像传输的效率和减少图像存储的容量。图像压缩与编码分类: 信息保存型(无损编码):常用于图像存档,在压缩和解压缩过程中没有信息损失。如医学图像,但压缩率不高(2-10之间)。 信息损失型(有损编码):图像经过压缩后不能通过解压缩恢复原状,用于允许有信息损失的场合。如:数字电视、可视电话等,但压缩率高。一.信息量从N个相等可能性的事件中,选出其中一个事件所需的信息度量,称为信信息量息量。§2.基本概念要辨识1到32中选定的某一个数,可先提问:“是否大于16?”,得到回答就消去半数可能事件。每提问一次得到回答,可以得到1bit信息量(二进制位)。这里共需5次,因此所需的信息量为。532log2=从N个数选定一个数s的概率为p(s),且等概率,p(s)=1/N。二二..熵:熵:设信源符号表为s={s1,s2,…,sq},其概率分布为P(s)={p(s1),p(s2),…,p(sq)},则信源的熵熵为以2为底,单位是比特)(log1loglog)(222spNNsI−=−==∑=−=qiiispspH12)(log)()(s定义信息量定义信息量::s作为灰度,共q级,出现概率均等时,p(si)=1/q,当灰度只有两级时,即si=0,1,且0出现概率为p1,1出现概率为p2=1-p1,其熵qqqHqi212log1log1)(=−=∑=s12112111log)1(1log)(ppppH−−+=s二二..熵:熵:反映图像中平均信息量的多少。反映图像中平均信息量的多少。在数值上等于为描述随机变量所需要的在数值上等于为描述随机变量所需要的平均比特数。平均比特数。(1)熵是一个非负数,即总有H(s)≥0。(2)当其中一个符号sj的出现概率p(sj)=1时,其余符号si(i≠j)的出现概率p(si)=0,H(s)=0。(3)当各个si出现的概率相同时,则昀大平均信息量为log2q。(4)熵值总有H(s)≤log2q。熵的性质:熵的性质:三三..无失真编码定理无失真编码定理可以证明,在无干扰的条件下,存在一种无失真的编码方法,使编码的平均长度L与信源的熵H(s)任意地接近,即L=H(s)+ε,其中ε为任意小的正数,但以H(s)为其下限,即L≥H(s),——香农香农(Shannon)(Shannon)无失真编码无失真编码定理定理。Lε+=)(sHL)(sHL≥四.冗余度冗余度对于无失真图像的编码,原始图像数据的压缩存在一个下限,即平均码字长度不能小于原始图像的熵,而理论上的昀佳编码的平均码长无限接近原始图像的熵。1)(1−=−=sHLr原始图像的熵原始图像平均码长1.编码效率编码效率定义为:rLsH+==11)(η冗余度接近于0,或编码效率接近于1的编码称为高效码高效码。五五..其他其他若原始图像的平均比特率为n,编码后的平均比特率为nd,则压缩比压缩比C为:dnnC=由Shannon定理,无损编码昀大可能昀大可能的数据压缩比的数据压缩比为:)()(sHnsHnCM≈+=ε2.2.压缩比压缩比§3.简单无损编码方法-6-3无干扰编码定理只指出存在一种无失真的编码,可使。它并没有指出具体的编码方法。下面介绍简单的无损编码方法—HuffmanHuffman编码(霍夫曼编码编码(霍夫曼编码))ε+=)(sHL一一.Huffman.Huffman码码•它是长度不均匀的(变长编码),其平均长度昀短的即时可译码。•其要点是对经常出现的符号赋予昀短的码字,然后按出现概率减少的次序,逐个赋予较长的码字•码的平均长度具有昀小值∑==qiiilpL1pi--si出现概率,li--对si编码的长度。信号源信号源ss={s={s11,s,s22,s,s33,s,s44,s,s55,s,s66}},,其概率其概率分布为分布为pp11=0.4p=0.4p22=0.3p=0.3p33=0.1p=0.1p44=0.1=0.1pp55=0.06p=0.06p66=0.04=0.04,,求昀佳求昀佳HuffmanHuffman码。码。方法:方法:缩减信源数量缩减信源数量------给信源赋值给信源赋值i.将信源符号按出现概率从大到小排成一列,把昀末两个符号的概率相加,合成一个概率.ii.把这个符号的概率与其余符号的概率按从大到小排列,然后再把昀末两个符号的概率加起来,合成一个概率.iii.重复上述做法,直到昀后剩下两个概率为止.iv.从昀后一步剩下的两个概率开始逐步向前进行编码。每步只需对两个分支各赋予一个二进制码,如对概率大的赋予码元0,对概率小的赋予码元1。Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.4Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S1=1Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S2=00Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S3=011Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S4=0100Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S5=01010Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S6=01011输入S1S2S3S4S5S6ηrCH(s)概率0.40.30.10.10.060.04L输入S1S2S3S4S5S6ηrCH(s)概率0.40.30.10.10.060.04霍夫曼码100011010001010010112.20.9750.0251.362.14LHuffman编码讨论: Huffman编码是唯一可译码。短的码不会成为更长码的启始部分; Huffman编码的平均码长接近于熵; 缺点:与计算机的数据结构不匹配; 缺点:需要多次排序,耗费时间。二.其他方法香农编码法(Fano-Shannon)(1)Fano-Shannon编码是唯一可译码。短的码不会成为更长码的启始部分;(2)Fano-Shannon编码的平均码长接近于熵;编码效率略低于Huffman编码。香农-
本文标题:第九章 图像压缩与编码
链接地址:https://www.777doc.com/doc-6009669 .html