《多媒体技术》电子教案:多媒体数据压缩编码技术.doc

《多媒体技术》电子教案:多媒体数据压缩编码技术.doc

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
PAGE PAGE 9 教师授课教案 / 学年 第 学期 课程 多媒体技术 章节课题 第三章 多媒体数据压缩编码技术 授课方法 讲授 所需教具 授课时间 月 日 节 月 日 节 月 日 节 授课班级 目的要求: 了解数据压缩的基本原理 旧知复习:多媒体数据的特点 重点难点:数据压缩的基本原理 教学过程:(包括主要教学环节、时间分配) 复习提问(5分) 讲授新课 数据压缩技术概述(20分) 统计编码(40) 预测编码(20分) 总结(3分) 布置作业(2分) 课后作业:P254 一、3 二、3 教学后记: 任课教师: 教研室主任 新课导入:在多媒体信息中包含有大量冗余的信息,把这些冗余信息去掉,实现了压缩。 第3章 多媒体数据压缩编码技术 多媒体数据的特点: 数据量巨大 数据类型多 数据类型间区别大 多媒体数据的输入输出复杂 多媒体数据压缩编码的重要性 数据两巨大:存储、传输、处理耗时耗空间 多媒体数据压缩的可能性 在多媒体信息中包含有大量冗余的信息,把这些冗余信息去掉,实现了压缩。 冗余信息包括: 空域相关:在每一帧的相邻像素之间相关性很大,有很大的信息冗余量 时域相关:相邻帧之间存在很大的信息冗余量 视觉掩盖效应 数据压缩技术的三个指标 压缩前后所需的信息存储量之比要大 实现压缩的算法要简单 恢复效果要好 六、数据压缩的基本原理 有40余年历史,常用压缩编码方法: 冗余压缩法(无损压缩):就是信息保持编码或熵编码。具体讲就是解码图像和压缩编码前的图像严格相同,没有失真,从数学上讲是一种可逆运算。 有损编码(熵压缩法):失真度编码或熵压缩编码。也就是讲解码图像和原始图像是有差别的,允许有一定的失真 应用在多媒体中的图像压缩编码方法,从压缩编码算法原理上可以分类为: (1)无损压缩编码种类 哈夫曼编码 算术编码 行程编码 Lempel zev编码 (2)有损压缩编码种类 预测编码:DPCM,运动补偿 频率域方法:正文变换编码(如DCT),子带编码 空间域方法:统计分块编码 模型方法:分形编码,模型基编码 基于重要性:滤波,子采样,比特分配,矢量量化 (3)混合编码 JBIG,H261,JPEG,MPEG等技术标准 八、变长编码 使用长度可变的代码来对以不同频率出现的样本进行编码,主要用于消除代码冗余。 HUFFMAN编码:对统计独立信源达到最小平均码长的编码方法。原理:对代码长度不均匀的编码,按信源符号出现的概率大小进行排序,出现概率大的分配短码,出现概率小的则分配长码 霍夫曼编码是可变字长编码(VLC)的一种。 Huffman于1952年提出一种编码方法,该方法完全依据字符出现概率来构造异字头的平均长 度最短的码字,有时称之为最佳编码,一般就叫作Huffman编码。下面引证一个定理,该定 理保证了按字符出现概率分配码长,可使平均码长最短。 定理:在变字长编码中,如果码字长度严格按照对应符号出现的概率大小逆序排列,则其平 均码字长度为最小。 现在通过一个实例来说明上述定理的实现过程。设将信源符号按出现的概率大小顺序排列为 : U: ( a1 a2 a3 a4 a5 a6 a7 ) 0.20 0.19 0.18 0.17 0.15 0.10 0.01 给概率最小的两个符号a6与a7分别指定为“1”与“0”,然后将它们的概率相加再与原来的 a1~a5组合并重新排序成新的原为: U′: ( a1 a2 a3 a4 a5 a6′ ) 0.20 0.19 0.18 0.17 0.15 0.11 对a5与a′6分别指定“1”与“0”后,再作概率相加并重新按概率排序得 U″:(0.26 0.20 0.19 0.18 0.17)… 直到最后得 U″″:(0.61 0.39) 分别给以“0”,“1”为止 } 霍夫曼编码的具体方法:先按出现的概率大小排队,把两个最小的概率相加,作为新的概率 和剩余的概率重新排队,再把最小的两个概率相加,再重新排队,直到最后变成1。每次相 加时都将“0”和“1”赋与相加的两个概率,读出时由该符号开始一直走到最后的“1”, 将路线上所遇到的“0”和“1”按最低位到最高位的顺序排好,就是该符号的霍夫曼编码。 例如a7从左至右,由U至U″″,其码字为0000; a6按践线将所遇到的“0”和“1”按最低位到最高位的顺序排好,其码字为0001… 用霍夫曼编码所得的平均比特率为:Σ码长×出现概率 上例为: 0.2×2+0.19×2+0.18×3+0.17×3+0.15×3+0.1×4+0.01×4=2.72 bit 可以算出本例的信源熵为2.61bit,二者已经是很接近了。 算术编

文档评论(0)

xieliandimei + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

认证主体谢**

1亿VIP精品文档

相关文档

相关课程推荐