注册 | 登录读书好,好读书,读好书!
读书网-DuShu.com
当前位置: 首页出版图书教育/教材/教辅考试研究生入学考试应用信息论基础

应用信息论基础

应用信息论基础

定 价:¥26.00

作 者: 朱雪龙编著
出版社: 清华大学出版社
丛编项: 信息技术丛书
标 签: 暂缺

ISBN: 9787302041542 出版时间: 2001-03-01 包装: 精装
开本: 23cm 页数: 352 字数:  

内容简介

  本书被教育部研究生工作办公室推荐为全国研究生教学用书。本书从基本概念、基本方法和基本应用三个方面较系统地介绍了信息理论。全书共分9章。除第1章概述和第2章基本概念外,第3章至第6章分别介绍信源的冗余度压缩编码、熵压缩编码和信道的容量与信道编码。第7章讨论最大熵与最小鉴别信息原理及其应用。非统计意义下的信息理论在第8章中讨论,内容包括组合信息、算法信息与通用编码。最后在第9章中简要介绍了通信网中的信源编码与信道容量问题。书末附有习题。本书的特点是既重视基础理论,又面向实际应用。既讲述成熟的原理又适当介绍发展中的前沿课题。本书可供高等学校与科研院所作研究生教学用书使用,也可供有关科技人员在学习专业基础理论时参考。

作者简介

暂缺《应用信息论基础》作者简介

图书目录

第1章 信息论与信息论方法概述
1.1 信息、信息科学和信息论
1.2 信息论方法的应用及其取得的成果
1.3 信息论的形成与发展
1.3.1 通信技术的理论基础
1.3.2 统计数学的一个分支
1.3.3 信号与信息处理的一般理论基础
第2章 信息论的基本概念
2.1 离散熵
2.1.1 熵的定义
2.1.2 熵函数的性质
2.1.3 熵函数形式的唯一性
2.1.4 联合熵与条件熵
2.2 离散互信息
2.2.1 互信息的定义
2.2.2 多个随机变量下的互信息
2.2.3 互信息函数的性质
2.3 连续随机变量下的熵与互信息
2.3.1 连续随机变量下的微分熵
2.3.2 随机变量函数的微分熵
2.3.3 连续随机变量下的互信息
2.4 鉴别信息
2.4.1 鉴别信息的定义
2.4.2 Kullback与香农两种信息量度之间的关系
2.4.3 鉴别信息的性质
2.4.4 鉴别信息函数形式的唯一性
2.5 对信息论基本概念的若干评注
习题
第3章 信源的熵率、冗余度与冗余度压缩编码
3.1 信源、信源模型与信源编码
3.1.1 信源
3.1.2 信源模型
3.1.3 信源编码
3.2 离散稳恒信源的熵率与冗余度
3.3 离散无记忆信源的渐近等同分割性与信源的定长编码定理
3.3.1 渐近等同分割性
3.3.2 定长编码定理
3.4 离散无记忆信源的变长编码
3.4.1 前缀码与Kraft定理
3.4.2 唯一可译码定理
3.5 变长编码的平均码长与最优编码
3.5.1 变长编码的平均码长
3.5.2 最优编码
3.6 离散无记忆信源的变长树码
3.6.1 算术码
3.6.2 算术码的存在性
3.7 离散马尔可夫信源的熵率
3.7.1 马尔可夫链的基本概念
3.7.2 离散马尔可夫信源熵率的计算
3.8 离散马尔可夫信源的编码定理与最优编码
习题
第4章 信道、信道容量与信道的有效利用
4.1 信道、信道模型与信道分类
4.1.1 信道
4.1.2 信道模型与信道分类
4.2 离散无记忆信道及其信道容量
4.3 离散无记忆信道容量的计算
4.3.1 信道容量解的充要条件
4.3.2 某些简单情况下信道容量的解
4.3.3 一般情况下信道容量的解
4.3.4 信道容量的迭代解法
4.4 级联信道和并联信道的信道容量
4.4.1 级联信道
4.4.2 并联信道
4.5 信道达到充分利用时输入输出字母概率分布的唯一性
4.6 连续信道的信道容量
4.6.1 无记忆加性噪声信道的信道容量费用函数
4.6.2 无记忆加性高斯噪声信道的信道容量费用函数
4.6.3 一般无记忆加性噪声信道的信道容量费用函数的界
4.6.4 无记忆加性高斯噪声信道的级联和并联
4.7 模拟信道的信道容量
4.7.1 模拟随机信号的正交展开
4.7.2 模拟信道下的信道容量费用函数及其计算
4.8 限带加性白色高斯噪声信道的极限性能及其与传输要求的匹配
4.8.1 限带加性白色高斯噪声信道的性能及其极限
4.8.2 信道与信息传输要求的匹配
4.9 限带模拟信道的数字化
4.10 蜂窝移动通信条件下信道的有效利用
4.10.1 蜂窝移动通信与系统的频谱利用效率
4.10.2 不同接入方法下蜂窝移动通信系统的频谱利用效率及其比较
习题
第5章 信道编码
5.1 信道编码概述
5.2 信道译码准则
5.3 联合典型序列与联合渐近等同分割定理
5.4 信道编码定理
5.5 信道编译码方法的最初范例——汉明码
5.6 分组码之一:线性码
5.6.1 线性码的定义、编码与生成多项式
5.6.2 线性码的伴随式与伴随式译码
5.7 分组码之二:循环码
5.7.1 循环码的定义
5.7.2 循环码的编码与生成多项式
5.7.3 循环码的伴随式与译码原理
5.8 树码、网格码与卷积码
5.9 关于信道编码理论的若干评注
习题
第6章 信源的信息速率失真函数与熵压缩编码
6.1 熵压缩编码和信源的信息速率失真函数
6.1.1 熵压缩编码
6.1.2 离散无记忆信源的熵压缩分组编码及信源的信息速率失真函数
6.2 信息速率失真函数的性质
6.3 离散无记忆信源下的信息速率失真函数的计算
6.3.1 信息速率失真函数解的充要条件及参数方程
6.3.2 求解信息速率失真函数的迭代算法
6.3.3 信息速率失真函数解的唯一性问题
6.3.4 乘积信源的信息速率失真函数
6.4 连续无记忆信源的信息速率失真函数
6.4.1 连续无记忆信源信息速率失真函数的定义及其解的充要条件
6.4.2 差值失真量度下连续无记忆信源信息速率失真函数的计算
6.5 标量量化
6.5.1 均匀量化
6.5.2 Lloyd-Max算法
6.6 有记忆连续信源与模拟信源的信息速率失真函数
6.6.1 有记忆连续信源的信息速率失真函数的定义
6.6.2 模拟信源的信息速率失真函数的定义
6.6.3 高斯有记忆连续信源的信息速率失真函数
6.6.4 高斯模拟信源的信息速率失真函数
6.7 变换编码——实用的熵压缩分组编码
6.8 预测编码——实用的熵压缩树码
6.8.1 最小均方误差预测器
6.8.2 最小平均绝对误差预测器
6.8.3 最大零误差概率预测器
习题
第7章 最大熵原理与最小鉴别信息原理
7.1 非适定问题与最大熵和最小鉴别信息原理
7.1.1 非适定问题的提出
7.1.2 最大熵原理与最小鉴别信息原理
7.2 最大熵原理的合理性
7.3 最小鉴别信息原理与最大熵原理的公理化推导
7.3.1 最小鉴别信息原理的推导
7.3.2 最大熵原理的推导
7.4 最小失真意义下的最大熵原理与最小鉴别信息原理
7.4.1 方向正交与投影失真
7.4.2 投影失真的一般形式
7.4.3 最小失真准则与熵准则
7.5 最大熵与最小鉴别信息原理的应用及其解的分布
7.5.1 最大熵与最小鉴别信息原理的应用
7.5.2 最大熵分布与最小鉴别信息分布
习题
第8章 组合信息、算法信息与通用编码
8.1 信源统计特性不确定时的信源编码问题
8.1.1 统计特性失配时统计编码的性能
8.1.2 自适应统计编码
8.2 基于组合的信息量度与通用编码
8.2.1 基于组合的信息量度
8.2.2 通用编码
8.2.3 Fitingof通用编码的性能
8.3 算法信息量
8.3.1 单一事件或数值下的信息量度问题
8.3.2 Kolmogorov算法熵
8.4 二元字符序列的算法熵
8.5 算法熵的不可计算性
8.6 有限状态压缩编码器
8.7 Lewpel-Ziv编码
8.8 LZ编码压缩比与香农熵
习题
第9章 通信网中的信源编码与信道容量
9.1 概述
9.2 反馈信道
9.3 多个随机变量下的联合典型序列
9.4 多源接入信道
9.4.1 多源接入信道的容量
9.4.2 相关信源输入下的多源接入信道
9.5 高斯多源接入信道
9.5.1 高斯多源接入信道的容量域
9.5.2 对高斯多源接入信道容量域的讨论
9.5.3 多源接入信道容量域与多址方法的关系
9.6 分布信源编码
习题
参考文献
索引

本目录推荐