基本概念
- 随机变量:
- 信息:消除随机变量不确定性的事物
- 信息量与传播媒介无关
- 信息是相对的
- 信息是客观物理量
- 噪音(非信息)
- 数据 = 噪音 + 信息
- 信源:产生信息的实体
- 信源符号 发生概率
- 自信息:
- 信息熵:
- 信源发出符号平均信息量,衡量不确定度
- 编码的最优策略
- 二为底:bit
- e 为底:纳特
- 条件自信息:
- 条件熵:
- 互信息:
- 接受到一个变量使另一个变量不确定度减少的量
- 联合熵:
- 交叉熵:
- 基于 编码时平均比特数
- 相对熵(KL 散度,信息增益):
- 使用基于 的分布来编码服从 的分布的样本所需的额外的平均比特数