【多选题】离散信源是一个离散型的随机变量。对下面关于离散信源X的信息熵H(X)的含义,理解正确的是
A. 在信源输出后,表示每个信源符号所提供的平均信息量。 B. 在信源输出前,表示信源的平均不确定性。 C. 表示信源随机性大小,H(X)大的,随机大。 D. 当信源输出后,不确定性就解除,熵可视为解除信源不确定性所需的信息量
A. 在信源输出后,表示每个信源符号所提供的平均信息量。 B. 在信源输出前,表示信源的平均不确定性。 C. 表示信源随机性大小,H(X)大的,随机大。 D. 当信源输出后,不确定性就解除,熵可视为解除信源不确定性所需的信息量
举一反三
- 下面关于信息熵H(X)的说法正确的是 。 A: 信息熵H(X)是表示信源输出后,每个符号所提供的平均信息量 B: 信息熵H(X)表示信源输出前信源的平均不确定性 C: 可用信息熵H(X)来表征变量X的随机性 D: 若X为信道输入,Y为信道输出,信息熵H(X)可表示收到Y后获得的关于X的有效信息
- 下面表达式中错误的是(多选):( )。 A: 连续信源和离散信源的熵都具有非负性 B: 对信源X进行哈夫曼编码得到的码字是唯一的 C: 互信息量I(X;Y)表示从Y中得到的信源X的平均信息量 D: 单符号离散信源的自信息和信源熵都是一个确定值
- 【单选题】关于自信息量和离散信源熵的下列说法正确的是() A. 自信息量≥ 0 ,离散信源熵≥ 0 ; B. 自信息量≤ 0 ,离散信源熵≤ 0 ; C. 自信息量≥ 0 ,离散信源熵≤ 0 ; D. 自信息量≤ 0 ,离散信源熵≥ 0 ;
- 当离散信源中每个符号()时,该信源的平均信息量最大。
- 离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。