两个信源X,Y的平均互信息I(X;Y)一定小于等于信源熵H(X),同时一定小于H(Y).
举一反三
- 以下是从信道发送端评估平均互信息的是: A: I(X;Y)=H(X)-H(X|Y) B: I(X;Y)=H(Y)-H(Y|X) C: I(X;Y)=H(X)+H(Y)-H(XY) D: H(XY)=H(X)+H(Y|X)
- 两个互相关联的随机变量X和Y,X的不确定度为H(X)。已知Y后,X的不确定度H(X/Y),那么它们的互信息I为( ) A: I(X,Y)=H(X)+H(X/Y) B: I(X,Y)=H(X)-H(X/Y) C: I(X,Y)=H(X)+H(Y/X) D: I(X,Y)=H(X)-H(Y/X)
- 下面关于信息熵H(X)的说法正确的是 。 A: 信息熵H(X)是表示信源输出后,每个符号所提供的平均信息量 B: 信息熵H(X)表示信源输出前信源的平均不确定性 C: 可用信息熵H(X)来表征变量X的随机性 D: 若X为信道输入,Y为信道输出,信息熵H(X)可表示收到Y后获得的关于X的有效信息
- 满足一定条件时,可使条件熵H(X|Y)等于H(X)。
- 平均互信息量I(X;Y)= A: H(X)-H(X|Y) B: H(Y)-H(Y|X) C: H(X)+H(Y)-H(XY) D: H(X)-H(Y|X)