话题
搜索

相互信息


两个离散变量之间的互信息随机变量 X(X)Y(Y)定义为

 I(X;Y)=总和_(X中的X)总和_(Y中的Y)P(X,Y)log_2((P(X,Y))/(P(X)P(Y)))
(1)

位。其他属性包括

I(X;Y)=I(Y;X)
(2)
I(X;Y)>=0,
(3)

 I(X;Y)=H(X)+H(Y)-H(X,Y),
(4)

哪里H(X)随机的,随机的变量 X(X)H(X,Y)是这些变量的联合熵。


另请参见

此条目由贡献埃里克·G。米勒

与Wolfram一起探索| Alpha

工具书类

盖,T.M。和J.A.托马斯。信息论要素。纽约:Wiley,第18-261991页。

引用的关于Wolfram | Alpha

相互信息

引用如下:

埃里克·米勒。“相互信息”来自数学世界--Wolfram Web资源,创建人埃里克W·韦斯坦.https://mathworld.wolfram.com/MutualInformation.html

受试者分类