OMSCS-ML课程笔记09-Information Theory
这个系列是Gatech OMSCS 机器学习课程(CS 7641: Machine Learning)的同步课程笔记。课程内容涉及监督学习、无监督学习和强化学习三个部分,本节主要介绍信息论的相关内容。
Entropy
信息量的基本度量是信息熵(information entropty),对于离散随机变量
熵度量了随机变量的随机程度:
除此之外我们还可以从编码长度来理解信息熵。对于随机变量
在信息熵的基础上我们可以定义两个离散随机变量的联合熵(joint entropy):
同时已知
Mutual Information
对于随机变量
互信息度量了随机变量
Kullback–Leibler Divergence
本节最后介绍了KL散度(Kullback–Leibler divergence),它可以用来度量概率分布
其中第一项称为
结合互信息不难发现,互信息是联合概率与独立概率之间的KL散度。从这个角度看互信息实际上度量了
最后需要说明的是严格来说KL散度并不是一个距离度量,它不满足交换性: