加载中…
个人资料
wuqiseu
wuqiseu
  • 博客等级:
  • 博客积分:0
  • 博客访问:9,409
  • 关注人气:62
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

自信息和熵的概念

(2017-07-04 14:23:28)
分类: 数字信号处理
我理解的信息论——自信息、熵、互信息

先说自信息,自信息是描述一个事件不确定度的大小(描述随机变量带来的信息大小)书上说是描述随机变量的不确定性的数量(不确定性的数量神马意思嘛),一个事件的不确定度越大,它带来的自信息也就越大,公式:-logp(x) 或者    log1/p(x) (在计算机领域里log都是以2为低的)

比如说某一随机变量的概率为1/5  , 那么它的自信息就是5比特。(自信息的单位是bite,比特)就是说这个随机变量带来5比特的信息。

熵就是自信息的数学期望也就(自信息的平均值),换句话说熵是信源发出的每一个符号后所带来的信息的平均值(不知道这么理解对不对),所以说熵又称为自信息,公式:Σp(xi)log1/p(xi)  ,    你看这个公式和期望的公式是很相似的。

所以和自信息一样,熵越大,不确定度越大,正确估计它的概率越小,反之。越不确定的随机变量越需要大的信息量来确定其值。


自信息是单个事件的信息量,而熵是已给信源的自信息的期望,也就是均值。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有