信息熵、相对熵、交叉熵公式及tensorflow代码

最近在学习卷积神经网络,其中遇到了信息熵和交叉熵,对此理解的一知半解,现记录一下信息熵、相对熵、交叉熵公式及tensorflow代码,供以后参考。

假设概率分布中,真实分布:p(x)  假设分布:q(x)

  • 信息量公式:

  • 信息熵公式:

  • 相对熵公式:

  • 交叉熵公式:

借助于tensorflow框架,根据以上几个公式进行试验:

#coding:utf-8
"""
    Created by cheng star at 2018/8/19 12:04
    @email : xxcheng0708@163.com
"""

import tensorflow as tf

# 真实分布概率
p = [i/10 for i in range(1 , 10)]
# 假设分布概率
q = [1 - prob for prob in p]
print(p)
print(q)

# x = tf.constant(value=p , dtype=tf.float32)

with tf.Session() as sess :
    sess.run(tf.global_variables_initializer())

    # 信息量
    case_1 = -tf.log(p)
    print(sess.run(case_1))

    # 信息熵
    case_2 = -tf.reduce_sum(p * tf.log(p))
    print(sess.run(case_2))

    # 相对熵
    case_3 = tf.reduce_sum(p * tf.log(p) - p * tf.log(q))
    print(sess.run(case_3))

    # 交叉熵
    case_4 = -tf.reduce_sum(p * tf.log(q))
    print(sess.run(case_4))

代码输入、输出结果如下:

输入:

p = [0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9]
q = [0.9, 0.8, 0.7, 0.6, 0.5, 0.4, 0.30000000000000004, 0.19999999999999996, 0.09999999999999998]

输出:

信息量:[ 2.30258512  1.60943794  1.20397282  0.9162907   0.69314718  0.51082557  0.35667497  0.22314353  0.10536055]

信息熵:2.45594

相对熵:3.00957

交叉熵:5.4655

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值