欢迎访问 生活随笔!

生活随笔

当前位置: 首页 > 编程资源 > 编程问答 >内容正文

编程问答

信息论-Shannon entropy-Kullback-Leibler (KL) divergence-cross-entropy

发布时间:2024/9/15 编程问答 48 豆豆
生活随笔 收集整理的这篇文章主要介绍了 信息论-Shannon entropy-Kullback-Leibler (KL) divergence-cross-entropy 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

信息论是应用数学的一个分支,主要研究的是对一个信号包含信息的多少进行量化。


信息论的基本想法是一个不太可能的事件居然发生了,要比一个非常可能的事件发生,能提供更多的信息。消息说:‘‘今天早上太阳升起’’ 信息量是如此之少以至于没有必要发送,但一条消息说:‘‘今天早上有日食’’ 信息量就很丰富。




熵由 (p − 1) log(1 − p) − p log p 给出。当 p 接近 0 时,分布几乎是确定的,因为随机变量几乎总是0。当 p 接近 1 时,分布也几乎是确定的,因为随机变量几乎总是 1。当 p = 0.5 时,熵是最大的,因为分布在两个结果(0 和 1)上是均匀的.



Logistic Regression:


总结

以上是生活随笔为你收集整理的信息论-Shannon entropy-Kullback-Leibler (KL) divergence-cross-entropy的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得生活随笔网站内容还不错,欢迎将生活随笔推荐给好友。