我的第一篇博客记录一下,主要是写一点关于神经网络的内容。
一、信息熵的意义:
代表信息量(不确定度)的大小。变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。也可以理解为越可能发生的事情,信息量越小,越不可能发生都得事情信息量越小。
二、在线性回归中常用MSE(Mean Squared Error)作为loss函数,比如:
loss=1/2m∑i=1m(yi−yi^)2
三、参考博客:
https://blog.csdn.net/tsyccnh/article/details/79163834
关于交叉熵的感悟
最新推荐文章于 2024-07-23 17:02:16 发布