![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
强化学习RL
一个想自行编写代码的菜鸡
展开
-
LSTM 预测原油价格(超级详细解析,只此一份)
LSTM 预测原油价格(超详细解析)原创 2022-05-23 22:47:39 · 776 阅读 · 0 评论 -
分类问题中的交叉熵Cross Entropy Loss
在看Easy RL中,学习PG算法P122的时候,提到了交叉熵。因为,分类问题常用的损失函数为交叉熵交叉熵描述了两个概率分布之间的距离,交叉熵越小说明两者之间越接近。原文链接:https://blog.csdn.net/xg123321123/article/details/528648301 信息量信息量是用来衡量一个事件的不确定性的;一个事件发生的概率越大,不确定性越小,则它所携带的信息量就越小。总结:熵是信息量的期望值,它是一个随机变量的确定性的度量。熵越大,变量的取值越不确定;反之转载 2022-05-03 17:46:44 · 367 阅读 · 0 评论