- 博客(1)
- 收藏
- 关注
原创 pytorch学习笔记——二分类交叉熵损失函数
pytorch学习笔记——二分类交叉熵损失函数二分类交叉熵函数二分类交叉熵函数binary_cross_entropy公式:loss=−y∗log(y^)−(1−y)∗log(1−y^)loss=-y\ast \log \left( \widehat {y}\right) -\left( 1-y\right) \ast log\left( 1-\widehat {y}\right)loss=−y∗log(y)−(1−y)∗log(1−y)接下来使用代码自己编辑计算公式和调用pyt
2020-05-10 23:04:13 6046
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人