pytorch
文章平均质量分 54
北在哪
这个作者很懒,什么都没留下…
展开
-
log_softmax与softmax
SoftmaxSoftmax是指数标准化函数,又称为归一化指数函数,将多个神经元的输出,映射到 (0,1) 范围内,并且归一化保证和为1,从而使得多分类的概率之和也刚好为1。其公式如下:Softmax(zi)=exp(zi)∑jexp(zj)\operatorname{Softmax}\left(\boldsymbol{z}_{i}\right)=\frac{\exp \left(z_{i}\right)}{\sum_{j} \exp \left(z_{j}\right)}Softmax(zi..原创 2022-04-02 23:02:02 · 6051 阅读 · 1 评论 -
Pytorch named_parameters()和parameters()
原创 2021-12-19 10:48:30 · 541 阅读 · 0 评论