![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数学与深度学习
峰峰的猫
归零心态,持续学习
展开
-
python复现softmax损失函数详细版
from torch import nnimport torchdef loss_func(output,target):one_hot = torch.zeros_like(output)for i in range(target.size(0)):one_hot[i,target[i]]=1softmax_out = torch.exp(output)/( torch.unsque...原创 2019-06-30 07:31:46 · 2974 阅读 · 0 评论 -
focal_loss
@Focalloss自我理解sigmoid交叉熵损失tensorflow中的 tf.nn.sigmoid_cross_entropy_with_logits()是最开始的基础二分类交叉熵,其中将是该类别的标签为1,不是该类别的标签为0。one_hot编码表示三分类中的第三个类别为[0,0,1],sigmoid识别为第三个类别为正样本,其他的类别为负样本。tensorflow的实现是在原有基...翻译 2019-01-25 09:32:33 · 555 阅读 · 0 评论 -
详细理解pytorch的六种学习率
author = ‘SherlockLiao’import torchfrom torch import nn, optimfrom torch.autograd import Variableimport numpy as npimport matplotlib.pyplot as pltx_train = np.array([[3.3], [4.4], [5.5], [6.71],...原创 2019-06-30 10:14:54 · 3981 阅读 · 0 评论 -
深度学习面试高频之Batch Normalization
batch normalization作用的最全总结!原创 2019-08-30 19:54:25 · 465 阅读 · 0 评论 -
meta-learning在工业界的应用
learner to learn 训练模型具有快速学习的能力原创 2019-09-07 11:19:15 · 1050 阅读 · 2 评论