深度学习
czg792845236
这个作者很懒,什么都没留下…
展开
-
pytorch scatter_的用法及含义
待添加原创 2020-04-18 19:32:27 · 3821 阅读 · 1 评论 -
pytorch损失函数binary_cross_entropy和binary_cross_entropy_with_logits的区别
binary_cross_entropy和binary_cross_entropy_with_logits都是来自torch.nn.functional的函数,首先对比官方文档对它们的区别:函数名解释binary_cross_entropyFunction that measures the Binary Cross Entropy between the target a...原创 2020-04-18 15:58:45 · 54620 阅读 · 4 评论 -
Pytorch Dataset,TensorDataset,Dataloader,Sampler关系
DataloaderDataloader是数据加载器,组合数据集和采样器,并在数据集上提供单线程或多线程的迭代器。所以Dataloader的参数必然需要指定数据集Dataset和采样器Sampler。class torch.utils.data.DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, num_workers...原创 2020-04-09 19:22:56 · 991 阅读 · 0 评论 -
深度学习基础
主要需要了解的东西如下:交叉熵损失和对数损失的区别SGD,bach,minibatch。主要是讲SGD随机梯度下降计算单个样本的梯度,bach基于整个样本计算梯度,minibatch在它们两者之间,这个主要体现在loss function上,单个样本计算梯度的loss function就没有对整个样本求和,而很多样本一起计算梯度,就要知道对每个样本的loss然后求和。sigmoid函数及其...原创 2020-01-07 19:29:50 · 115 阅读 · 0 评论