框架啊啥的
主要是TensorFlow,numpy等一些包的使用
EntropyPlus
这个作者很懒,什么都没留下…
展开
-
Pytorch 自定义loss的两种方法
一般来说,Pytorch提供自定义loss的方法,常用的有两种:使用pytorch内部函数直接实现,该方法较为简单,不用人工计算梯度需要Numpy实现,需要自定义反向传播的公式使用Pytorch内部的函数实现的Custom loss function in PyTorchnumpy_extensions_tutorial使用Numpy的函数实现的下面模型来自网络模型入门import torchimport torch.nn as nn# https://blog.csdn.ne原创 2020-12-27 21:26:26 · 1514 阅读 · 0 评论 -
PyTorch 的 Autograd
写在前面:这篇博客主要是对 pytorch 的自动求导机制进行学习,主要内容来自知乎:PyTorch 的 Autograd文章目录1. 计算图2. 具体实例3. 叶子张量4. inplace 操作1. 计算图假设我们有一个复杂的神经网络模型,我们把它想象成一个错综复杂的管道结构,不同的管道之间通过节点连接起来,我们有一个注水口,一个出水口。我们在入口注入数据的之后,数据就沿着设定好的管道路线缓缓流动到出水口,这时候我们就完成了一次正向传播。计算图通常包含两种元素,一个是 tensor,另一个是 Fu转载 2020-12-09 10:41:50 · 159 阅读 · 0 评论 -
numpy快速one-hot编码
#设置类别的数量 num_classes = 10 #需要转换的整数 arr = [1,3,4,5,9] #将整数转为一个10位的one hot编码 print(np.eye(10)[arr])```原创 2019-12-15 10:15:07 · 361 阅读 · 0 评论 -
Pytorch构建模型的几种方法
假设构建一个网络模型如下:卷积层–>Relu层–>池化层–>全连接层–>Relu层–>全连接层import torchimport torch.nn.functional as Ffrom collections import OrderedDict# Method 1 -----------------------------------------...转载 2019-12-14 14:44:48 · 190 阅读 · 0 评论 -
pytorch中谜一样的索引赋值法
testimport torchnums = 3# 首先,我们随机生成一个3*5的矩阵a = torch.randn(nums, 5)# 在列的维度(dim=0),取每列的最大值overlap_for_each_prior, object_for_each_prior = a.max(dim=0)_, prior_for_each_object = a.max(dim=1) # (...原创 2019-11-18 16:59:40 · 2288 阅读 · 1 评论 -
mxnet与pytorch中交叉熵损失与L1损失的区别
1. 交叉熵根据pytorch的文档根据而mxnet的文档二者只是少了一个求和的结果。但实际上二者做softmax的轴是不一样的from torch import nnimport torchfrom mxnet import ndfrom mxnet.gluon import loss as glossimport numpy as npnp.random.seed(0...原创 2019-11-17 10:24:27 · 502 阅读 · 0 评论 -
pytorch 中LSTM的输出值
文章目录1. 官方手册2. output, h_n, c_n 之间的关系3. 代码1. 官方手册2. output, h_n, c_n 之间的关系首先,Pytorch中的LSTM有三个输出 output, hn, cn。可以把hn理解为当前时刻,LSTM层的输出结果,而cn是记忆单元中的值,output则是包括当前时刻以及之前时刻所有hn的输出值在只有单时间步的时候,out...原创 2019-10-20 17:11:28 · 9013 阅读 · 3 评论 -
TensorFlow 2.0-GPU
转载 2019-10-12 22:19:36 · 187 阅读 · 0 评论 -
计算图
文章目录Node:是一种变量,可以是(scalar, vector, tensor,…)Edge:是一种操作,可以看做是一种简单的函数那么,在计算微分时,计算图的威力就显示出来了,因为预先预先定义节点之间的关系:...原创 2019-10-12 21:02:29 · 150 阅读 · 0 评论