Pytorch
不愿透露姓名的王建森
这个作者很懒,什么都没留下…
展开
-
Pytorch中的自动求导函数backward()所需参数的含义
正常来说backward( )函数是要传入参数的,一直没弄明白backward需要传入的参数具体含义,但是没关系,生命在与折腾,咱们来折腾一下,嘿嘿。原创 2019-05-04 23:57:04 · 2492 阅读 · 1 评论 -
Pytorch中的交叉熵函数CrossEntropyLoss()
分类问题中,交叉熵函数是比较常用也是比较基础的损失函数,原来就是了解,但一直搞不懂他是怎么来的?为什么交叉熵能够表征真实样本标签和预测概率之间的差值?趁着这次学习把这些概念系统学习了一下。 交叉熵的数学原理 首先说起交叉熵,脑子里就会出现这个东西: L=−[ylogy^+(1−y)log(1−y^)]L=-[y\log{\hat{y}}+(1-y)\log{(1-\hat{y})}] L=−[...原创 2019-05-05 18:50:53 · 15428 阅读 · 0 评论 -
Pytorch中的torch.cat函数
cat是concatnate的意思:拼接,联系在一起。 先说cat( )的普通用法 如果我们有两个tensor是A和B,想把他们拼接在一起,需要如下操作: C = torch.cat( (A,B),0 ) #按维数0拼接(竖着拼) C = torch.cat( (A,B),1 ) #按维数1拼接(横着拼) >>> import torch >>> A=t...原创 2019-05-05 18:59:31 · 5182 阅读 · 0 评论 -
Pytorch中的squeeze-和unsqueeze-函数
在numpy库中,经常会出现“秩为1的一维数组”(come from 吴恩达的深度学习,目前还没有搞清楚numpy中如此设计的意图)。比如: >>> a = torch.rand(3) >>> a.shape torch.Size([3]) 注意这里的a的shape是[3] ,既不是 [1,3] 也不是 [3,1]。这就说明它既不是行向量也不是列向量,只是一个...原创 2019-05-05 19:00:26 · 668 阅读 · 1 评论