深度学习
单手打字
人工智能
展开
-
记录一下对函数拟合的理解
神经网络如何实现多项式拟合原创 2022-08-08 07:46:11 · 253 阅读 · 0 评论 -
记录一次自定义损失导致的RuntimeError: CUDA error: device-side assert triggered
自定义损失函数返回nan导致的cuda错误原创 2022-06-15 14:02:49 · 1037 阅读 · 0 评论 -
谱归一化(SNGAN)实现
SNGAN学习笔记及谱归一化的pytorch实现原创 2022-05-04 21:22:12 · 3079 阅读 · 0 评论 -
双汉诺塔及其时间复杂度
双汉诺塔实现及其时间复杂度原创 2022-03-24 18:52:06 · 682 阅读 · 0 评论 -
torch.tensor().reshape在求梯度问题
x = torch.tensor([[2,3]],dtype=torch.float,requires_grad=True)......x.grad与x = torch.tensor([2,3],dtype=torch.float,requires_grad=True).reshape((1,2))......x.grad是不一样的,前者可以正常求出梯度,后者的x经过reshape就不是叶子节点了,所以平时要注意需要求梯度的变量的创立格式。(注意第一个tensor是两个中括号,这样x原创 2021-10-20 19:49:57 · 1737 阅读 · 1 评论 -
torch.gather()方法的理解
torch.gather(源张量,维度轴dim,索引张量)gather()是类似于数组按下标获取元素值的方法,只不过数组或者二维数组可以直接通过行列下标获取值,而张量一般都是多维度的,不可以用下标获取,需要借助维度轴(dim)。源张量指的就是原始张量,维度轴如图索引张量的样式要与目标张量保持一致。例:t=torch.Tensor([[1,2],[3,4]])#创建一个2*2的浮点张量,这是一个二维的张量,存在dim=0和dim=1,当dim=0时,即纵轴,此时索引张量里面的...原创 2021-10-20 16:41:53 · 1287 阅读 · 1 评论