机器学习
Lins H
这个作者很懒,什么都没留下…
展开
-
torch.nn.Softmax()用法
深度学习中Softmax 4种维度归一化原创 2022-09-23 10:45:50 · 1488 阅读 · 0 评论 -
with torch.no_grad()
在tensor这个类中,如果将其属性 requires_grad设置为true,它将追踪在其上的所有操作(利于反向梯度传播)。完成计算后,可以调用backward()来完成所有梯度计算,此时tensor的梯度将累积到 tensor.grad()属性中 如果不想被追踪,比如在画图,输出时,可以调用 .detach()将其从追踪记录里分离出来,这样就可以防止将来的计算被追踪。 此外 在优化算法时还可以用 with torch,no_grad()将不想被追踪的操作代码包裹起来,固定住,因为此时不需要梯度传播了 d原创 2021-11-01 11:17:20 · 487 阅读 · 0 评论 -
机器学习之感知机
举一个我学感知机的时候看的例子 儿童乘车,1.2米以上(包括1.2m)购票,1.2米以下免票,很容易得出如下分段函数 所有人分成了2类,一类是买票,一类是免票(也可以把y设置成0) 为了方便以后的修改,可以令t=1.2m 同理 我们还可以以0为边界 PS:引入边界0是为了在处理有条件极值问题时比较方便的使用拉格朗日乘子法 我们把上面问题重新思考一下,如果想修改新的免票的条件:不仅和身高有关,还和年龄有关;那我们如何根据已进入人数的身高,年龄来制定新的免票标准,让后面的人即刻遵守这个条件。 x1代表年龄原创 2021-10-14 00:11:45 · 253 阅读 · 0 评论