1.sigmod函数。公式为1/1+e^-x。起到的作用如图所示:
2. tanh函数,公式如图
其实可由sigmoid函数变化而来。
-
relu函数
优先使用,最常用 -
mse–loss函数
与2范数略有不同。缺了一个平方。 -
首先初始化x和w,也就是输入和权重,使用F.mse_loss()函数(其中F为torch.nn.function)计算出mse均方误差,接着使用torch.autograd.grad()函数来进行梯度的计算。这里出现的第一个错误就是因为没有指定w是一个带梯度的量,可以通过w.requires_grad()来使得w变成带有梯度计算的量,然后运行会出现另一个错误,是因为pytorch是一个动态图的形式,需要再次进行计算更新。当然,这里也可以在一开始指定w为可以计算梯度的tensor。使用w = torch.tensor([.2], required = True)就可以实现。然后通过自带的函数则可计算出梯度。
-
backword函数也可以计算出梯度,可以调用w.grad,w1.grad来进行调用
-
-