(二)pytorch学习笔记 torch.nn 神经网络实现回归

来源于pytorch的官方学习资料的总结

y = [0.5, 14.0, 15.0, 28.0, 11.0, 8.0, 3.0, -4.0, 6.0, 13.0, 21.0]
x = [35.7, 55.9, 58.2, 81.9, 56.3, 48.9, 33.9, 21.8, 48.4, 60.4, 68.4]

现在我们有十个点,横纵坐标如上所示,点的在坐标中的分布如下图所示。我们可以通过torch.nn来实现一个简单的线性回归。也就是 y = ax + b,回归的结果如图2所示。代码在最下方。
图1
在这里插入图片描述
通过线性的回归我们可以得到一个可以接受的结果,但是这并不是最好的结果,我们可以通过加入激活函数来使得最后的结果变成一个曲线,去更好的拟合这些点。
在这里插入图片描述
如上图,我们在(ax+b)输出的结果中加入一个激活函数,如tanh。这样出来的结果就是一个非线性的了,但是我们仅仅通过两个参数 a 和 b,是很难描绘出我们需要的曲线的。这时候我们就需要很多个像上面<<<o=tanh(ax+b)>>这样的式子,去

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值